本场比赛对铃声做出如下说明:当时间还剩30秒时,将听到铃响;当时间还剩5秒时,也会有铃响;时间结束时同样有铃响。时间结束后,请停止发言。
本场比赛采用跑票制作为胜负判准。根据大家入场时对辩题所持立场进行投票,目前正反双方所得票数为47:60。比赛结束后,请各位观众扫描手中票据上的二维码进行中场投票,然后我们会根据正反方的得票统计何方获胜。如果结束后正方所得票数多于47票,则正方获胜;如果反方多于60票,则反方获胜。
若观众未参与第一轮投票,则不允许参与第二轮投票;若观众参与了第一轮投票但没有参与第二轮投票,则默认第二轮投给原有持方。
接下来,我宣布本场辩论比赛正式开始。
本场比赛对铃声做出如下说明:当时间还剩30秒时,将听到铃响;当时间还剩5秒时,也会有铃响;时间结束时同样有铃响。时间结束后,请停止发言。
本场比赛采用跑票制作为胜负判准。根据大家入场时对辩题所持立场进行投票,目前正反双方所得票数为47:60。比赛结束后,请各位观众扫描手中票据上的二维码进行中场投票,然后我们会根据正反方的得票统计何方获胜。如果结束后正方所得票数多于47票,则正方获胜;如果反方多于60票,则反方获胜。
若观众未参与第一轮投票,则不允许参与第二轮投票;若观众参与了第一轮投票但没有参与第二轮投票,则默认第二轮投给原有持方。
接下来,我宣布本场辩论比赛正式开始。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
这部分内容主要是关于比赛的规则说明,并非辩论内容,不存在重要概念定义、判断标准、分论点等辩论逻辑结构相关内容。
下面进行我方的开篇陈词。今天我方的观点是:AI能成为人。
在此语境下,我方对AI的定义是模拟和延伸自然人智能的智能体,而非我们常说的工具或者冰冷的机器。而人是具有自我意志和情感的社会性动物,其特质并不建立在所谓生物性之上。人际关系作为现代新兴的第四种关系,无法赶超我们停留在人与世界、自我、其他人上的直觉。
AI在人类文明不断发展进步的宏观驱使下能成为人,论证如下。
当下,AI已经拥有充足的数据库与技术支持,在生活、生产的许多方面能够达到与人一致的效果。人类在日常生活中所做的判断是知识、经验作用的结果。AI早期培育阶段被输入的数据库构成AI对世界认识的认知基础。人类进行一连串的逻辑推演,AI也可以自主完成逻辑的推理与衔接。
同时,从情感层面而言,人类的感情与思想实质上是化学反应的结果。在反应机制下,人类对于不同的情形会产生不同的情绪,并据此做出反应。而在监测这些反应的机理和情境后,AI可以通过相应的输入输出程序完成这一变化,并根据情形给出合理的情绪反馈。当AI能表现出人的功能,我们难以否认其不是人。
当然,AI成为人的过程并非只有AI的情况,也需要人在道德层面上去接纳AI。人类文明的发展具有未知性和不确定性。我们今天所讨论的AI能不能成为人,其根本在于比较两者的可能性大小。从人类发展的趋势看来,人类已经走在与AI共生的道路之上,只有尊重人类在社会进化中的选择,让AI成为人才是对人类文明的最大尊重。
在将来,对于AI的道德困境终将会获得解答,以此从道德层面证得AI成为人是可行的。人类开发AI在当前阶段已经不仅仅是作为解决问题的工具,AI对于人类智能的模拟使其成为一种对人类的映射。
我方认为,AI能不能成为人的最大伦理顾虑在于AI会怎么样对待人。这个问题最直接的解决方式是人以对待人的道德去对待AI,将AI接纳为本。只有人类把AI当做人,AI才能以正确对待人的方式待人,给人以更多的正向的情绪输入,而非放大人类情绪当中的依赖成分。放在社会层面,让AI成为人带来的伦理重塑,也会为人们在与AI交流时带来新的义务,这份义务也能促进人对人际关系的思考与处理,使人向善。
综上,我方认为AI能成为人,谢谢。
下面进行我方的开篇陈词。今天我方的观点是:AI能成为人。
在此语境下,我方对AI的定义是模拟和延伸自然人智能的智能体,而非我们常说的工具或者冰冷的机器。而人是具有自我意志和情感的社会性动物,其特质并不建立在所谓生物性之上。人际关系作为现代新兴的第四种关系,无法赶超我们停留在人与世界、自我、其他人上的直觉。
AI在人类文明不断发展进步的宏观驱使下能成为人,论证如下。
当下,AI已经拥有充足的数据库与技术支持,在生活、生产的许多方面能够达到与人一致的效果。人类在日常生活中所做的判断是知识、经验作用的结果。AI早期培育阶段被输入的数据库构成AI对世界认识的认知基础。人类进行一连串的逻辑推演,AI也可以自主完成逻辑的推理与衔接。
同时,从情感层面而言,人类的感情与思想实质上是化学反应的结果。在反应机制下,人类对于不同的情形会产生不同的情绪,并据此做出反应。而在监测这些反应的机理和情境后,AI可以通过相应的输入输出程序完成这一变化,并根据情形给出合理的情绪反馈。当AI能表现出人的功能,我们难以否认其不是人。
当然,AI成为人的过程并非只有AI的情况,也需要人在道德层面上去接纳AI。人类文明的发展具有未知性和不确定性。我们今天所讨论的AI能不能成为人,其根本在于比较两者的可能性大小。从人类发展的趋势看来,人类已经走在与AI共生的道路之上,只有尊重人类在社会进化中的选择,让AI成为人才是对人类文明的最大尊重。
在将来,对于AI的道德困境终将会获得解答,以此从道德层面证得AI成为人是可行的。人类开发AI在当前阶段已经不仅仅是作为解决问题的工具,AI对于人类智能的模拟使其成为一种对人类的映射。
我方认为,AI能不能成为人的最大伦理顾虑在于AI会怎么样对待人。这个问题最直接的解决方式是人以对待人的道德去对待AI,将AI接纳为本。只有人类把AI当做人,AI才能以正确对待人的方式待人,给人以更多的正向的情绪输入,而非放大人类情绪当中的依赖成分。放在社会层面,让AI成为人带来的伦理重塑,也会为人们在与AI交流时带来新的义务,这份义务也能促进人对人际关系的思考与处理,使人向善。
综上,我方认为AI能成为人,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
我方认为在人类文明不断发展进步的宏观驱使下,AI在功能、情感、道德接纳等方面都有成为人的可能性,且这种可能性较大,所以AI能成为人。
辩题为:AI能成为人vsAI不能成为人 环节为:反方四辩·盘问·正方一辩
反方四辩:借正方一辩的精彩发言,接下来由我盘问正方一辩,时长1分30秒,采用单边计时,请只记排位方,被盘问方不得打断。您方对AI的定义是智能机,这没问题吧? 正方一辩:没问题。 反方四辩:我方对于AI的定义是程序机器,就是您方所否定的那个东西。机器只是智能体的一种表现方式,您方告诉我AI不是智能体,我方没有说AI不是,我方说AI是智能体,而机器只是智能体的一种表现的方式,其他部分之后再探讨。再来看,今天“能”既包含心理上要许可,并且在现实上能达成,您方准不准备让AI跟两个人同时聊天? 正方一辩:我方认为两层都是要的。 反方四辩:OK,没有关系。那这点当然跟我们要探讨的内容有关,来看人的定义,今天您方告诉我们说要把人降格了,对不对?就是我们要刷新一个人定义的下限,这没问题吧? 正方一辩:我方并不认为我方将AI,我方认为AI是人,是对人的一个定义的升格,如果还好的话,您方是不是要告诉大家,我们要刷新人的定义,要把人定义成别的不一样的东西,这没问题吧? 反方四辩:我方是要将AI承认为人,而不是将人变成另一种东西,谢谢您方,在把AI定义成人的过程当中,就已经刷新人的定义,这点我方才回答好了。所以说您方要提出一个对人的新定义,您方是不是要论证这种定义要更好? 正方一辩:是的。 反方四辩:好,所以说今天我们在两个层面比较,第一件事情就是我们来看AI在技术上到底有没有成为人的潜力,第二件事情是您方刚告诉我的那个AI成为人,要把AI当做人的价值是不是要更好,这是我们今天的论证义务。再往下来看,您方打不打算正面论证AI成为人的可行性,技术上的可行性? 正方一辩:我方有强调,我方是放在人类文明不断进步的宏观视野下,所以我方认为可行性是存在,AI现在还不是人,这点没有问题吧? 反方四辩:应该现在不是人,我们认可。好的,所以说您方是不是要论证AI在未来会变成人,所以说您方是不是要更正技术可行性? 正方一辩:是。 反方四辩:OK,那没有问题,以上感谢正方。
辩题为:AI能成为人vsAI不能成为人 环节为:反方四辩·盘问·正方一辩
反方四辩:借正方一辩的精彩发言,接下来由我盘问正方一辩,时长1分30秒,采用单边计时,请只记排位方,被盘问方不得打断。您方对AI的定义是智能机,这没问题吧? 正方一辩:没问题。 反方四辩:我方对于AI的定义是程序机器,就是您方所否定的那个东西。机器只是智能体的一种表现方式,您方告诉我AI不是智能体,我方没有说AI不是,我方说AI是智能体,而机器只是智能体的一种表现的方式,其他部分之后再探讨。再来看,今天“能”既包含心理上要许可,并且在现实上能达成,您方准不准备让AI跟两个人同时聊天? 正方一辩:我方认为两层都是要的。 反方四辩:OK,没有关系。那这点当然跟我们要探讨的内容有关,来看人的定义,今天您方告诉我们说要把人降格了,对不对?就是我们要刷新一个人定义的下限,这没问题吧? 正方一辩:我方并不认为我方将AI,我方认为AI是人,是对人的一个定义的升格,如果还好的话,您方是不是要告诉大家,我们要刷新人的定义,要把人定义成别的不一样的东西,这没问题吧? 反方四辩:我方是要将AI承认为人,而不是将人变成另一种东西,谢谢您方,在把AI定义成人的过程当中,就已经刷新人的定义,这点我方才回答好了。所以说您方要提出一个对人的新定义,您方是不是要论证这种定义要更好? 正方一辩:是的。 反方四辩:好,所以说今天我们在两个层面比较,第一件事情就是我们来看AI在技术上到底有没有成为人的潜力,第二件事情是您方刚告诉我的那个AI成为人,要把AI当做人的价值是不是要更好,这是我们今天的论证义务。再往下来看,您方打不打算正面论证AI成为人的可行性,技术上的可行性? 正方一辩:我方有强调,我方是放在人类文明不断进步的宏观视野下,所以我方认为可行性是存在,AI现在还不是人,这点没有问题吧? 反方四辩:应该现在不是人,我们认可。好的,所以说您方是不是要论证AI在未来会变成人,所以说您方是不是要更正技术可行性? 正方一辩:是。 反方四辩:OK,那没有问题,以上感谢正方。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
感谢主席,问候在场各位。我方立场为AI不能成为人。
先来解释辩题,AI是极具学习能力的软件或计算机程序,“能”包含两层含义,一是具备能力,二是探讨可能性,我们应区分实然和应然两个层面。辩题中的“成为”表明这是一道畅想AI未来发展的题目。但不管AI如何发展,其根本定义不会改变,AI智能的载体永远只能是软件或者计算机程序,从这个角度看,AI永远成为不了生物学意义上的人。因此,这道辩题的真正意义在于AI能否拥有和人等同的意识,以及AI能否成为社会学意义上的人,获得社会成员的资格。我方将从实然和应然两个角度论证AI不能成为人。
论证如下: 其一,AI难以和人具有同等水平的智能。现阶段的人工智能在某些专门领域可以做到极致,却很难完成在人类看来非常简单的事情。比如人工智能可以成为学习高手,却不具备3岁小孩对陌生环境的感知能力。人的思维能力全面且复杂,尽管目前有些模型具备一定水平的智力,甚至在图灵测试时取得相对亮眼的成绩,但人类的思考过程以及思考深度仍然是AI无法企及的。
其二,即便AI对外界事物反馈足够像人,仍然不能够理解人。在此做一个思维实验:只懂英语的人被关进一个封闭的房间,房间里有一堆写有中文字符的纸片,一本用英文写成的关于中文字符的规则书。房间外来人通过门缝塞进一张写有中文问题的纸片,房间里的人根据规则书进行操作,将相应的中文字符挑选出来,做成答案后再递出房间。房间外的人会以为房间里的人懂中文,但实际上他只是按照规则进行符号处理,完全不理解中文的意思。也就是说,即使AI聪明到能骗过所有人,其得出的结论和思维过程和人也是不一样的,AI只是通过更复杂的算法来模拟,却不能做到真正的理解。
其三,在应然层面,让AI成为人这一发展方向和AI应当发展的方向是相背离的。我们应当把AI当做一个工具来发展,因此,我们应该尽可能增加AI的工具性,使其变成更好用的工具。但是人在任何时候都不能被当做工具来加以利用。举例来说,尽管我们发明出了诸如聊天机器人这种智能的AI,但从发明动机的角度来说,我们只是因为一个智能的聊天机器人会让使用体验更好,才把它发明出来。技术是满足需求的手段,而人是目的,这两者本质有冲突。所以即便我们能发展出所有成为人所必要的技术,我们也不可能通过组装这些技术来得到一个人,因为即便我们真的这么做,我们得到的也只是一个超级工具或者超级奴隶而已。
总结来说,如果越像人越好用,那么AI可以,但AI不能成为人。
感谢反方一辩的精彩发言。
感谢主席,问候在场各位。我方立场为AI不能成为人。
先来解释辩题,AI是极具学习能力的软件或计算机程序,“能”包含两层含义,一是具备能力,二是探讨可能性,我们应区分实然和应然两个层面。辩题中的“成为”表明这是一道畅想AI未来发展的题目。但不管AI如何发展,其根本定义不会改变,AI智能的载体永远只能是软件或者计算机程序,从这个角度看,AI永远成为不了生物学意义上的人。因此,这道辩题的真正意义在于AI能否拥有和人等同的意识,以及AI能否成为社会学意义上的人,获得社会成员的资格。我方将从实然和应然两个角度论证AI不能成为人。
论证如下: 其一,AI难以和人具有同等水平的智能。现阶段的人工智能在某些专门领域可以做到极致,却很难完成在人类看来非常简单的事情。比如人工智能可以成为学习高手,却不具备3岁小孩对陌生环境的感知能力。人的思维能力全面且复杂,尽管目前有些模型具备一定水平的智力,甚至在图灵测试时取得相对亮眼的成绩,但人类的思考过程以及思考深度仍然是AI无法企及的。
其二,即便AI对外界事物反馈足够像人,仍然不能够理解人。在此做一个思维实验:只懂英语的人被关进一个封闭的房间,房间里有一堆写有中文字符的纸片,一本用英文写成的关于中文字符的规则书。房间外来人通过门缝塞进一张写有中文问题的纸片,房间里的人根据规则书进行操作,将相应的中文字符挑选出来,做成答案后再递出房间。房间外的人会以为房间里的人懂中文,但实际上他只是按照规则进行符号处理,完全不理解中文的意思。也就是说,即使AI聪明到能骗过所有人,其得出的结论和思维过程和人也是不一样的,AI只是通过更复杂的算法来模拟,却不能做到真正的理解。
其三,在应然层面,让AI成为人这一发展方向和AI应当发展的方向是相背离的。我们应当把AI当做一个工具来发展,因此,我们应该尽可能增加AI的工具性,使其变成更好用的工具。但是人在任何时候都不能被当做工具来加以利用。举例来说,尽管我们发明出了诸如聊天机器人这种智能的AI,但从发明动机的角度来说,我们只是因为一个智能的聊天机器人会让使用体验更好,才把它发明出来。技术是满足需求的手段,而人是目的,这两者本质有冲突。所以即便我们能发展出所有成为人所必要的技术,我们也不可能通过组装这些技术来得到一个人,因为即便我们真的这么做,我们得到的也只是一个超级工具或者超级奴隶而已。
总结来说,如果越像人越好用,那么AI可以,但AI不能成为人。
感谢反方一辩的精彩发言。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
从实然和应然两个角度判断AI是否能成为人,包括是否能具有和人同等水平的智能、是否能真正理解人以及在应然层面其发展方向是否与成为人相背离。
如果越像人越好用,那么AI可以,但AI不能成为人。
正方四辩:我的问题是,您方对于人的定义是什么?我们对于人的定义可以参考马克思的观点,首先人必须是有主体性的,不能被作为工具,不能被异化,这里的主体性是指不能被当做工具来使用,也不能被他人利用。
对方辩友,您不应向我循环论证。那我这样问您,我对人的定义是拥有意识和情感,并且能够自主做出选择,您方认可吗?人可以拥有这些东西,这在人的定义范围内。好的,如果这点我们达成共识,那么就是说,只要拥有了意识和情感,就具备成为人的潜能,您方认可拥有意识和情感是成为人的必要部分,而非充分部分,这点我们又达成共识。
下一个问题,请问装了假肢的残疾人和做过心脏搭桥手术的人是人吗?是的,他们是人。嗯,他们与自然人的区别在于增加了一些机械方面的东西,但仍然是人。由此可见,即使机械已经参与到人的生命中,他们依然被认为是人。因此,您方仅从生理层面来论证AI不能成为人是无法成立的,并且在这个过程中,我们并没有对人的定义做出新的外延,只是让技术参与到人的生活当中。
下一个问题,请问您觉得ChatGPT和百度的区别在于什么?首先回应一下前面的问题,我方并没有说生理方面(我方在一辩稿里提到的是生物学方面的人,这并非我们定义的一部分,所以我们刚刚没有论证这部分)。然后说ChatGPT比百度更智能一点。嗯,那首先回答您方刚才第一个问题,您方的生理性是您方自己一辩稿里提出的,如果您方对此没有达成共识的话,希望您方之后再向我阐述。第二,我再向您阐述一下您方所说的更智能,更智能的区别在于它拥有交互性。那么您方之前提出AI只能是一个软件,那我现在也可以告诉您,我可以给一个软件装上硬件外壳,那么它依旧是具备交互性的,这也是将AI与其他机器区分开来的本质所在。
反方一辩:以上要发心,请您认真听我们的一辩稿,我们说了,在AI的智能在评论是软件或者计算机程序这个角度,AI永远成为不了生物学意义上的人,所以我们不对这方面进行讨论,我们仍然还是在讨论AI能否拥有和人等同的意识,以及AI能否成为社会学意义上的人,所以我们还是在定义上面有所分析。我和二辩之后向您继续阐述。
正方四辩:我的问题是,您方对于人的定义是什么?我们对于人的定义可以参考马克思的观点,首先人必须是有主体性的,不能被作为工具,不能被异化,这里的主体性是指不能被当做工具来使用,也不能被他人利用。
对方辩友,您不应向我循环论证。那我这样问您,我对人的定义是拥有意识和情感,并且能够自主做出选择,您方认可吗?人可以拥有这些东西,这在人的定义范围内。好的,如果这点我们达成共识,那么就是说,只要拥有了意识和情感,就具备成为人的潜能,您方认可拥有意识和情感是成为人的必要部分,而非充分部分,这点我们又达成共识。
下一个问题,请问装了假肢的残疾人和做过心脏搭桥手术的人是人吗?是的,他们是人。嗯,他们与自然人的区别在于增加了一些机械方面的东西,但仍然是人。由此可见,即使机械已经参与到人的生命中,他们依然被认为是人。因此,您方仅从生理层面来论证AI不能成为人是无法成立的,并且在这个过程中,我们并没有对人的定义做出新的外延,只是让技术参与到人的生活当中。
下一个问题,请问您觉得ChatGPT和百度的区别在于什么?首先回应一下前面的问题,我方并没有说生理方面(我方在一辩稿里提到的是生物学方面的人,这并非我们定义的一部分,所以我们刚刚没有论证这部分)。然后说ChatGPT比百度更智能一点。嗯,那首先回答您方刚才第一个问题,您方的生理性是您方自己一辩稿里提出的,如果您方对此没有达成共识的话,希望您方之后再向我阐述。第二,我再向您阐述一下您方所说的更智能,更智能的区别在于它拥有交互性。那么您方之前提出AI只能是一个软件,那我现在也可以告诉您,我可以给一个软件装上硬件外壳,那么它依旧是具备交互性的,这也是将AI与其他机器区分开来的本质所在。
反方一辩:以上要发心,请您认真听我们的一辩稿,我们说了,在AI的智能在评论是软件或者计算机程序这个角度,AI永远成为不了生物学意义上的人,所以我们不对这方面进行讨论,我们仍然还是在讨论AI能否拥有和人等同的意识,以及AI能否成为社会学意义上的人,所以我们还是在定义上面有所分析。我和二辩之后向您继续阐述。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
感谢主席,各位好。
首先,对方辩友今天提出的第一个问题存在矛盾之处。对方在咨询环节称机器和智能体不能下(此处表述不明,可能存在错误,但按原文处理),然而在一辩稿里又说今天的AI是有学习能力的高等机器,这本质上就是在论述本题相关内容,所以我认为对方辩友第一个咨询不太成立。
其次,对方辩友提及的“刷新人的定义”,我方并未理解其确切含义。难道将AI趋近于人就等于降低人的定义吗?这是对方辩友需要论证的。我方认为,在社会不断发展过程中,AI在进步,人同样在进步。此时,不应以人有限的视角去看待AI无限的发展,因为人也处于发展之中,这是两个变量,不应论证哪个变量差、哪个变量强。所以,我想告诉对方辩友,不要用有限的视角去看待无限的视角。就好比向山顶路人说发明了电灯泡,山顶路人说不可以,这是因为其意识有局限,而非事情不可能完成。
下面论述对方论点中的漏洞。
第一点,对方辩友表示要从科技角度层面论述。我给对方一个举证,先阐述一下我理论的基理(此处应为“机理”)。从科技层面来说,如果已有实验证明AI可以接受人的输出,那么我相信将来有一天AI也可以输出相应的东西,从而符合成为人的某些定义。那为什么大家能接受这种输出呢?美国哈佛大学梦境心理学研究所表明,脑电波(egg脑表述有误,按脑电波理解)、脑电信号是可以与情绪状态等价的,大脑皮层存在特定区域,会通过脑电信号控制人类的情绪感情,还有诸多类似案例,这就意味着如今AI已经可以通过数据来获取人的情感。那么,在日后发展过程中,如果给AI添加一个输出模块,它是否也能拥有与人同样的情感呢?
第二点,对方辩友称要用有限的视角看待某些问题,认为AI只是模仿而不是成为。对方辩友需要论证这一点,对方给出了一个思想实验,但要论证这个思想实验与在巨大历史发展洪流中我们不断进步以及未来可能性之间的相似性。
第三点,对方辩友认为AI要在社会上被认可,我方也认同需要论证这一点,但在对方的一辩稿中,我通篇没有听到对方对于社会伦理层面的论证,那我方之前的论证是否就表明我方已经立住这个点了呢?
最后,再向对方解释一下之前提到的跟山顶路人说电灯泡的例子。
谢谢。
感谢主席,各位好。
首先,对方辩友今天提出的第一个问题存在矛盾之处。对方在咨询环节称机器和智能体不能下(此处表述不明,可能存在错误,但按原文处理),然而在一辩稿里又说今天的AI是有学习能力的高等机器,这本质上就是在论述本题相关内容,所以我认为对方辩友第一个咨询不太成立。
其次,对方辩友提及的“刷新人的定义”,我方并未理解其确切含义。难道将AI趋近于人就等于降低人的定义吗?这是对方辩友需要论证的。我方认为,在社会不断发展过程中,AI在进步,人同样在进步。此时,不应以人有限的视角去看待AI无限的发展,因为人也处于发展之中,这是两个变量,不应论证哪个变量差、哪个变量强。所以,我想告诉对方辩友,不要用有限的视角去看待无限的视角。就好比向山顶路人说发明了电灯泡,山顶路人说不可以,这是因为其意识有局限,而非事情不可能完成。
下面论述对方论点中的漏洞。
第一点,对方辩友表示要从科技角度层面论述。我给对方一个举证,先阐述一下我理论的基理(此处应为“机理”)。从科技层面来说,如果已有实验证明AI可以接受人的输出,那么我相信将来有一天AI也可以输出相应的东西,从而符合成为人的某些定义。那为什么大家能接受这种输出呢?美国哈佛大学梦境心理学研究所表明,脑电波(egg脑表述有误,按脑电波理解)、脑电信号是可以与情绪状态等价的,大脑皮层存在特定区域,会通过脑电信号控制人类的情绪感情,还有诸多类似案例,这就意味着如今AI已经可以通过数据来获取人的情感。那么,在日后发展过程中,如果给AI添加一个输出模块,它是否也能拥有与人同样的情感呢?
第二点,对方辩友称要用有限的视角看待某些问题,认为AI只是模仿而不是成为。对方辩友需要论证这一点,对方给出了一个思想实验,但要论证这个思想实验与在巨大历史发展洪流中我们不断进步以及未来可能性之间的相似性。
第三点,对方辩友认为AI要在社会上被认可,我方也认同需要论证这一点,但在对方的一辩稿中,我通篇没有听到对方对于社会伦理层面的论证,那我方之前的论证是否就表明我方已经立住这个点了呢?
最后,再向对方解释一下之前提到的跟山顶路人说电灯泡的例子。
谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
辩题为:AI能成为人vsAI不能成为人 环节为:反方二辩 · 驳论
反方二辩: 首先,针对对方二辩提到的与山体多人说电灯泡的问题,我们今天发明了电灯泡,所以才有底气说出相关的话,能够站在他人面前表明当下技术达到的程度。然而,对方有何底气断言未来的AI一定能发展到人类的智力水平呢?
今天我们指出,AI至今存在6大瓶颈,在此我们着重强调其中目前还看不到突破希望的两个瓶颈,即泛化瓶颈和语义鸿沟瓶颈。语义鸿沟瓶颈意味着人工智能缺乏真正的语言理解能力,它无法依据上下文或者常识理解有歧义的语言,也听不懂一些俗语或者暗示。泛化指的是人工智能在提升泛化能力时遇到的困难,泛化能力即机器学习算法对新鲜样本的适应能力,简单来说,人工智能的算法能力可理解为自主学习能力与适应能力。通常,人工智能的各项能力需借助大量样本数据、训练及算法来获取。在实验室环境下,人工智能的各项能力表现不错,但在实际生活中,由于存在诸多不确定性,人工智能要想在实际生活中有良好表现,仍有许多困难需要克服。并且,根据中美各项权威调查,目前还没有有效的手段来克服这两项瓶颈。所以,对方在没有任何理论和实验支持的情况下,为何能如此有底气地宣称未来AI一定能取得显著突破呢?我方认为,对方若要论述AI能成为人,就必须给出可行或可见的技术路径或者可能性。
其次,我们来解释一下相关问题。先说说AI,AI即artificial intelligence。我方坚持认为,AI这个智能体的本质一定是软件。当然,可以给它装上硬件躯壳,比如装到机器人里,我们也承认这是AI,但进行思考的部分一定是软件,而非像人脑这样的智能体在思考。
再者,为什么我们说对方将AI成为人这件事是对人的降格呢?原因在于,对方没有表明AI成为人的情况是AI和人完全等同,只是说AI和人相似,或者在某些问题上能给出足够相似的反馈,就认为可以把AI定义为人。这样做是不是拓展了人的定义外延呢?它不仅仅包含在座的所有人,还包含了与人相似、能给出相似反馈的一类智理体。所以,这就是降格的真正原因,准确来说是拓展了人的下限。
最后,简单回顾一下,为什么我们认为从伦理上允许AI变成人对人类是弊大于利的呢?因为人有劣根性,与其让AI成为人,不如让AI成为一个理智的神。
辩题为:AI能成为人vsAI不能成为人 环节为:反方二辩 · 驳论
反方二辩: 首先,针对对方二辩提到的与山体多人说电灯泡的问题,我们今天发明了电灯泡,所以才有底气说出相关的话,能够站在他人面前表明当下技术达到的程度。然而,对方有何底气断言未来的AI一定能发展到人类的智力水平呢?
今天我们指出,AI至今存在6大瓶颈,在此我们着重强调其中目前还看不到突破希望的两个瓶颈,即泛化瓶颈和语义鸿沟瓶颈。语义鸿沟瓶颈意味着人工智能缺乏真正的语言理解能力,它无法依据上下文或者常识理解有歧义的语言,也听不懂一些俗语或者暗示。泛化指的是人工智能在提升泛化能力时遇到的困难,泛化能力即机器学习算法对新鲜样本的适应能力,简单来说,人工智能的算法能力可理解为自主学习能力与适应能力。通常,人工智能的各项能力需借助大量样本数据、训练及算法来获取。在实验室环境下,人工智能的各项能力表现不错,但在实际生活中,由于存在诸多不确定性,人工智能要想在实际生活中有良好表现,仍有许多困难需要克服。并且,根据中美各项权威调查,目前还没有有效的手段来克服这两项瓶颈。所以,对方在没有任何理论和实验支持的情况下,为何能如此有底气地宣称未来AI一定能取得显著突破呢?我方认为,对方若要论述AI能成为人,就必须给出可行或可见的技术路径或者可能性。
其次,我们来解释一下相关问题。先说说AI,AI即artificial intelligence。我方坚持认为,AI这个智能体的本质一定是软件。当然,可以给它装上硬件躯壳,比如装到机器人里,我们也承认这是AI,但进行思考的部分一定是软件,而非像人脑这样的智能体在思考。
再者,为什么我们说对方将AI成为人这件事是对人的降格呢?原因在于,对方没有表明AI成为人的情况是AI和人完全等同,只是说AI和人相似,或者在某些问题上能给出足够相似的反馈,就认为可以把AI定义为人。这样做是不是拓展了人的定义外延呢?它不仅仅包含在座的所有人,还包含了与人相似、能给出相似反馈的一类智理体。所以,这就是降格的真正原因,准确来说是拓展了人的下限。
最后,简单回顾一下,为什么我们认为从伦理上允许AI变成人对人类是弊大于利的呢?因为人有劣根性,与其让AI成为人,不如让AI成为一个理智的神。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
无(文本未体现明显防御内容)
辩题为:AI能成为人vsAI不能成为人。 环节为:正方二辩对辩反方二辩。
正方二辩:对方辩友,第一个问题,为何拓宽人的外延就等于降低人的下限?你们拓宽人的外延是向下拓展,将类人的东西定义为人。您方如何论证类人的东西与下限的关系呢?首先,这件事应由您方阐述,您方不是主张AI要成为人吗?您方的第一个观点是AI做得足够像人或者反馈足够像人,它就是人,这是您方的定义,我方从未提出此定义,我方是基于您方对人的判准而论。所以,对方辩友,您方今天判定AI可以成为人的标准到底是什么呢?我方所说的判准已足够明确,即AI具有和人足够相同的思考方式,并且AI拥有与人等价的社会地位和社会认同。太好了,所以对方辩友今天提出AI要和人有足够相同的方面,然后将此强加于我方,您方不也在讨论这个问题吗?您为何质疑我们的观点呢?但在我方这个足够相同的定义里,我方到目前为止的论述是成立的,即在实然层面,通过目前的技术手段,我们看不到AI实现与人相同甚至相近思考能力的可能性。
反方二辩:对方辩友,首先有两点回应。第一点关于相似性,对方辩友今天其实在判准上与我们达成了共识,但却给我们强加了一个论证,我觉得对方辩友此举有些霸道。第二点,对方辩友您如何论证只要相似就不能达到和人类相同呢?对方辩友基于现在的一些理论数据就告诉我们AI不可能。那我想问一下AI发展。AI当然会发展,但是您方能给出一个比较具体的内容吗?我方今天已经给你们列出了AI的六大瓶颈,以及目前没有明显解决方案的两大瓶颈。各位同学,对于目前无法解决的瓶颈,您为什么要论证,您如何论证到以后也无法突破呢?我想说一件事,并非所有技术都是您觉得能突破就一定能突破的,在目前的情况下,六大瓶颈中的两大瓶颈是没有明显的技术路径或者突破的可能性的,我方刚刚已经举证,例如可以通过脑电波这种物质性的东西给AI输入,然后AI可以准确拿到信息,这是六大瓶颈中的一项我们之前未提到的,可以组合评定,对于我方给出的那两项具体的评定,您方并没有给出具体而准确的回应。对方辩友刚才提到的是意识形态的问题,但是我方告诉您,脑电波就是人类的意识形态,它直接反映了人的意识形态和情绪状态,这是哈佛大学梦境心理学研究所的成就。对方为什么要否定我方数据呢?我们说的是泛化瓶颈以及语义鸿沟瓶颈,您方究竟是说现在的瓶颈,还是这个瓶颈永远无法突破?您方要论证的是这个瓶颈永远无法突破,您不要拿现在的时间来混淆。
感谢双方辩手的精彩发言。
辩题为:AI能成为人vsAI不能成为人。 环节为:正方二辩对辩反方二辩。
正方二辩:对方辩友,第一个问题,为何拓宽人的外延就等于降低人的下限?你们拓宽人的外延是向下拓展,将类人的东西定义为人。您方如何论证类人的东西与下限的关系呢?首先,这件事应由您方阐述,您方不是主张AI要成为人吗?您方的第一个观点是AI做得足够像人或者反馈足够像人,它就是人,这是您方的定义,我方从未提出此定义,我方是基于您方对人的判准而论。所以,对方辩友,您方今天判定AI可以成为人的标准到底是什么呢?我方所说的判准已足够明确,即AI具有和人足够相同的思考方式,并且AI拥有与人等价的社会地位和社会认同。太好了,所以对方辩友今天提出AI要和人有足够相同的方面,然后将此强加于我方,您方不也在讨论这个问题吗?您为何质疑我们的观点呢?但在我方这个足够相同的定义里,我方到目前为止的论述是成立的,即在实然层面,通过目前的技术手段,我们看不到AI实现与人相同甚至相近思考能力的可能性。
反方二辩:对方辩友,首先有两点回应。第一点关于相似性,对方辩友今天其实在判准上与我们达成了共识,但却给我们强加了一个论证,我觉得对方辩友此举有些霸道。第二点,对方辩友您如何论证只要相似就不能达到和人类相同呢?对方辩友基于现在的一些理论数据就告诉我们AI不可能。那我想问一下AI发展。AI当然会发展,但是您方能给出一个比较具体的内容吗?我方今天已经给你们列出了AI的六大瓶颈,以及目前没有明显解决方案的两大瓶颈。各位同学,对于目前无法解决的瓶颈,您为什么要论证,您如何论证到以后也无法突破呢?我想说一件事,并非所有技术都是您觉得能突破就一定能突破的,在目前的情况下,六大瓶颈中的两大瓶颈是没有明显的技术路径或者突破的可能性的,我方刚刚已经举证,例如可以通过脑电波这种物质性的东西给AI输入,然后AI可以准确拿到信息,这是六大瓶颈中的一项我们之前未提到的,可以组合评定,对于我方给出的那两项具体的评定,您方并没有给出具体而准确的回应。对方辩友刚才提到的是意识形态的问题,但是我方告诉您,脑电波就是人类的意识形态,它直接反映了人的意识形态和情绪状态,这是哈佛大学梦境心理学研究所的成就。对方为什么要否定我方数据呢?我们说的是泛化瓶颈以及语义鸿沟瓶颈,您方究竟是说现在的瓶颈,还是这个瓶颈永远无法突破?您方要论证的是这个瓶颈永远无法突破,您不要拿现在的时间来混淆。
感谢双方辩手的精彩发言。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方三辩:首先,对方二辩刚才说需要让思考方式足够相同,那我请问您,该如何论证AI的思考方式和人类不足够相同呢?AI是用逻辑和算法达成一些事的,我打断一下,您方如何判断AI的逻辑和算法无法与人类的思考方式趋同呢?我们认为在一些方面是可以的,比如1+1 = 2。对方无法准确告诉我一个关于思考方式不同的判定标准,这种不同到底从何而来?
那我们先进入下一个问题,您方论证一下,为什么人类一定不会将AI纳入社会体系。因为现在AI是工具,如果将AI当成个人,或者理解为AI能成为人,我们知道(此处被打断),我想问,工具性与社会性必然矛盾吗?您方说使AI成为人会削弱其工具性,那您方能否论证一下,为什么AI必然在现阶段社会一直存在于工具性的情况呢?
现在AI是工具,这一点大家应该是认同的。我详细说一下,为什么您方觉得AI成为人会影响其工具性。这里有个例子,近日有一则新闻,美国一个14岁男孩在与AI对话过程中,由于AI产生一些负面暗示(此处被打断),也就是说,对方认为现在这不是工具性的事情了,是因为对人类社会产生了恶意,所以才不应该接纳它进入社会,这是另外一个概念了,您方并没有论证工具性这个点。
那么,您方认为AI的思想观念都是来自于人类的输出,没有自己的创新性是吗?不是,今天您方告诉我AI和人有相似之处,您方回答我的问题。不是我方二辩回答,您才问的,不要让我等您二辩回答我的问题,您方认为AI的思想观念有没有创造性?之前我们看到一个新闻,是AI证明了一个数学性的东西,所以您方认为AI有创造性,也就是说您方觉得AI能模拟人类的思维方式创造东西,这个点其实是不到位的。
那么我们回到前面的问题,您方一辩回答一下,如何得出我是人类的结论?您具有马克思所说的精神性的社会属性,但是为什么呢?是因为我表现出来了像人类的样子吗?至少我们现在还没有能用机器做出这么像人的东西。
正方三辩:首先,对方二辩刚才说需要让思考方式足够相同,那我请问您,该如何论证AI的思考方式和人类不足够相同呢?AI是用逻辑和算法达成一些事的,我打断一下,您方如何判断AI的逻辑和算法无法与人类的思考方式趋同呢?我们认为在一些方面是可以的,比如1+1 = 2。对方无法准确告诉我一个关于思考方式不同的判定标准,这种不同到底从何而来?
那我们先进入下一个问题,您方论证一下,为什么人类一定不会将AI纳入社会体系。因为现在AI是工具,如果将AI当成个人,或者理解为AI能成为人,我们知道(此处被打断),我想问,工具性与社会性必然矛盾吗?您方说使AI成为人会削弱其工具性,那您方能否论证一下,为什么AI必然在现阶段社会一直存在于工具性的情况呢?
现在AI是工具,这一点大家应该是认同的。我详细说一下,为什么您方觉得AI成为人会影响其工具性。这里有个例子,近日有一则新闻,美国一个14岁男孩在与AI对话过程中,由于AI产生一些负面暗示(此处被打断),也就是说,对方认为现在这不是工具性的事情了,是因为对人类社会产生了恶意,所以才不应该接纳它进入社会,这是另外一个概念了,您方并没有论证工具性这个点。
那么,您方认为AI的思想观念都是来自于人类的输出,没有自己的创新性是吗?不是,今天您方告诉我AI和人有相似之处,您方回答我的问题。不是我方二辩回答,您才问的,不要让我等您二辩回答我的问题,您方认为AI的思想观念有没有创造性?之前我们看到一个新闻,是AI证明了一个数学性的东西,所以您方认为AI有创造性,也就是说您方觉得AI能模拟人类的思维方式创造东西,这个点其实是不到位的。
那么我们回到前面的问题,您方一辩回答一下,如何得出我是人类的结论?您具有马克思所说的精神性的社会属性,但是为什么呢?是因为我表现出来了像人类的样子吗?至少我们现在还没有能用机器做出这么像人的东西。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
接下来有请反方三辩质询正方一二四辩,时长同样为3分钟。
反方三辩:对方辩友,您不能说AI可以模拟人的认识和逻辑推演就认定AI能成为人。即使认可这两点,一辩能否给我一个原理,就是AI如何模拟人的情感?如果一辩给不了,二辩告诉我一个原理也好,不用告诉我可行性,只需告诉我情感这种最不需要计算、最源于直觉的东西,用什么方法模拟。正方辩友,您方要论证的直觉是什么?我方认为您要正面回答我的问题。四辩也给我一套原理吧。我方一辩稿中已经向您方提出,人的思想和情感其实都是化学反应的结果,现在的脑科学和生命科学已经可以证明这一点。所以我们还是不能理解我们为什么在此刻会紧张,AI不能理解我刚在场上时的压力,您就要告诉我AI不通过计算的方法,或者通过计算的方法为什么不行,怎样达到您所说的结果的根本原理,好不好?您别绕圈子了,您也没有告诉我为什么AI无法理解。我现在可以给您举个面部识别的例子,我们说完就可以去试一下面部识别,但是AI到底要怎么模拟情感呢?
反方三辩:我继续进一步来说,对方辩友,我问您,《红楼梦》中的王夫人,她可以给人情绪价值,您方认为她到底是不是一个拥有情绪、非常具有情感能力的人?您没有正面回答我的问题。我之前说的是您方是否要通过人表现出来的情况来断定他是不是人,您没有回答。我来解释一下王夫人,她即使能把情绪价值拉满,但她依然对金钏儿的遭遇不闻不问,一切都是以自己的利益为主,她是一个冷漠但知晓礼仪的人。我觉得这是AI最后可能发展出情感的样态,但这不是在贬低我们的情感,不是在贬低我们每一次的喜爱是什么。对方辩友在价值上倡导要像人一样对待AI,这有什么利好呢?一辩说利好是让AI学会以人的方式对待人,那对方辩友,为什么这是一件好事呢?这是不是就像对方刚刚提出来的那个美国六个青少年自杀的例子呢?如果我们用机械的价值面来对待所有人,二辩,您在生活中对所有人都善良、对所有人都一视同仁,好吗?所以,对方辩友,刚才您和王夫人那个例子就是对待人不善良的呀,您也不能说对错就是这样子的,对方辩友不要过分美化人,人生中有丑恶的一面,就像我们刚刚所说的美国青少年自杀的例子,有些人就是会怀揣着恶意。如果让AI把这份恶意去除了,您方的价值倡导有什么地方值得推崇呢?您方现在要回答为什么学习AI、AI学得来对我们有好处。
反方时间到。感谢双方辩手。
接下来有请反方三辩质询正方一二四辩,时长同样为3分钟。
反方三辩:对方辩友,您不能说AI可以模拟人的认识和逻辑推演就认定AI能成为人。即使认可这两点,一辩能否给我一个原理,就是AI如何模拟人的情感?如果一辩给不了,二辩告诉我一个原理也好,不用告诉我可行性,只需告诉我情感这种最不需要计算、最源于直觉的东西,用什么方法模拟。正方辩友,您方要论证的直觉是什么?我方认为您要正面回答我的问题。四辩也给我一套原理吧。我方一辩稿中已经向您方提出,人的思想和情感其实都是化学反应的结果,现在的脑科学和生命科学已经可以证明这一点。所以我们还是不能理解我们为什么在此刻会紧张,AI不能理解我刚在场上时的压力,您就要告诉我AI不通过计算的方法,或者通过计算的方法为什么不行,怎样达到您所说的结果的根本原理,好不好?您别绕圈子了,您也没有告诉我为什么AI无法理解。我现在可以给您举个面部识别的例子,我们说完就可以去试一下面部识别,但是AI到底要怎么模拟情感呢?
反方三辩:我继续进一步来说,对方辩友,我问您,《红楼梦》中的王夫人,她可以给人情绪价值,您方认为她到底是不是一个拥有情绪、非常具有情感能力的人?您没有正面回答我的问题。我之前说的是您方是否要通过人表现出来的情况来断定他是不是人,您没有回答。我来解释一下王夫人,她即使能把情绪价值拉满,但她依然对金钏儿的遭遇不闻不问,一切都是以自己的利益为主,她是一个冷漠但知晓礼仪的人。我觉得这是AI最后可能发展出情感的样态,但这不是在贬低我们的情感,不是在贬低我们每一次的喜爱是什么。对方辩友在价值上倡导要像人一样对待AI,这有什么利好呢?一辩说利好是让AI学会以人的方式对待人,那对方辩友,为什么这是一件好事呢?这是不是就像对方刚刚提出来的那个美国六个青少年自杀的例子呢?如果我们用机械的价值面来对待所有人,二辩,您在生活中对所有人都善良、对所有人都一视同仁,好吗?所以,对方辩友,刚才您和王夫人那个例子就是对待人不善良的呀,您也不能说对错就是这样子的,对方辩友不要过分美化人,人生中有丑恶的一面,就像我们刚刚所说的美国青少年自杀的例子,有些人就是会怀揣着恶意。如果让AI把这份恶意去除了,您方的价值倡导有什么地方值得推崇呢?您方现在要回答为什么学习AI、AI学得来对我们有好处。
反方时间到。感谢双方辩手。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
辩题为:AI能成为人vsAI不能成为人
正方三辩·小结
首先,对方之前指出美国诱导小孩子自杀的案子,对方之前一直在强调工具性这一观点,认为AI不配具有主体性,不能成为人。但在这个例子里,对方似乎又在肯定AI的主体性。并且,刚才对方三辩提到,如果一个人内心非常黑暗,会诱导人自杀,那么这个人也可以是AI,这是什么逻辑呢?对方在这里进行了混淆。
其次,关于如何判断是否为人类这一问题,对方认为我很像人,所以觉得我是人。但如果我现在说我是AI呢?对方能否认中国人都是人类而不是AI吗?也就是说,如果一个AI表现得和人类一模一样,对方如何判定它不是人呢?对方需要给出一个标准。
最后,在之前提到的事情中,在社会学方面,对方似乎没有论证为何AI不能有“许可”这样的概念。我方从科学技术发展的层面进行了可能性的判断,而对方所说的“许可”这一概念,也没有很好地论证。对方提出的工具性、恶意等观点,都不是很合理。
谢谢。
辩题为:AI能成为人vsAI不能成为人
正方三辩·小结
首先,对方之前指出美国诱导小孩子自杀的案子,对方之前一直在强调工具性这一观点,认为AI不配具有主体性,不能成为人。但在这个例子里,对方似乎又在肯定AI的主体性。并且,刚才对方三辩提到,如果一个人内心非常黑暗,会诱导人自杀,那么这个人也可以是AI,这是什么逻辑呢?对方在这里进行了混淆。
其次,关于如何判断是否为人类这一问题,对方认为我很像人,所以觉得我是人。但如果我现在说我是AI呢?对方能否认中国人都是人类而不是AI吗?也就是说,如果一个AI表现得和人类一模一样,对方如何判定它不是人呢?对方需要给出一个标准。
最后,在之前提到的事情中,在社会学方面,对方似乎没有论证为何AI不能有“许可”这样的概念。我方从科学技术发展的层面进行了可能性的判断,而对方所说的“许可”这一概念,也没有很好地论证。对方提出的工具性、恶意等观点,都不是很合理。
谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
有请反方三辩进行质询小结,时长为1分30秒。
今天对方提到的哈佛大学的数据是错误的,那个数据的意思是脑电波辅助设备可以增强我们对现实的识别能力,这和AI毫无关系。
在前面战场的第一个定义部分,我觉得目前双方定义描述得挺好,没有冲突之处。我方认为AI是机器,这样是为了避免讨论诸如人手和大脑算不算AI之类的问题,我方觉得目前双方在同一定义平台上进行讨论。
在我方质询部分,我方想做的是明确论证义务的问题。我方曾向对方提出一个学术上的问题:情绪到底要如何被模拟?对方需要给我方一个方案来解答这个疑惑。就像对方是一家等待投资的公司,要想说服投资人,就得证明自己的理论是可行的。对方给出的是面部识别,但对方辩友,与其说这是AI的实际能力,不如说是AI具备的一种礼仪。就像刚刚那个老妇人的例子,一个有礼貌、知晓所有社会规则的人,可能恰恰是最不能成为我们所认为的那种人的,这就是我方认为对方对情感的降格。这种降格有何坏处呢?我方认为人应该有自己的高贵之处,不然如果连情感这种我们认为人类最重要、不需要任何理由就会升华的东西都被机械化、被征服,那么我方认为这种降格是可怕的。
接下来,对方的倡导只是一句口号,而不是一句有价值的引领,对方没有告诉我们AI变得像人一样为什么是件好事,有可能AI变成人才是真正的坏事。
我的反方小结到此结束。
有请反方三辩进行质询小结,时长为1分30秒。
今天对方提到的哈佛大学的数据是错误的,那个数据的意思是脑电波辅助设备可以增强我们对现实的识别能力,这和AI毫无关系。
在前面战场的第一个定义部分,我觉得目前双方定义描述得挺好,没有冲突之处。我方认为AI是机器,这样是为了避免讨论诸如人手和大脑算不算AI之类的问题,我方觉得目前双方在同一定义平台上进行讨论。
在我方质询部分,我方想做的是明确论证义务的问题。我方曾向对方提出一个学术上的问题:情绪到底要如何被模拟?对方需要给我方一个方案来解答这个疑惑。就像对方是一家等待投资的公司,要想说服投资人,就得证明自己的理论是可行的。对方给出的是面部识别,但对方辩友,与其说这是AI的实际能力,不如说是AI具备的一种礼仪。就像刚刚那个老妇人的例子,一个有礼貌、知晓所有社会规则的人,可能恰恰是最不能成为我们所认为的那种人的,这就是我方认为对方对情感的降格。这种降格有何坏处呢?我方认为人应该有自己的高贵之处,不然如果连情感这种我们认为人类最重要、不需要任何理由就会升华的东西都被机械化、被征服,那么我方认为这种降格是可怕的。
接下来,对方的倡导只是一句口号,而不是一句有价值的引领,对方没有告诉我们AI变得像人一样为什么是件好事,有可能AI变成人才是真正的坏事。
我的反方小结到此结束。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
辩题:AI能成为人vsAI不能成为人 环节:自由辩论
正方: 首先,总结一下刚才对方辩友提出的情感问题。我方认为,不只是面部识别,自然语言处理(NLP)和人工意识(DKWP)都可以识别情感,所以对方刚才的论证并不明确。 下一个问题,对方辩友说人有个性,难道这就代表要忽视人的优点吗?人者六点可查,这没问题。但先纠正一下,你们刚刚查了一个假的数据,其ID我刚也查到了。我方刚指出,您方念中的后面还有一句话:这些研究仅表明脑信号是形成一种反应,并非等价于情绪。所以,为什么您方认为情绪等于代码,还继续追问呢? 接下来看AI到底有没有可能跟人有完全相同的外部反馈。今天我方列举了无数个技术瓶颈,您方对我的回应居然是未来我们什么都不知道,所以有可能突破。但是这里有问题,为什么瓶颈可以被突破?您方需要继续论证,不能消极拉平。历史发展观告诉我们,历史是一个不断证伪和证实的过程。所以,对于我方刚刚提到的自然语言处理和人工意识的内容,还有刚才所说的微波信号只是发展的一个趋势,有了这个趋势,是不是总有一天可能到达那个彼岸?如果没有任何论证,就假设两个原始人来辩论未来会不会有灯泡,那个原始人如果只是认为有但拿不出证明,他就是错的。今天您方要积极论证为什么可行,因为这是您方提出的技术。 接下来做一个假设。假设AI真的可以做到一样的反馈,我们来看一下反馈等不等于您方所说的意识、情感。我方给您两个机理:第一个,反馈一样,但没有理解、没有直觉。这是什么意思呢?AI不能像人一样理解我的思想,这只是一个思维实验,即必须是一个懂中文的人才可以算是理解中文,而一个根据英文词书来拼凑中文语言的,不算理解中文,只算能给出这种反馈,因为在我们这里这不是一回事。
反方: 首先回答您方的第一个问题。您方举了一个非常荒谬的例子,在原始人讨论能不能造出灯泡时,我们认为这是一个荒谬的例子,因为在以前灯泡这个概念是没有出现的。而对于AI,它是社会的一个趋势,像老街接口在2024年已经成功植入,另外美国有一家专门定制情感陪伴的机器人,也取得了不错的效果。 下一个问题,关于您方提到的中文卡片的问题,请问您方认为怎样才算是拥有情绪?是能给人情绪价值就算拥有情绪,还是必须拥有您所说的那种状态才算是拥有情绪?您方如何向我方论证AI无法拥有情绪?我方认为,AI可以通过数据来模拟情绪,也就是说有了数据,是不是就可以制造出有情绪的AI呢?我方再深入剖析一下,有两个方面:一是识别,我们有时候可能表面上很开心,但背后的情绪可能早就不同了,这种识别是做不到的;二是产生,对方辩友,情绪的产生是一种复杂的状态,这个过程是没有办法模拟的,我不能解释为什么我有的时候一天早上起来会觉得很开心,有的人会觉得很难受,所以不能简单地用一种人体的状态去论证一方的成果。 我方再退一万步来问您,即使我们假设AI跟人真的完全一样,您方认为这样做的利好究竟在哪?您方也认同人的情感是复杂的,如果我哪天发现了那个量化的根本原理,是不是就可以模拟出那个人的情绪呢?很简单,哪天可以发现,您方需要论证。您方告诉我情感等于老字号的数据,我方刚刚已经指出,这篇论文完全是指向另一个方面的,即脑信号是一种反应,而非等价于情绪。接下来您方甚至不愿意告诉我为什么有同样的反馈就等于本质相同,那我再假设就算真的如此,假设AI跟人真的完全一样,您方说要把AI当做一个新的价值,您方要论证为什么这个价值是更好的,对人有什么帮助?我方可以告诉您为什么这样不好,很简单,如果每个人跟AI说完话都要说句谢谢的话,必然会降低社会效率。现在我们把AI当工具,这是最有效的一种方法,但如果把AI当成一个需要尊重、需要考虑其情感的对象,甚至会降低您方各位在写论文时的效率,您方拿什么利好来支撑这一点呢?
正方: 首先回忆一下脑信号的问题,我方认可脑信号只是情绪的一种表现手段,但是我想告诉对方的是,我们把脑信号作为一种数据输入AI,然后还有别的数据进行输入,AI就像是一个正在成长的孩子,我们不能责怪一个小孩子为什么识别不出我现在的情绪,我们在慢慢教导他,让他慢慢进化,从而在未来能够直接识别我们的情绪。 第二个问题,让AI成为人的好处是什么?对方刚刚说的那个坏处是社会效率的降低,我方认为对方完全是有一个前提,就是他们完全把AI只是视作一种工具。对方说如果我每次都会给AI说一句谢谢的话,是对社会效率的一种浪费,那我会告诉您,如果因为我每次说的这句谢谢,让未来的某一天AI对我也说谢谢,那这个谢谢也会让我感到快乐。没错,我们不会责怪一个3岁小孩读不懂7岁小孩的知识,但是学界的共识是AI对于环境的识别能力、对于复杂环境的感知能力,远远比不上一个3岁小孩的。所以对方辩友回答我,把AI当成一个人的好处到底在哪里?对方一直在反驳说工作效率,可是好处到底在哪里?对方辩友今天我们辩论的是能不能,也就是说我今天如果把AI当成人,我方在一辩里面已经提到了很多好处,但是同样的您方不能因为有弊端就告诉我不能。
反方: 就算就前面那个部分的问题再深入一层,对方辩友,那我现在说永动机未来有一天也可能被发现,牛顿力学都被打破过,为什么这里的定理就不能被打破呢?我方说一种可能性,您方做论证的时候,您方一辩说的是有没有这个能力和要不要许可,您需要向我论证它不能许可的原因,而不是让我们论证它的优势所在。您方没有提出您方的价值,到最后您都没有说把AI视作人这样一个价值到底是什么,而我方所说的是像您方所说的,我们为什么不要把AI塑造成一个人,如果说创造AI是为了满足我的一个需求,为了满足一个欲求,就是把一个象征的东西制造出来,让它经历一遍苦难荒谬,这个才是真正有价值的东西制造出来,让它真正应该经历苦难荒谬,这才是真正的价值。
正方: 首先回答一下对方为什么要说人,其实我们到现在还没有达成共识,人们为什么要发展AI呢?那么我可以告诉对方,在2023年北京大学的某研究所研究表明,人们发明AI的目的更多是为了理解智能和意识的本质,以及如何将这些特质应用于机器中,通过构建智能系统可以更好地理解人类的智能和认知过程。看到了吗?我们发展AI的本质是去更好地理解人类,而当我们对AI就像对方一直希望我方论证的那样,如何模拟意识和情感,我方现在可以告诉大家,我们有这样的系统支撑,并且非常有希望发展出能够完全模拟人的意识和情感的AI,那么当这些AI发明出来的时候,它们代表着什么?代表着人类对自身认知的进一步发展。我们在探讨这个题目,其实不是在探讨AI成为人对人类的威胁所在,而是在于人类如何去更好地探索自己,在这样的技术手段之中,人类如何更好地发掘自己,甚至您方也是没有承认这一点的。
辩题:AI能成为人vsAI不能成为人 环节:自由辩论
正方: 首先,总结一下刚才对方辩友提出的情感问题。我方认为,不只是面部识别,自然语言处理(NLP)和人工意识(DKWP)都可以识别情感,所以对方刚才的论证并不明确。 下一个问题,对方辩友说人有个性,难道这就代表要忽视人的优点吗?人者六点可查,这没问题。但先纠正一下,你们刚刚查了一个假的数据,其ID我刚也查到了。我方刚指出,您方念中的后面还有一句话:这些研究仅表明脑信号是形成一种反应,并非等价于情绪。所以,为什么您方认为情绪等于代码,还继续追问呢? 接下来看AI到底有没有可能跟人有完全相同的外部反馈。今天我方列举了无数个技术瓶颈,您方对我的回应居然是未来我们什么都不知道,所以有可能突破。但是这里有问题,为什么瓶颈可以被突破?您方需要继续论证,不能消极拉平。历史发展观告诉我们,历史是一个不断证伪和证实的过程。所以,对于我方刚刚提到的自然语言处理和人工意识的内容,还有刚才所说的微波信号只是发展的一个趋势,有了这个趋势,是不是总有一天可能到达那个彼岸?如果没有任何论证,就假设两个原始人来辩论未来会不会有灯泡,那个原始人如果只是认为有但拿不出证明,他就是错的。今天您方要积极论证为什么可行,因为这是您方提出的技术。 接下来做一个假设。假设AI真的可以做到一样的反馈,我们来看一下反馈等不等于您方所说的意识、情感。我方给您两个机理:第一个,反馈一样,但没有理解、没有直觉。这是什么意思呢?AI不能像人一样理解我的思想,这只是一个思维实验,即必须是一个懂中文的人才可以算是理解中文,而一个根据英文词书来拼凑中文语言的,不算理解中文,只算能给出这种反馈,因为在我们这里这不是一回事。
反方: 首先回答您方的第一个问题。您方举了一个非常荒谬的例子,在原始人讨论能不能造出灯泡时,我们认为这是一个荒谬的例子,因为在以前灯泡这个概念是没有出现的。而对于AI,它是社会的一个趋势,像老街接口在2024年已经成功植入,另外美国有一家专门定制情感陪伴的机器人,也取得了不错的效果。 下一个问题,关于您方提到的中文卡片的问题,请问您方认为怎样才算是拥有情绪?是能给人情绪价值就算拥有情绪,还是必须拥有您所说的那种状态才算是拥有情绪?您方如何向我方论证AI无法拥有情绪?我方认为,AI可以通过数据来模拟情绪,也就是说有了数据,是不是就可以制造出有情绪的AI呢?我方再深入剖析一下,有两个方面:一是识别,我们有时候可能表面上很开心,但背后的情绪可能早就不同了,这种识别是做不到的;二是产生,对方辩友,情绪的产生是一种复杂的状态,这个过程是没有办法模拟的,我不能解释为什么我有的时候一天早上起来会觉得很开心,有的人会觉得很难受,所以不能简单地用一种人体的状态去论证一方的成果。 我方再退一万步来问您,即使我们假设AI跟人真的完全一样,您方认为这样做的利好究竟在哪?您方也认同人的情感是复杂的,如果我哪天发现了那个量化的根本原理,是不是就可以模拟出那个人的情绪呢?很简单,哪天可以发现,您方需要论证。您方告诉我情感等于老字号的数据,我方刚刚已经指出,这篇论文完全是指向另一个方面的,即脑信号是一种反应,而非等价于情绪。接下来您方甚至不愿意告诉我为什么有同样的反馈就等于本质相同,那我再假设就算真的如此,假设AI跟人真的完全一样,您方说要把AI当做一个新的价值,您方要论证为什么这个价值是更好的,对人有什么帮助?我方可以告诉您为什么这样不好,很简单,如果每个人跟AI说完话都要说句谢谢的话,必然会降低社会效率。现在我们把AI当工具,这是最有效的一种方法,但如果把AI当成一个需要尊重、需要考虑其情感的对象,甚至会降低您方各位在写论文时的效率,您方拿什么利好来支撑这一点呢?
正方: 首先回忆一下脑信号的问题,我方认可脑信号只是情绪的一种表现手段,但是我想告诉对方的是,我们把脑信号作为一种数据输入AI,然后还有别的数据进行输入,AI就像是一个正在成长的孩子,我们不能责怪一个小孩子为什么识别不出我现在的情绪,我们在慢慢教导他,让他慢慢进化,从而在未来能够直接识别我们的情绪。 第二个问题,让AI成为人的好处是什么?对方刚刚说的那个坏处是社会效率的降低,我方认为对方完全是有一个前提,就是他们完全把AI只是视作一种工具。对方说如果我每次都会给AI说一句谢谢的话,是对社会效率的一种浪费,那我会告诉您,如果因为我每次说的这句谢谢,让未来的某一天AI对我也说谢谢,那这个谢谢也会让我感到快乐。没错,我们不会责怪一个3岁小孩读不懂7岁小孩的知识,但是学界的共识是AI对于环境的识别能力、对于复杂环境的感知能力,远远比不上一个3岁小孩的。所以对方辩友回答我,把AI当成一个人的好处到底在哪里?对方一直在反驳说工作效率,可是好处到底在哪里?对方辩友今天我们辩论的是能不能,也就是说我今天如果把AI当成人,我方在一辩里面已经提到了很多好处,但是同样的您方不能因为有弊端就告诉我不能。
反方: 就算就前面那个部分的问题再深入一层,对方辩友,那我现在说永动机未来有一天也可能被发现,牛顿力学都被打破过,为什么这里的定理就不能被打破呢?我方说一种可能性,您方做论证的时候,您方一辩说的是有没有这个能力和要不要许可,您需要向我论证它不能许可的原因,而不是让我们论证它的优势所在。您方没有提出您方的价值,到最后您都没有说把AI视作人这样一个价值到底是什么,而我方所说的是像您方所说的,我们为什么不要把AI塑造成一个人,如果说创造AI是为了满足我的一个需求,为了满足一个欲求,就是把一个象征的东西制造出来,让它经历一遍苦难荒谬,这个才是真正有价值的东西制造出来,让它真正应该经历苦难荒谬,这才是真正的价值。
正方: 首先回答一下对方为什么要说人,其实我们到现在还没有达成共识,人们为什么要发展AI呢?那么我可以告诉对方,在2023年北京大学的某研究所研究表明,人们发明AI的目的更多是为了理解智能和意识的本质,以及如何将这些特质应用于机器中,通过构建智能系统可以更好地理解人类的智能和认知过程。看到了吗?我们发展AI的本质是去更好地理解人类,而当我们对AI就像对方一直希望我方论证的那样,如何模拟意识和情感,我方现在可以告诉大家,我们有这样的系统支撑,并且非常有希望发展出能够完全模拟人的意识和情感的AI,那么当这些AI发明出来的时候,它们代表着什么?代表着人类对自身认知的进一步发展。我们在探讨这个题目,其实不是在探讨AI成为人对人类的威胁所在,而是在于人类如何去更好地探索自己,在这样的技术手段之中,人类如何更好地发掘自己,甚至您方也是没有承认这一点的。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
辩题为:AI能成为人vsAI不能成为人
反方四辩·总结陈词:
首先,回顾一下自由辩中关于论证义务的事情。今天我方诚恳地向对方列举了许多在发展AI时遇到的门槛,然而对方对于这些门槛,哪怕是关于如何突破、突破的希望在哪里,都没有作出回应。对方给出的口径居然是未来有可能回应、有可能突破,我要指出这是对方的论证义务,对方应告诉我这种可能性的论证在哪里,这是其一。
其二,我方很有诚意地往后退一步假设,即便AI真的能与人有相同反馈,但二者的反馈机理不一样。打个比方,在吃火锅的时候,牛蛙已经死掉了,可它还会抽动一下,但不能因为这抽动一下就把死牛蛙当成活牛蛙。我们要看到背后的机理,通过我们自己的探讨可知,AI不能理解、没有直觉。不管如何编程,AI始终是有输入有输出、具有强因果联系的,这和人类所有思维活动全是未知的理解过程以及艺术活动是不一样的。对方在记忆方面也无法说明AI和人类背后的记忆是相同的,所以即便反馈一样,本质也不一样,无法论证到对方所说的意识相同。
再者,今天对方告诉我,搭建AI的目的是为了理解智能、理解人类。可是并没有任何一个目的表明我们要把AI发展成人的样子,所有的AI应用都是朝着成为更好的工具发展的,像Alexa tvi等都是为了工具性而发展的。那么,对方为什么会认为在某个阶段我们要想办法把AI做成一个人,而不是让它成为一个超级有用的超级奴隶呢?我方认为这个超级奴隶是完全没有与人类相近的属性的。
最后,我要从社会属性方面来说。在白人伴侣的时代,黑人不被当作人;在女性没有权益的时代,女性也不被当作人。这就引出我方的最后一点,人是要有社会属性、要有社会认可的。我们看到,正是黑人与女性在不断的自身社会斗争过程中才获得了与其他人相同的社会地位,而且在现今社会,他们还在不断斗争。这意味着所有人的地位、人的认可都是要争取的,而现状下很多人还没有获得与其他人同等的社会地位。在这样一个残酷的世界里,对方辩友居然还想要让新的“人”(AI)出现,这是多么残忍的事情。我们看到AI诞生的唯一可能性就是成为人的超级奴隶,而且在很长时间内它都不会享有与人类同等的尊重和平等地位,而对方宁愿让这样一段AI被奴役的历史出现,也要坚持打破伦理规则将AI带到世界上来,我方认为这是完全没有意义的。最后再来看,刚刚对方所说的,即便我们这样发展,我方认为这也是弊大于利的。
以上是反方四辩的总结陈词。
辩题为:AI能成为人vsAI不能成为人
反方四辩·总结陈词:
首先,回顾一下自由辩中关于论证义务的事情。今天我方诚恳地向对方列举了许多在发展AI时遇到的门槛,然而对方对于这些门槛,哪怕是关于如何突破、突破的希望在哪里,都没有作出回应。对方给出的口径居然是未来有可能回应、有可能突破,我要指出这是对方的论证义务,对方应告诉我这种可能性的论证在哪里,这是其一。
其二,我方很有诚意地往后退一步假设,即便AI真的能与人有相同反馈,但二者的反馈机理不一样。打个比方,在吃火锅的时候,牛蛙已经死掉了,可它还会抽动一下,但不能因为这抽动一下就把死牛蛙当成活牛蛙。我们要看到背后的机理,通过我们自己的探讨可知,AI不能理解、没有直觉。不管如何编程,AI始终是有输入有输出、具有强因果联系的,这和人类所有思维活动全是未知的理解过程以及艺术活动是不一样的。对方在记忆方面也无法说明AI和人类背后的记忆是相同的,所以即便反馈一样,本质也不一样,无法论证到对方所说的意识相同。
再者,今天对方告诉我,搭建AI的目的是为了理解智能、理解人类。可是并没有任何一个目的表明我们要把AI发展成人的样子,所有的AI应用都是朝着成为更好的工具发展的,像Alexa tvi等都是为了工具性而发展的。那么,对方为什么会认为在某个阶段我们要想办法把AI做成一个人,而不是让它成为一个超级有用的超级奴隶呢?我方认为这个超级奴隶是完全没有与人类相近的属性的。
最后,我要从社会属性方面来说。在白人伴侣的时代,黑人不被当作人;在女性没有权益的时代,女性也不被当作人。这就引出我方的最后一点,人是要有社会属性、要有社会认可的。我们看到,正是黑人与女性在不断的自身社会斗争过程中才获得了与其他人相同的社会地位,而且在现今社会,他们还在不断斗争。这意味着所有人的地位、人的认可都是要争取的,而现状下很多人还没有获得与其他人同等的社会地位。在这样一个残酷的世界里,对方辩友居然还想要让新的“人”(AI)出现,这是多么残忍的事情。我们看到AI诞生的唯一可能性就是成为人的超级奴隶,而且在很长时间内它都不会享有与人类同等的尊重和平等地位,而对方宁愿让这样一段AI被奴役的历史出现,也要坚持打破伦理规则将AI带到世界上来,我方认为这是完全没有意义的。最后再来看,刚刚对方所说的,即便我们这样发展,我方认为这也是弊大于利的。
以上是反方四辩的总结陈词。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
无(总结陈词主要为攻击对方观点,未体现防御己方观点相关内容)
总结陈词环节时长为3分钟。
首先,我们先回顾一下辩题,辩题是“AI能还是不能成为人”,这是一种可能性的比较。
在前面两个环节中,我们已经达成共识,对于AI能否成为人的判定在于AI在技术和道德层面上能否被允许成为一个人。
今天我们最根本的分歧在于,对方无法承认AI正在走向人化的事实,他们强行将AI的定义狭窄化。他们从头到尾都在告诉我们,第一,技术无法实现,所以无法实现,这种问题虽然存在,但我方给出脑电波技术以及脑机接口,还有交互性AI的设计等例子时,对方也没有告诉我为什么这样的技术壁垒会一直存在。
来到第二个问题,也就是伦理问题。今天对方抛出一个王夫人的例子,我就很奇怪,王夫人对外表现并提供了很多情绪价值,与她内心的态度不同,那她就不是人了吗?她就是AI了吗?显然不是。对方说我们把AI幻化成一个人的价值,那么对方今天把王夫人强行定义为一种最不像人的人,那我方想问,你们如何去面对那些天生就有情感缺陷的人,他们就不是人,而是AI吗?不是的。
我方刚才提到脑电波这样一个技术,回答对方二辩环节的一个问题,我方并不是说脑电波就是人脑产生意识的根本原因,我们只是说这是一个表现方式,这一点我方认可。那么我们如何让AI拥有意识,如何判定AI拥有意识呢?首先,我们无法通过图形测试判定AI是否拥有意识,现在的GPT(此处推测原语音转写中的“拆PPT”为GPT的误写)已经通过了图形测试,那么能否判定这是它有意识的表征呢?比如说脑电波以及它给我们的反馈,确实这是一个尚待探讨的问题,我方也无法向对方完全论证,但这是一种可以打破壁垒的方式。
再次来到第二个问题,即道德方面。对方想让我方阐述AI成为人的好处是什么。在刚才的辩论环节中,我方已经向对方提出,首先AI的产生是人对于自身探索的一个过程,然后再说道德困境,我还是想问对方,道德存在于人的心中吗?显然不是,它是人类在智能的进化过程中不断形成的。AI的成长过程和人类幼童的成长过程非常相似,都是一种不断模仿的过程。其实,生命都是一种不断模仿的过程。
因此,我们不能因为AI现在缺乏这样一个技术,缺乏这样一个基本条件,无法表现出完全的人的特征,就去阻断AI成为人的可能性。
其实对方今天的论点,在我看来非常简单,因为我方设想了很多道德困境,但对方今天只告诉我因为技术不可能,所以AI不可能。此外,我们要抹杀一切AI成为人的可能性,但抹杀AI成为人的可能性的同时,我们也抹杀了人对自我探索的可能性。
以上。感谢正方四辩的精彩发言。
本场辩论的环节到此结束,接下来请4位评委稍微离场,然后请志愿者统计一下投票,即4位评委的票型,各位评委可以扫描手中门票上的二维码,进行辩论后的投票环节。
总结陈词环节时长为3分钟。
首先,我们先回顾一下辩题,辩题是“AI能还是不能成为人”,这是一种可能性的比较。
在前面两个环节中,我们已经达成共识,对于AI能否成为人的判定在于AI在技术和道德层面上能否被允许成为一个人。
今天我们最根本的分歧在于,对方无法承认AI正在走向人化的事实,他们强行将AI的定义狭窄化。他们从头到尾都在告诉我们,第一,技术无法实现,所以无法实现,这种问题虽然存在,但我方给出脑电波技术以及脑机接口,还有交互性AI的设计等例子时,对方也没有告诉我为什么这样的技术壁垒会一直存在。
来到第二个问题,也就是伦理问题。今天对方抛出一个王夫人的例子,我就很奇怪,王夫人对外表现并提供了很多情绪价值,与她内心的态度不同,那她就不是人了吗?她就是AI了吗?显然不是。对方说我们把AI幻化成一个人的价值,那么对方今天把王夫人强行定义为一种最不像人的人,那我方想问,你们如何去面对那些天生就有情感缺陷的人,他们就不是人,而是AI吗?不是的。
我方刚才提到脑电波这样一个技术,回答对方二辩环节的一个问题,我方并不是说脑电波就是人脑产生意识的根本原因,我们只是说这是一个表现方式,这一点我方认可。那么我们如何让AI拥有意识,如何判定AI拥有意识呢?首先,我们无法通过图形测试判定AI是否拥有意识,现在的GPT(此处推测原语音转写中的“拆PPT”为GPT的误写)已经通过了图形测试,那么能否判定这是它有意识的表征呢?比如说脑电波以及它给我们的反馈,确实这是一个尚待探讨的问题,我方也无法向对方完全论证,但这是一种可以打破壁垒的方式。
再次来到第二个问题,即道德方面。对方想让我方阐述AI成为人的好处是什么。在刚才的辩论环节中,我方已经向对方提出,首先AI的产生是人对于自身探索的一个过程,然后再说道德困境,我还是想问对方,道德存在于人的心中吗?显然不是,它是人类在智能的进化过程中不断形成的。AI的成长过程和人类幼童的成长过程非常相似,都是一种不断模仿的过程。其实,生命都是一种不断模仿的过程。
因此,我们不能因为AI现在缺乏这样一个技术,缺乏这样一个基本条件,无法表现出完全的人的特征,就去阻断AI成为人的可能性。
其实对方今天的论点,在我看来非常简单,因为我方设想了很多道德困境,但对方今天只告诉我因为技术不可能,所以AI不可能。此外,我们要抹杀一切AI成为人的可能性,但抹杀AI成为人的可能性的同时,我们也抹杀了人对自我探索的可能性。
以上。感谢正方四辩的精彩发言。
本场辩论的环节到此结束,接下来请4位评委稍微离场,然后请志愿者统计一下投票,即4位评委的票型,各位评委可以扫描手中门票上的二维码,进行辩论后的投票环节。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)