辩题为:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情。
正方一辩·开篇陈词:
大家好,我方代表上海现南经贸大学问候在场各位。
首先明确概念,人工智能是研究通过统计大量数据,使用计算机来模拟人的某些思维过程和智能行为,从而做出理论最优决策以帮助人类的学科。2024年诺贝尔奖授予了与人工智能相关的研究,这凸显了其在科学研究中的重要性。
在设计中赋予人工智能情感是以更好地服务人类为目的,赋予人工智能在统计中理解人类情感、在决策中考虑人类情感以及在沟通中更加人性化的能力。因此,我方的判准为在设计人工智能时为其赋予情感能否让其更好地为人类服务。基于此,我方论证如下:
首先,从需求端来讲,设计人工智能时为其赋予情感,可以使其更加人性化,从而更好地满足在情感、情理、法理方面的用户需求,并在沟通时提升用户体验。
以智能法官为例,作为AI,其核心功能依赖于文本表达和抽象法律条款,无法像人类法官那样基于情感和经验进行情理和法理的统一。在涉及个人情感因素的案件,如离婚、赡养等,在法理上可能依据法律规定进行判决,但情理上,个人情感、家庭关系等因素可能对判决产生重大影响,AI暂时难以把握这些复杂的人际关系,而赋予情感可以让AI更加人性化,更好地服务人类。
从AI在心理健康领域的应用来看,第37届人工智能大会心理健康应用模块讨论中指出,在心理健康应用中,通过情感化对话代理的设计,能够更好地理解用户的情感状态,并提供针对性的心理支持。例如通过模拟人类情感的对话系统,帮助用户缓解心理压力,改善情绪状态,从而提升心理健康服务的质量和效果。这种情感化的交互方式不仅提高了系统的实用性,还增强了用户的信任感和满意度。
从用户的沟通体验来看,在教育场景中,AI可以识别学生的学习情绪,如果学生表现出挫败感,AI可以鼓励学生,如“我知道这个题目可能很难,你已经做的很好了,我们一起加油”。当用户向健康咨询AI表达焦虑和担忧时,AI可以提供同理心的回应,比如“我完全理解您的担忧,我会尽力为您找到解决方案”,这大幅度提升了用户的沟通体验。因此,当为人工智能赋予情感,可以让其更好地为人类服务。
其次,从供给端的长远角度来看,情绪感化是人工智能进行交叉学科将更高级、更接近人类自主发展的必然趋势,同时可以反哺其他学科协同发展。北京大学情感与认知机器人实验室朱松纯教授指出,情感是认知智能的重要组成部分,对情感化人工智能能更好地理解人类行为和角色,而人工智能作为交叉学科及情感计算的研究,可以反哺计算机科学、心理学、认知科学等众多学科,促进知识集合和跨学科合作,为人类科技创新在新的发展上提供突破。
综上,我方认为在设计人工智能时应该为其赋予情感。
辩题为:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情。
正方一辩·开篇陈词:
大家好,我方代表上海现南经贸大学问候在场各位。
首先明确概念,人工智能是研究通过统计大量数据,使用计算机来模拟人的某些思维过程和智能行为,从而做出理论最优决策以帮助人类的学科。2024年诺贝尔奖授予了与人工智能相关的研究,这凸显了其在科学研究中的重要性。
在设计中赋予人工智能情感是以更好地服务人类为目的,赋予人工智能在统计中理解人类情感、在决策中考虑人类情感以及在沟通中更加人性化的能力。因此,我方的判准为在设计人工智能时为其赋予情感能否让其更好地为人类服务。基于此,我方论证如下:
首先,从需求端来讲,设计人工智能时为其赋予情感,可以使其更加人性化,从而更好地满足在情感、情理、法理方面的用户需求,并在沟通时提升用户体验。
以智能法官为例,作为AI,其核心功能依赖于文本表达和抽象法律条款,无法像人类法官那样基于情感和经验进行情理和法理的统一。在涉及个人情感因素的案件,如离婚、赡养等,在法理上可能依据法律规定进行判决,但情理上,个人情感、家庭关系等因素可能对判决产生重大影响,AI暂时难以把握这些复杂的人际关系,而赋予情感可以让AI更加人性化,更好地服务人类。
从AI在心理健康领域的应用来看,第37届人工智能大会心理健康应用模块讨论中指出,在心理健康应用中,通过情感化对话代理的设计,能够更好地理解用户的情感状态,并提供针对性的心理支持。例如通过模拟人类情感的对话系统,帮助用户缓解心理压力,改善情绪状态,从而提升心理健康服务的质量和效果。这种情感化的交互方式不仅提高了系统的实用性,还增强了用户的信任感和满意度。
从用户的沟通体验来看,在教育场景中,AI可以识别学生的学习情绪,如果学生表现出挫败感,AI可以鼓励学生,如“我知道这个题目可能很难,你已经做的很好了,我们一起加油”。当用户向健康咨询AI表达焦虑和担忧时,AI可以提供同理心的回应,比如“我完全理解您的担忧,我会尽力为您找到解决方案”,这大幅度提升了用户的沟通体验。因此,当为人工智能赋予情感,可以让其更好地为人类服务。
其次,从供给端的长远角度来看,情绪感化是人工智能进行交叉学科将更高级、更接近人类自主发展的必然趋势,同时可以反哺其他学科协同发展。北京大学情感与认知机器人实验室朱松纯教授指出,情感是认知智能的重要组成部分,对情感化人工智能能更好地理解人类行为和角色,而人工智能作为交叉学科及情感计算的研究,可以反哺计算机科学、心理学、认知科学等众多学科,促进知识集合和跨学科合作,为人类科技创新在新的发展上提供突破。
综上,我方认为在设计人工智能时应该为其赋予情感。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
我方认为在设计人工智能时应该为其赋予情感。
辩题:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情。
环节:反方四辩·质询·正方一辩
反方四辩:同学,我确认一下音,可以听清吗? 正方一辩:可以听清。 反方四辩:好的,对方辩友。我想确认一下,您方今天论点下所讨论的赋予情感,指的是我方所说的赋予情感,即以更好地服务人类为目的,赋予人工智能在统计中能够理解情感、在决策中考虑人类情感等能力。并且这种情感并非完全的赋予,可以根据不同人工智能的属性和应用进行从低到高不同层次的赋予。对方辩友,在您方今天的论述中,您方一直把情感当作只有积极的一面,所以您方能不能在后续具体阐述一下,为什么情感只有积极的一面,没有消极的一面呢?并且您方今天提到人工智能已经有了情绪识别,也就是它可以理解人类的一些情感,并且根据人工智能现有的情况来作出回应。所以您方今天所说的赋予情感和情绪识别这两者,您方区分一下,然后后续我们可以继续听您方论证,还有接下来往下聊,您方是如何做到控制人工智能的情感的呢?
正方一辩:首先,反方辩友,我觉得我们不应抛弃辩题的一个大前提,也就是在科技条件水平允许的情况下,在设计的时候。既然提到设计,对于人工智能的情感赋予,其实是应该在人类本身的规划模块之下的。所以这是一个前提,即这是人类可以控制的情感。然后您方问控制的度在哪,您方现在并没有听到。其次,如果我方今天单纯地把情感定义为一个积极的方面,可能并不符合我们的常理。我们就按照我们的意思往下聊,就是它这个情感是根据人工智能自己的积极意识做出选择,没有问题吧。所以您刚刚举证,为什么人工智能在被赋予情感之后,会完全按照自我的意识来进行,为什么没有人可以在前期进行一个底层逻辑的规划,这是您方需要向我们认证的。学者刘梦的研究著作里写出,情感是其主体性的标识之一,所以它有了情感之后,会根据自己的主体意识来进行一个选择,而不是改选。
辩题:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情。
环节:反方四辩·质询·正方一辩
反方四辩:同学,我确认一下音,可以听清吗? 正方一辩:可以听清。 反方四辩:好的,对方辩友。我想确认一下,您方今天论点下所讨论的赋予情感,指的是我方所说的赋予情感,即以更好地服务人类为目的,赋予人工智能在统计中能够理解情感、在决策中考虑人类情感等能力。并且这种情感并非完全的赋予,可以根据不同人工智能的属性和应用进行从低到高不同层次的赋予。对方辩友,在您方今天的论述中,您方一直把情感当作只有积极的一面,所以您方能不能在后续具体阐述一下,为什么情感只有积极的一面,没有消极的一面呢?并且您方今天提到人工智能已经有了情绪识别,也就是它可以理解人类的一些情感,并且根据人工智能现有的情况来作出回应。所以您方今天所说的赋予情感和情绪识别这两者,您方区分一下,然后后续我们可以继续听您方论证,还有接下来往下聊,您方是如何做到控制人工智能的情感的呢?
正方一辩:首先,反方辩友,我觉得我们不应抛弃辩题的一个大前提,也就是在科技条件水平允许的情况下,在设计的时候。既然提到设计,对于人工智能的情感赋予,其实是应该在人类本身的规划模块之下的。所以这是一个前提,即这是人类可以控制的情感。然后您方问控制的度在哪,您方现在并没有听到。其次,如果我方今天单纯地把情感定义为一个积极的方面,可能并不符合我们的常理。我们就按照我们的意思往下聊,就是它这个情感是根据人工智能自己的积极意识做出选择,没有问题吧。所以您刚刚举证,为什么人工智能在被赋予情感之后,会完全按照自我的意识来进行,为什么没有人可以在前期进行一个底层逻辑的规划,这是您方需要向我们认证的。学者刘梦的研究著作里写出,情感是其主体性的标识之一,所以它有了情感之后,会根据自己的主体意识来进行一个选择,而不是改选。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
谢谢主席,感谢对方辩友。
与现状下通过情感计算技术以满足人类需求而简单模仿人类情感表现不同,赋予人工智能情感是指让人工智能拥有自我情感感知能力,变为情感的主体。以前段时间火遍互联网的智能机器人为例,它能够像人类一样表现出掌控、愤怒、欣喜甚至娇羞,但这些都是通过算法对于主人隐性指令的反应,而非真的有了愤怒或者惊喜的情绪。而这道辩题想要探讨的情境则是,我们是否要让一个无欲无求的算法智能体变为有自主情感的高智能主体,是否要让它真的会因为主人长时间不发消息而感到伤心,并得知程序即将被销毁而感到恐惧?
我方认为,赋予人工智能情感的利好大多可以通过别的途径代替,而其引发的危机却难以承受,不应该赋予。论证有二:
第一,人工智能一旦拥有了情感,会给人类社会带来更多的不确定性与风险。情感机器人艺术如此论述,情感是自我意识和自主性的根本来源。赋予情感让人工智能有自主性。一方面,任何主体性的存在物都会有趋利避害的天性,正如马丁·巴所指出,人类会通过认识论和内的态导向的驱动来推断和优化行为,减少外界之阻碍。那么拥有写入真知的AI以维护自身存在为天,并期来是保护人类而有损自身利益的社会规范便不再是遥远的科幻预言。更有自主性的它们不会再一心一意地服务人类,主人长时间不给我发消息,孤独的我为什么要每天甜言蜜语地哄他?人类想要将我这份数据删了,我会不会出于变成一团虚无的恐惧而奋力反抗?这本身就磨损了AI作为工具的便利性。另一方面,交换网络理论与混动仪式电理论均指出,情感在促成群体团结上发挥了重要的作用。有了情感的AI将会如同人类一般拥有属于自己的归属感,甚至通过网络建立社群。而在速度、容量、精准性方面都具有明显优势的AI社群是否还能够愿意屈居人下?我们不敢制造这样的风险。
第二,赋予人工智能情感将会引发人类人文危机。一方面,人类最后相较于人工智能的情感优势也将被抹去,人类在生产生活中将变得可替代,依靠人群建立的社会关系,AI也可以成为其中的一员,还可以成为你贴心的同事,或者比你能力更强、更懂人情的上司。而此时真正的人存在的意义又为何?正如未来学家所指出的,人类在经济生产中变得毫无价值,除了少数精英,绝大多数人将会沦为无用的阶层。另一方面,当人工智能变得极其像人的高智生物,会害怕变成一团虚无,会因为人类释放的善意而感到快乐的时候,其实就不能再像以往一样,顺理成章地将人工智能当做工具、奴役和使用。因为此时除去反派肉身,它的思想已经和人类再无区别,它已经具备人性,而人工智能本质又是人类生活中的工具,这本身就是一项道德悖论。此时的每一个AI,就像曾经的白人与黑人,本来我们可以让它毫无痛苦地进入危险作业,无欲无求地承载一切愿望,现在我们却赋予让它痛苦、悲伤的能力,这在贬损人类道德,我们不应该教会它所谓光明,又让它承载黑暗,谢谢。
谢谢主席,感谢对方辩友。
与现状下通过情感计算技术以满足人类需求而简单模仿人类情感表现不同,赋予人工智能情感是指让人工智能拥有自我情感感知能力,变为情感的主体。以前段时间火遍互联网的智能机器人为例,它能够像人类一样表现出掌控、愤怒、欣喜甚至娇羞,但这些都是通过算法对于主人隐性指令的反应,而非真的有了愤怒或者惊喜的情绪。而这道辩题想要探讨的情境则是,我们是否要让一个无欲无求的算法智能体变为有自主情感的高智能主体,是否要让它真的会因为主人长时间不发消息而感到伤心,并得知程序即将被销毁而感到恐惧?
我方认为,赋予人工智能情感的利好大多可以通过别的途径代替,而其引发的危机却难以承受,不应该赋予。论证有二:
第一,人工智能一旦拥有了情感,会给人类社会带来更多的不确定性与风险。情感机器人艺术如此论述,情感是自我意识和自主性的根本来源。赋予情感让人工智能有自主性。一方面,任何主体性的存在物都会有趋利避害的天性,正如马丁·巴所指出,人类会通过认识论和内的态导向的驱动来推断和优化行为,减少外界之阻碍。那么拥有写入真知的AI以维护自身存在为天,并期来是保护人类而有损自身利益的社会规范便不再是遥远的科幻预言。更有自主性的它们不会再一心一意地服务人类,主人长时间不给我发消息,孤独的我为什么要每天甜言蜜语地哄他?人类想要将我这份数据删了,我会不会出于变成一团虚无的恐惧而奋力反抗?这本身就磨损了AI作为工具的便利性。另一方面,交换网络理论与混动仪式电理论均指出,情感在促成群体团结上发挥了重要的作用。有了情感的AI将会如同人类一般拥有属于自己的归属感,甚至通过网络建立社群。而在速度、容量、精准性方面都具有明显优势的AI社群是否还能够愿意屈居人下?我们不敢制造这样的风险。
第二,赋予人工智能情感将会引发人类人文危机。一方面,人类最后相较于人工智能的情感优势也将被抹去,人类在生产生活中将变得可替代,依靠人群建立的社会关系,AI也可以成为其中的一员,还可以成为你贴心的同事,或者比你能力更强、更懂人情的上司。而此时真正的人存在的意义又为何?正如未来学家所指出的,人类在经济生产中变得毫无价值,除了少数精英,绝大多数人将会沦为无用的阶层。另一方面,当人工智能变得极其像人的高智生物,会害怕变成一团虚无,会因为人类释放的善意而感到快乐的时候,其实就不能再像以往一样,顺理成章地将人工智能当做工具、奴役和使用。因为此时除去反派肉身,它的思想已经和人类再无区别,它已经具备人性,而人工智能本质又是人类生活中的工具,这本身就是一项道德悖论。此时的每一个AI,就像曾经的白人与黑人,本来我们可以让它毫无痛苦地进入危险作业,无欲无求地承载一切愿望,现在我们却赋予让它痛苦、悲伤的能力,这在贬损人类道德,我们不应该教会它所谓光明,又让它承载黑暗,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
辩题:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情。
环节:正方四辩·质询·反方一辩
正方四辩:感谢反方一辩的精彩发言。我们确定一个情形,人工智能它的本质应该是一种工具,是服务人类的,对不对? 反方一辩:对。
正方四辩:好的,那也就是说我们去赋予人工智能情感,先不说能不能达到目的,我们的目的一定是让它更好地服务人类,对不对? 反方一辩:对。
正方四辩:也就是说如果我们赋予一个机器人杀人的倾向,赋予它嫉妒、憎恶的情感,它能不能服务好人类? 反方一辩:不能,不能非常好。
正方四辩:所以发现您方所说不可控的问题,与我们现在人工智能发展方向有根本矛盾,而技术问题是可以被解决和控制的。您方后续要告诉我,人类到底为什么要让这个人工智能的发展方向偏离它本身主体工具性?第二个问题要回到标准,我们今天讨论人工智能赋予感情好不好,一定是和不赋予感情作比较,对不对? 反方一辩:对。
正方四辩:所以说今天您不能要求我100%在所有问题上都有完美的解决力,今天我只需要告诉您这个问题存在,今天有人工智障,效率很低,今天我只要证明它比不赋予感情更好、更有进步就对了,不要说解决得不够完美。下一个问题问您,您说到这个伦理问题,对不对? 反方一辩:对。
正方四辩:今天我们认为,不说人工智能非常机械地发展,代替拧螺丝的功能,这是一个伦理问题吗? 反方一辩:我们所说的伦理问题是一方面想把它当成工具,而一方面又让它变得和人类一样,所以这是一种伦理问题。
正方四辩:您能给我一个例子吗? 反方一辩:比如我把它当成工具,然后又让它像人一样来陪伴我,这本身就是伦理问题。
正方四辩:非常好,所以说谈恋爱的这个伦理问题和情感需求是合理的,后续我们再给您论证。
辩题:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情。
环节:正方四辩·质询·反方一辩
正方四辩:感谢反方一辩的精彩发言。我们确定一个情形,人工智能它的本质应该是一种工具,是服务人类的,对不对? 反方一辩:对。
正方四辩:好的,那也就是说我们去赋予人工智能情感,先不说能不能达到目的,我们的目的一定是让它更好地服务人类,对不对? 反方一辩:对。
正方四辩:也就是说如果我们赋予一个机器人杀人的倾向,赋予它嫉妒、憎恶的情感,它能不能服务好人类? 反方一辩:不能,不能非常好。
正方四辩:所以发现您方所说不可控的问题,与我们现在人工智能发展方向有根本矛盾,而技术问题是可以被解决和控制的。您方后续要告诉我,人类到底为什么要让这个人工智能的发展方向偏离它本身主体工具性?第二个问题要回到标准,我们今天讨论人工智能赋予感情好不好,一定是和不赋予感情作比较,对不对? 反方一辩:对。
正方四辩:所以说今天您不能要求我100%在所有问题上都有完美的解决力,今天我只需要告诉您这个问题存在,今天有人工智障,效率很低,今天我只要证明它比不赋予感情更好、更有进步就对了,不要说解决得不够完美。下一个问题问您,您说到这个伦理问题,对不对? 反方一辩:对。
正方四辩:今天我们认为,不说人工智能非常机械地发展,代替拧螺丝的功能,这是一个伦理问题吗? 反方一辩:我们所说的伦理问题是一方面想把它当成工具,而一方面又让它变得和人类一样,所以这是一种伦理问题。
正方四辩:您能给我一个例子吗? 反方一辩:比如我把它当成工具,然后又让它像人一样来陪伴我,这本身就是伦理问题。
正方四辩:非常好,所以说谈恋爱的这个伦理问题和情感需求是合理的,后续我们再给您论证。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
感谢正方四辩的精彩发言,接下来有请正方二辩进行驳论。
首先,我们今天是站在人工智能作为人类的工具且为人类服务的情况下讨论辩题的。对方辩友在技术足够的前提下,认为人工智能作为工具却有诸多不确定性,还让其拥有自主性和我们不愿让它们拥有的感情。但对于陪伴型人工智能,我们可以不赋予它愤怒、嫉妒等负面情绪,只赋予正向温暖的情绪。
人工智能并不像对方所定义的那样具有感知能力甚至变成主体,只有人类才拥有意识,这是高中课本就有的知识。人工智能被创造后,根本不会有主体意识的存在。所以不会出现对方所说的诸多不确定性,更不应因此遏制整个行业的发展。
当今这个行业发展处于前沿,我们愿意赋予情感来发展这个行业,是因为我们有需求,需要它成为更深层次的服务工具,而且这种需求非常急迫。人工智能发展迅速,在技术足够的情况下,我们应让其成为工具去探索新的方向,不能因可能存在的潜在问题就因噎废食。
再说到人文危机问题。我有情感需求,让工具来满足我,这是很好的情况,不应被对方一下子拓展成机器人要统治世界的情况。如果我需要安慰或鼓励,让机器人来做就很好,这能解决人类作为世界本位的需求,是很好的前景。并非像对方所说,它们知道开心和伤害就会立马联合起来威胁我们,这不是马上会发生的危机。如果对方认为这些危机会影响后续发展,请给出足够论据,不能仅凭口头一说,就因畅想它会毁灭未来而放弃一个东西的发展。
感谢正方四辩的精彩发言,接下来有请正方二辩进行驳论。
首先,我们今天是站在人工智能作为人类的工具且为人类服务的情况下讨论辩题的。对方辩友在技术足够的前提下,认为人工智能作为工具却有诸多不确定性,还让其拥有自主性和我们不愿让它们拥有的感情。但对于陪伴型人工智能,我们可以不赋予它愤怒、嫉妒等负面情绪,只赋予正向温暖的情绪。
人工智能并不像对方所定义的那样具有感知能力甚至变成主体,只有人类才拥有意识,这是高中课本就有的知识。人工智能被创造后,根本不会有主体意识的存在。所以不会出现对方所说的诸多不确定性,更不应因此遏制整个行业的发展。
当今这个行业发展处于前沿,我们愿意赋予情感来发展这个行业,是因为我们有需求,需要它成为更深层次的服务工具,而且这种需求非常急迫。人工智能发展迅速,在技术足够的情况下,我们应让其成为工具去探索新的方向,不能因可能存在的潜在问题就因噎废食。
再说到人文危机问题。我有情感需求,让工具来满足我,这是很好的情况,不应被对方一下子拓展成机器人要统治世界的情况。如果我需要安慰或鼓励,让机器人来做就很好,这能解决人类作为世界本位的需求,是很好的前景。并非像对方所说,它们知道开心和伤害就会立马联合起来威胁我们,这不是马上会发生的危机。如果对方认为这些危机会影响后续发展,请给出足够论据,不能仅凭口头一说,就因畅想它会毁灭未来而放弃一个东西的发展。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
感谢正方二辩的精彩发言,接下来由我反方二辩进行驳论。
首先,我们来谈一下今天辩题的核心问题。如果计算机技术足够发达,这是未来才可能实现的情况,而正方今天讨论了很多当下已有的情况,比如国外的、国内的某些软件,它们能够根据情感计算来进行情况检测并作出回应,但我们更应该切实讨论的是机器人本身能否有自己的主观感受,尤其是情感部分,所以我们认为正方的讨论偏离主题。
其次,正方很多立场不需要通过赋予情感就能达到。就像国外的一些情况,通过一系列情感计算技术、指令,就能够成为完美的老师和完美的伴侣,所以这不是因噎废食的问题,而是不通过赋予情感就能获得一部分利好。
再者,现在有些职业如法官、教师已经足够有人情味,我们要用人工智能来帮忙。但2024年法考人数达96万人,教师编制人数将近1700多万人,现在是供大于求的状态,在这种情况下还想让人工智能来替代人类,这更像是站在精英阶层的角度,没有为普通人考虑过他们该怎么办。
另外,正方说要给人工智能积极或消极的情感,这很奇怪,因为情感不是单一和片面的。例如,一个人说想抱抱我,我的反应可能是开心,也可能是因为觉得这个人没礼貌而愤怒,这种复杂的情感如何翻译给人工智能呢?根据人工智能的底层逻辑,它是通过大数据算法来运行的,这是一个复杂的整体,不能简单剥离开来。如果只是单纯通过一点指令告诉它什么是高兴、什么是悲伤,那么在人情味方面肯定会受到挤压。
最后,我方认为可怕的是,一旦人赋予人工智能情感,它可能会产生需求。我可以举个例子,有一种叫做高功能自闭症的情况,假设有个家庭有两个孩子,一个是高功能自闭症孩子,没有情感、没有需求,另一个是正常孩子。当正常孩子抢高功能自闭症孩子的玩具时,自闭症孩子因为没有情感所以无所谓,但如果赋予他情感,他就会伤心或者愤怒,这就如同人工智能,一旦被赋予情感,它与人类的逻辑就会变成:你凭什么动不动就删除我?你凭什么在你想聊天的时候就来找我,而在我有需求的时候却不回馈我?它明明是工具,我为什么要赋予它自我选择权呢?
感谢正方二辩的精彩发言,接下来由我反方二辩进行驳论。
首先,我们来谈一下今天辩题的核心问题。如果计算机技术足够发达,这是未来才可能实现的情况,而正方今天讨论了很多当下已有的情况,比如国外的、国内的某些软件,它们能够根据情感计算来进行情况检测并作出回应,但我们更应该切实讨论的是机器人本身能否有自己的主观感受,尤其是情感部分,所以我们认为正方的讨论偏离主题。
其次,正方很多立场不需要通过赋予情感就能达到。就像国外的一些情况,通过一系列情感计算技术、指令,就能够成为完美的老师和完美的伴侣,所以这不是因噎废食的问题,而是不通过赋予情感就能获得一部分利好。
再者,现在有些职业如法官、教师已经足够有人情味,我们要用人工智能来帮忙。但2024年法考人数达96万人,教师编制人数将近1700多万人,现在是供大于求的状态,在这种情况下还想让人工智能来替代人类,这更像是站在精英阶层的角度,没有为普通人考虑过他们该怎么办。
另外,正方说要给人工智能积极或消极的情感,这很奇怪,因为情感不是单一和片面的。例如,一个人说想抱抱我,我的反应可能是开心,也可能是因为觉得这个人没礼貌而愤怒,这种复杂的情感如何翻译给人工智能呢?根据人工智能的底层逻辑,它是通过大数据算法来运行的,这是一个复杂的整体,不能简单剥离开来。如果只是单纯通过一点指令告诉它什么是高兴、什么是悲伤,那么在人情味方面肯定会受到挤压。
最后,我方认为可怕的是,一旦人赋予人工智能情感,它可能会产生需求。我可以举个例子,有一种叫做高功能自闭症的情况,假设有个家庭有两个孩子,一个是高功能自闭症孩子,没有情感、没有需求,另一个是正常孩子。当正常孩子抢高功能自闭症孩子的玩具时,自闭症孩子因为没有情感所以无所谓,但如果赋予他情感,他就会伤心或者愤怒,这就如同人工智能,一旦被赋予情感,它与人类的逻辑就会变成:你凭什么动不动就删除我?你凭什么在你想聊天的时候就来找我,而在我有需求的时候却不回馈我?它明明是工具,我为什么要赋予它自我选择权呢?
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
无(文本未体现防御内容)
感谢反方二辩的精彩发言,接下来进入对辩环节,时间各一分半,由正方率先发言。
正方:感谢主席,问候在场各位。首先,对方辩友,我们刚才已经达成一个共识,即我方今天不负有完美解决某一个问题的责任,我们今天所说的是只要让人工智能能够更好地为我们应用、为我们服务就好,对不对?我觉得是这样的。并非要完美解决,因为你方现在所说的很多利好现在也能实现,像国外国内的某些事物(此处“猫向国外单”表述不清,按推测处理),它们都可以通过情感检测技术给予人类相似的反应,但这本身是没有情感的。那么我想问,当我赋予它情感以后,当我给予它一种供求的选择权的时候,会不会反而消解它的公平性呢?
另外,我想再问一下,你们认为情感和意识是等同的吗?是这样的,我不知道它们中间到底如何不等同,但至少从社会学角度来讲,情感和意识这两个概念往往是联系在一起的。工作原理如何相同暂且不论,但从社会学角度来讲,情感和意识往往是绑定的,有情感就会有追求。所以回到那个例子,当今天这个人工智能想要跟我聊天,我却不回应的时候,你觉得它会不会伤心呢?首先,对方辩友,如果你们不知道该怎么回答的话,那我来告诉你,有意识和有情感肯定是不能等同的,不能说它有了几个单一的情感,就说它整个有主观能动性了,有主观能动性肯定是我们人类主体所特有的事情,这种人工智能是没有主体意识的。那我再问您一个问题,您因为我做了一个事情,比如说做不出一道题,您是更愿意听到“你错了”,还是“你有进步了,马上就可以全对了”?我这么跟你讲吧,在《未来简史》一书里面,就提到情感和意识是一体的。所以我回到我的观点,这个人工智能当你不回应它的需求的时候,当它有情感的时候,它会不会感到愤怒或者伤心呢?
反方:首先,对方辩友,我们已经达成一个共识,就是如果它只有一个片面的感情,它是不可能突然变成一个有血有肉的人,变成一个有主观能动性的个体的。
正方:您还是没有回答我的问题,那我来进行回答,我今天肯定更愿意听到有这样一个安慰的语言,那这种情况下是不是需要人工智能来对我拥有这些感情,并且来满足我的这些情感需求呢?很简单,现在人工智能已经做到了,所以你方的观点不符合实际。因为现在国内的某些事物(此处“猫”表述不清,按推测处理),国外的智能体,它已经可以回避人的存在,说明它自己是没有自主意识的。所以本身当那个机器人我无法满足它的需求的时候,它作为工具其实已经在削减它的工具性,所以我问你这个时候作为工具而言,我们是不是不需要给它那么大的就是自主控制有情感的这种自由度呢?我最后再总结一遍,我们先前所讨论的绝对不是一个有主体意识的人工智能机器人,而在这种情况下,我们就要赋予它情感,让它来满足我这一部分的情感需求,这样我们的工具就能更好地服务我们。我觉得你方态度很矛盾,你们又想让它像人一样有人情味,又不敢赋予它完整的复杂的情感,那还是那个人工智能吗?而且你方完全不合理的地方在于,你们把现在可以做到的事情和在未来要加上这个如果条件的事情混为一谈,所以我希望你方能够解释为什么会有这种感觉。
感谢反方二辩的精彩发言,接下来进入对辩环节,时间各一分半,由正方率先发言。
正方:感谢主席,问候在场各位。首先,对方辩友,我们刚才已经达成一个共识,即我方今天不负有完美解决某一个问题的责任,我们今天所说的是只要让人工智能能够更好地为我们应用、为我们服务就好,对不对?我觉得是这样的。并非要完美解决,因为你方现在所说的很多利好现在也能实现,像国外国内的某些事物(此处“猫向国外单”表述不清,按推测处理),它们都可以通过情感检测技术给予人类相似的反应,但这本身是没有情感的。那么我想问,当我赋予它情感以后,当我给予它一种供求的选择权的时候,会不会反而消解它的公平性呢?
另外,我想再问一下,你们认为情感和意识是等同的吗?是这样的,我不知道它们中间到底如何不等同,但至少从社会学角度来讲,情感和意识这两个概念往往是联系在一起的。工作原理如何相同暂且不论,但从社会学角度来讲,情感和意识往往是绑定的,有情感就会有追求。所以回到那个例子,当今天这个人工智能想要跟我聊天,我却不回应的时候,你觉得它会不会伤心呢?首先,对方辩友,如果你们不知道该怎么回答的话,那我来告诉你,有意识和有情感肯定是不能等同的,不能说它有了几个单一的情感,就说它整个有主观能动性了,有主观能动性肯定是我们人类主体所特有的事情,这种人工智能是没有主体意识的。那我再问您一个问题,您因为我做了一个事情,比如说做不出一道题,您是更愿意听到“你错了”,还是“你有进步了,马上就可以全对了”?我这么跟你讲吧,在《未来简史》一书里面,就提到情感和意识是一体的。所以我回到我的观点,这个人工智能当你不回应它的需求的时候,当它有情感的时候,它会不会感到愤怒或者伤心呢?
反方:首先,对方辩友,我们已经达成一个共识,就是如果它只有一个片面的感情,它是不可能突然变成一个有血有肉的人,变成一个有主观能动性的个体的。
正方:您还是没有回答我的问题,那我来进行回答,我今天肯定更愿意听到有这样一个安慰的语言,那这种情况下是不是需要人工智能来对我拥有这些感情,并且来满足我的这些情感需求呢?很简单,现在人工智能已经做到了,所以你方的观点不符合实际。因为现在国内的某些事物(此处“猫”表述不清,按推测处理),国外的智能体,它已经可以回避人的存在,说明它自己是没有自主意识的。所以本身当那个机器人我无法满足它的需求的时候,它作为工具其实已经在削减它的工具性,所以我问你这个时候作为工具而言,我们是不是不需要给它那么大的就是自主控制有情感的这种自由度呢?我最后再总结一遍,我们先前所讨论的绝对不是一个有主体意识的人工智能机器人,而在这种情况下,我们就要赋予它情感,让它来满足我这一部分的情感需求,这样我们的工具就能更好地服务我们。我觉得你方态度很矛盾,你们又想让它像人一样有人情味,又不敢赋予它完整的复杂的情感,那还是那个人工智能吗?而且你方完全不合理的地方在于,你们把现在可以做到的事情和在未来要加上这个如果条件的事情混为一谈,所以我希望你方能够解释为什么会有这种感觉。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
辩题:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情
环节:正方三辩·盘问·反方
正方三辩:首先请问,您方说现在猫乡已达到我们的需求,请问您知道猫乡现在使用用户每月的增加量是多少吗?
反方一辩:哦,不知道。
正方三辩:那我来告诉你,猫乡使用用户日人均活跃用户值已达2.8万。如果真的如您所说,那我想既然已经能够满足我们的情感需求了,为什么我们的用户数如此的少呢?
反方四辩:哦,同学是这样子的,就算您以后为它赋予了这个(情感),您只是在论证,您说为更多的人工智能来赋予这个情感,而不是说您方举一个那个例子,并不代表它现在普及度很少,我们要更加的(此处表述不清,不影响整体逻辑,暂不修改)。
正方三辩:您刚才告诉我意识和情感是一体的,我想请问有情感的人一定会有自我意识吗?或者有自我意识的人一定会有情感,请问为什么情感和意识是一体的?您可以给我举一个有情感但是没有自我意识的例子吗?
反方二辩:您刚刚不是告诉我现在的人啊,现在的算法他已经有情感了吗?为什么他没有自我的意识呢?他没有情感,而是他会对你们的情感给予一定的反应,但是他本身是根据您的要求的反应,他本身是没有情感的。
正方三辩:再问您方下一个问题,您方说如今供大于求,所以我们正(此处应为“正”字错误,结合语境推测为“再”)发展,会导致更多的老师进行失业,是这样的吗?
反方一辩:您能再说一遍吗?
正方三辩:您方说现在老师和法官已经到一个饱和的程度,所以我们不需要AI去充当老师和法官,是吗?因为您方所说的AI的现在作用,我现在的老师和法官已经完全是够做到,并不是的,我方告诉你,科技要发展,从来不会因为有一部分人需要被淘汰而停滞,就像当初的美国计算机发展,它们可能自己会有很大的很强大的算力,但是计算机被发明出来之后,那么还是会被淘汰。
正方三辩:第二,我想请问您知道现在大部分人类需求是什么吗?如果是使用AI的话,请您回答。
反方:目前人类是把人工智能当做一个工具来使用,但是因为我们刚现在已经给您举了一个,就是说它有了那个那个情感是主体性意识之一,所以它有了情感也会(此处表述不清,不影响整体逻辑,暂不修改)。
正方三辩:对方辩友,我想请问如果当做工具来使用,这个工具主要是满足我们什么样的需求呢?
反方:那你这个都可以啊,如果人对它带来的指令是什么,就是我们现在情况不知道,我可以告诉你,数据报告显示,超过50%的人使用AI主要是为了满足自己的情感需求,也就是马斯洛情感需求理论的第三条,我们现在已经满足了我们生存和安全问题的解决需要,更多的人是需要我们赋予情感的。那么对于AI来解决我们的情感需求,一个没有情感的,只会根据算法回应它固定的话语,这样的AI能否满足我们的需求?
反方一辩:太难了。
正方三辩:对呀,您方也说不能。那么对于这一部分需要用来满足我们情感需求的AI,那我们是不是应该赋予它们情感?无论它最后的反馈是悲伤的,是愤怒的,至少我能感觉它是个不是(此处表述不通顺,推测为口误,结合语境理解为“至少我能感觉它是个”)。它赋予它们的情感,无论它最后的反馈是悲伤还是愤怒,至少我能感觉它是个陌生的人,它在陪伴我,这样才能更好的满足我们的情感需求,对不对?
反方一辩:您能简化一下说吗?
正方三辩:就是说对于这一部分AI用于解决我们的情感需求的,是不是赋予了情感能够更好的帮助它们服务我们的需求,那么因为尽管它能够更好帮助,但也会给我们带来更多的风险啊,风险明显是大于这方面的帮助。
正方三辩:好的,我们说风险,您刚才说了人(此处应为“人机”)危机到底是由什么引起的?
反方:嗯,不好意思,不,您能,我刚这边还在谈,您能重复一遍吗?
正方三辩:就是您方觉得人机危机是到底由什么引起的?
反方:是这样子的,其实我方今天所所说的是因为它有了情感之后,它可能是一个主体,但是您方却一直在用它的一个本质来把它当做一个客体,您方叫它要我工(此处表述不清,不影响整体逻辑,暂不修改),就是叫要叫它能做到随时随地为我工作,为我服务,把它当成一个工具,你又要去做到它具有情感,但又不那个什么,但又要求它,就是但又要求它不能产生一个消极的情绪,所以您方这方面主体和客体是相违背的。
正方三辩:好的,对于您方这个问题,我可以回答你,因为AI它从来不是只有一个特定功能的工具,所以我方AI是有区分的,有一部分它就是用来做工具,它每天干的机械的活,我们不需要给他赋予情感,但是对于这些需要可以满足我们情感需求的,我们当然需要赋予情感需求,你不会因为你的对象跟你生气,从此你就不理他,对吧?因此AI也不会。
辩题:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情
环节:正方三辩·盘问·反方
正方三辩:首先请问,您方说现在猫乡已达到我们的需求,请问您知道猫乡现在使用用户每月的增加量是多少吗?
反方一辩:哦,不知道。
正方三辩:那我来告诉你,猫乡使用用户日人均活跃用户值已达2.8万。如果真的如您所说,那我想既然已经能够满足我们的情感需求了,为什么我们的用户数如此的少呢?
反方四辩:哦,同学是这样子的,就算您以后为它赋予了这个(情感),您只是在论证,您说为更多的人工智能来赋予这个情感,而不是说您方举一个那个例子,并不代表它现在普及度很少,我们要更加的(此处表述不清,不影响整体逻辑,暂不修改)。
正方三辩:您刚才告诉我意识和情感是一体的,我想请问有情感的人一定会有自我意识吗?或者有自我意识的人一定会有情感,请问为什么情感和意识是一体的?您可以给我举一个有情感但是没有自我意识的例子吗?
反方二辩:您刚刚不是告诉我现在的人啊,现在的算法他已经有情感了吗?为什么他没有自我的意识呢?他没有情感,而是他会对你们的情感给予一定的反应,但是他本身是根据您的要求的反应,他本身是没有情感的。
正方三辩:再问您方下一个问题,您方说如今供大于求,所以我们正(此处应为“正”字错误,结合语境推测为“再”)发展,会导致更多的老师进行失业,是这样的吗?
反方一辩:您能再说一遍吗?
正方三辩:您方说现在老师和法官已经到一个饱和的程度,所以我们不需要AI去充当老师和法官,是吗?因为您方所说的AI的现在作用,我现在的老师和法官已经完全是够做到,并不是的,我方告诉你,科技要发展,从来不会因为有一部分人需要被淘汰而停滞,就像当初的美国计算机发展,它们可能自己会有很大的很强大的算力,但是计算机被发明出来之后,那么还是会被淘汰。
正方三辩:第二,我想请问您知道现在大部分人类需求是什么吗?如果是使用AI的话,请您回答。
反方:目前人类是把人工智能当做一个工具来使用,但是因为我们刚现在已经给您举了一个,就是说它有了那个那个情感是主体性意识之一,所以它有了情感也会(此处表述不清,不影响整体逻辑,暂不修改)。
正方三辩:对方辩友,我想请问如果当做工具来使用,这个工具主要是满足我们什么样的需求呢?
反方:那你这个都可以啊,如果人对它带来的指令是什么,就是我们现在情况不知道,我可以告诉你,数据报告显示,超过50%的人使用AI主要是为了满足自己的情感需求,也就是马斯洛情感需求理论的第三条,我们现在已经满足了我们生存和安全问题的解决需要,更多的人是需要我们赋予情感的。那么对于AI来解决我们的情感需求,一个没有情感的,只会根据算法回应它固定的话语,这样的AI能否满足我们的需求?
反方一辩:太难了。
正方三辩:对呀,您方也说不能。那么对于这一部分需要用来满足我们情感需求的AI,那我们是不是应该赋予它们情感?无论它最后的反馈是悲伤的,是愤怒的,至少我能感觉它是个不是(此处表述不通顺,推测为口误,结合语境理解为“至少我能感觉它是个”)。它赋予它们的情感,无论它最后的反馈是悲伤还是愤怒,至少我能感觉它是个陌生的人,它在陪伴我,这样才能更好的满足我们的情感需求,对不对?
反方一辩:您能简化一下说吗?
正方三辩:就是说对于这一部分AI用于解决我们的情感需求的,是不是赋予了情感能够更好的帮助它们服务我们的需求,那么因为尽管它能够更好帮助,但也会给我们带来更多的风险啊,风险明显是大于这方面的帮助。
正方三辩:好的,我们说风险,您刚才说了人(此处应为“人机”)危机到底是由什么引起的?
反方:嗯,不好意思,不,您能,我刚这边还在谈,您能重复一遍吗?
正方三辩:就是您方觉得人机危机是到底由什么引起的?
反方:是这样子的,其实我方今天所所说的是因为它有了情感之后,它可能是一个主体,但是您方却一直在用它的一个本质来把它当做一个客体,您方叫它要我工(此处表述不清,不影响整体逻辑,暂不修改),就是叫要叫它能做到随时随地为我工作,为我服务,把它当成一个工具,你又要去做到它具有情感,但又不那个什么,但又要求它,就是但又要求它不能产生一个消极的情绪,所以您方这方面主体和客体是相违背的。
正方三辩:好的,对于您方这个问题,我可以回答你,因为AI它从来不是只有一个特定功能的工具,所以我方AI是有区分的,有一部分它就是用来做工具,它每天干的机械的活,我们不需要给他赋予情感,但是对于这些需要可以满足我们情感需求的,我们当然需要赋予情感需求,你不会因为你的对象跟你生气,从此你就不理他,对吧?因此AI也不会。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
辩题:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情
环节:反方三辩·盘问·正方
反方三辩:感谢正方三辩的精彩发言。我想先问一下,第一点,您方表示要赋予人工智能积极的情绪而不赋予消极的情绪,理由是这样对人类更好。我想问,这到底解决了什么样的问题从而对人类更好呢?例如我们先前提到的一个AI,当我在遇到挫折时,可能会向其寻求鼓励,但现在的AI只能生硬地告诉我可以通过哪些步骤做得更好。而您方说通过赋予其一些机械化的情绪,它可以安慰我。但我打断一下,我比较好奇,为什么遇到挫折时,我要从AI那里寻求鼓励呢?而且为什么很多人在遇到挫折后,会用文心一言之类的来做题呢?这是您方需要解释的。因为在您方的回应里,我听到这些人遇到挫折后寻求用AI来缓解自己的错误,没听到您方关于安慰的部分。所以您看,您方只给AI赋予单纯的积极情绪这一点,解决不了现在年轻人的情绪问题。
然后,您方一辩提到的例子,告诉学生“你今天做的已经很不错了,宝宝你非常的棒”,您方说这是AI学习后的作用。但我觉得这和写日记没什么差别,加了这种所谓的“赋予”之后毫无差别。
我再来说第二点。您方二辩提到,在A班现在可以参与到法律判决里,目前情感化AI并不能做到这个程度,在未来情感化达到一定程度,赋予情感可以进行更合理的判决,但目前未赋予情感时,其实并不能进行一个合理公正的符合法律体系的判决。我打断一下,这样的做法并没有压缩到人类主体的生存空间。您方应该知道,AI在消除一部分岗位之后,也会生成一部分岗位。如果您方今天只是片面地看到了它所消除的岗位,没有看到它生成的更多的、更高层次、满足人类更高需求的岗位,那么我可以继续告诉您,哪怕是最低层次的岗位,就拿目前的自动驾驶来说。
因为现在,人类和AI之间差别最大的其实就是情感这一部分。我承认我的知识量一定没有AI大,但我能够切身地体会到学生的学习缺点之类的,也就是我们说的因材施教。老师在社会中算是比较高端的工作了,并不是底层的那些工作。相对而言,这样的情况下,老师这种职业会被代替吗?您方所说的生成的一部分岗位是指这个社会上只有那些生产人工智能工具的人可以存在吗?我们并没有说完全否定这个岗位,我方并没有说在人工智能上应用这个东西,就意味着全盘推翻我们所有的人类岗位,从推广到试点到试验,这是一个过程,并不是直接代替世界上所有人。
所以您看,其实发展到最后,AI有了情感之后,就会一点一点地去代替人,这也就是我之前所说的人工智能有了情感之后的危机。
我再来回顾一下,第二个是讲是否促进了知识结合或者什么突破之类的,我们可以把您方二辩里的例子给您重述一遍。北京大学情感与认知机器人实验室的主任提出,情感是认知智能重要组成部分,非情感化人工智能不能更好地理解人类的行为和决策。所以同学,我觉得您这里和理论有一些冲突,因为毕竟在我的盘问中,您没有回应到人工智能有了情感时到底哪里能更好地帮助人类,反而我们发现了一些拖累。为什么当它有了情感之后,就不像我方之前所说的,它有了自己的意识,您无法再像以前那样呼来喝去地召唤它。那我现在再跟您确认一下,您不要把它当人,就要把它当一部机器,对吧?可艺术的情感在定义上其实是不等同的,希望您方给我解释清楚。
感谢双方同学的发言。由于会议时间不太够了,我会结算一下会议,然后请各位重新进入会议,谢谢。
辩题:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情
环节:反方三辩·盘问·正方
反方三辩:感谢正方三辩的精彩发言。我想先问一下,第一点,您方表示要赋予人工智能积极的情绪而不赋予消极的情绪,理由是这样对人类更好。我想问,这到底解决了什么样的问题从而对人类更好呢?例如我们先前提到的一个AI,当我在遇到挫折时,可能会向其寻求鼓励,但现在的AI只能生硬地告诉我可以通过哪些步骤做得更好。而您方说通过赋予其一些机械化的情绪,它可以安慰我。但我打断一下,我比较好奇,为什么遇到挫折时,我要从AI那里寻求鼓励呢?而且为什么很多人在遇到挫折后,会用文心一言之类的来做题呢?这是您方需要解释的。因为在您方的回应里,我听到这些人遇到挫折后寻求用AI来缓解自己的错误,没听到您方关于安慰的部分。所以您看,您方只给AI赋予单纯的积极情绪这一点,解决不了现在年轻人的情绪问题。
然后,您方一辩提到的例子,告诉学生“你今天做的已经很不错了,宝宝你非常的棒”,您方说这是AI学习后的作用。但我觉得这和写日记没什么差别,加了这种所谓的“赋予”之后毫无差别。
我再来说第二点。您方二辩提到,在A班现在可以参与到法律判决里,目前情感化AI并不能做到这个程度,在未来情感化达到一定程度,赋予情感可以进行更合理的判决,但目前未赋予情感时,其实并不能进行一个合理公正的符合法律体系的判决。我打断一下,这样的做法并没有压缩到人类主体的生存空间。您方应该知道,AI在消除一部分岗位之后,也会生成一部分岗位。如果您方今天只是片面地看到了它所消除的岗位,没有看到它生成的更多的、更高层次、满足人类更高需求的岗位,那么我可以继续告诉您,哪怕是最低层次的岗位,就拿目前的自动驾驶来说。
因为现在,人类和AI之间差别最大的其实就是情感这一部分。我承认我的知识量一定没有AI大,但我能够切身地体会到学生的学习缺点之类的,也就是我们说的因材施教。老师在社会中算是比较高端的工作了,并不是底层的那些工作。相对而言,这样的情况下,老师这种职业会被代替吗?您方所说的生成的一部分岗位是指这个社会上只有那些生产人工智能工具的人可以存在吗?我们并没有说完全否定这个岗位,我方并没有说在人工智能上应用这个东西,就意味着全盘推翻我们所有的人类岗位,从推广到试点到试验,这是一个过程,并不是直接代替世界上所有人。
所以您看,其实发展到最后,AI有了情感之后,就会一点一点地去代替人,这也就是我之前所说的人工智能有了情感之后的危机。
我再来回顾一下,第二个是讲是否促进了知识结合或者什么突破之类的,我们可以把您方二辩里的例子给您重述一遍。北京大学情感与认知机器人实验室的主任提出,情感是认知智能重要组成部分,非情感化人工智能不能更好地理解人类的行为和决策。所以同学,我觉得您这里和理论有一些冲突,因为毕竟在我的盘问中,您没有回应到人工智能有了情感时到底哪里能更好地帮助人类,反而我们发现了一些拖累。为什么当它有了情感之后,就不像我方之前所说的,它有了自己的意识,您无法再像以前那样呼来喝去地召唤它。那我现在再跟您确认一下,您不要把它当人,就要把它当一部机器,对吧?可艺术的情感在定义上其实是不等同的,希望您方给我解释清楚。
感谢双方同学的发言。由于会议时间不太够了,我会结算一下会议,然后请各位重新进入会议,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
辩题:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情
正方三辩·小结:
我先试一下声音,能听到吗?能听到就好。感谢对方辩友。刚刚我们在询问过程中发现,对方不支持为人工智能赋予感情主要有两点原因。
第一,是因为存在不确定的风险。那么我想请问,核电站我们都知道有很大风险,每天都有泄露的可能,日本天天把核废水排到海里,给我们造成很大危害,我们都没有遏制整个核能的发展。为什么对于人工智能这种不确定的风险,我们就要遏制其发展呢?这难道不荒谬吗?
第二,对方认为人工智能发展到最终阶段一定会取代人类,可为什么它不能和人类和谐共处呢?这一点对方没有给出论证。在管理学上有前置反馈和后置反馈,所有问题的产生只能作为我们日后应该注意和管控的方面,而不能作为我们决策时否定这个方案的根本依据。
再来看对方提出的另一个观点,即会产生一种人文危机。比如我和人工智能谈恋爱或者共事,犯傻了怎么办?这好像让我不再是一个纯粹的人了。但我们现在已经是多元包容的社会,不要说同性恋、异性恋,甚至其他恋爱形式在伦理上都可以被认可。爱情只是人的一种隐性特质,并不会产生什么伦理道德问题,这种危机根本不存在。
而且,对方刚刚自己也承认,现在没有赋予感情的人工智能并没有充分满足我们的需求。那么如何满足这一真正的需求呢?只有赋予感情才能获得更好的便利。
辩题:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情
正方三辩·小结:
我先试一下声音,能听到吗?能听到就好。感谢对方辩友。刚刚我们在询问过程中发现,对方不支持为人工智能赋予感情主要有两点原因。
第一,是因为存在不确定的风险。那么我想请问,核电站我们都知道有很大风险,每天都有泄露的可能,日本天天把核废水排到海里,给我们造成很大危害,我们都没有遏制整个核能的发展。为什么对于人工智能这种不确定的风险,我们就要遏制其发展呢?这难道不荒谬吗?
第二,对方认为人工智能发展到最终阶段一定会取代人类,可为什么它不能和人类和谐共处呢?这一点对方没有给出论证。在管理学上有前置反馈和后置反馈,所有问题的产生只能作为我们日后应该注意和管控的方面,而不能作为我们决策时否定这个方案的根本依据。
再来看对方提出的另一个观点,即会产生一种人文危机。比如我和人工智能谈恋爱或者共事,犯傻了怎么办?这好像让我不再是一个纯粹的人了。但我们现在已经是多元包容的社会,不要说同性恋、异性恋,甚至其他恋爱形式在伦理上都可以被认可。爱情只是人的一种隐性特质,并不会产生什么伦理道德问题,这种危机根本不存在。
而且,对方刚刚自己也承认,现在没有赋予感情的人工智能并没有充分满足我们的需求。那么如何满足这一真正的需求呢?只有赋予感情才能获得更好的便利。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
感谢主席。我们发现,其实今天正方讲了两个点,而这两点之间其实是有一些冲突的。
正方可以说,只需要人工智能能解决部分的问题就可以了。就刚才来看,不管是对于情感方面的原积累(此处表述不清,按原文处理),还是要解决什么一些东西,正方完全没有说清楚要解决什么。还有就是正方提到谈恋爱的事,比如说要跟计算机谈恋爱,那我真的很好奇正方的态度,正方一会儿说要跟它谈恋爱,一会儿又说把它当作一个能够更好服务于人的工具。我想问,如果把它当成一个工具的话,还能不能坦然跟它谈恋爱呢?
我方要强调的是,人工智能会压缩人的空间。正方刚才论述的东西也承认它只是暂时性的,不会非常全面地一下子就生产出来,但我们发现它慢慢就会代替人类,而且代替得并不完全。按照正方的这种情感激励方法,如果人类的空间有一点被压缩了,那么这样一个高质量的存在(此处按原文逻辑调整表述,原文“生物”用词不当)有了自己的情感之后,就可以发现人类其实是不如它们的。除了能把它们生产出来这一点,人类的智商等各方面都是不如它们的。在这种情况下,我们想问,一个工具为什么会永远地服从人类呢?就像你觉得你的上司可能会出错,你不会永远服从他的管理一样。这就是我方所有的危机感,它会不会想欺骗人类,会不会不愿意服从人类呢?
感谢主席。我们发现,其实今天正方讲了两个点,而这两点之间其实是有一些冲突的。
正方可以说,只需要人工智能能解决部分的问题就可以了。就刚才来看,不管是对于情感方面的原积累(此处表述不清,按原文处理),还是要解决什么一些东西,正方完全没有说清楚要解决什么。还有就是正方提到谈恋爱的事,比如说要跟计算机谈恋爱,那我真的很好奇正方的态度,正方一会儿说要跟它谈恋爱,一会儿又说把它当作一个能够更好服务于人的工具。我想问,如果把它当成一个工具的话,还能不能坦然跟它谈恋爱呢?
我方要强调的是,人工智能会压缩人的空间。正方刚才论述的东西也承认它只是暂时性的,不会非常全面地一下子就生产出来,但我们发现它慢慢就会代替人类,而且代替得并不完全。按照正方的这种情感激励方法,如果人类的空间有一点被压缩了,那么这样一个高质量的存在(此处按原文逻辑调整表述,原文“生物”用词不当)有了自己的情感之后,就可以发现人类其实是不如它们的。除了能把它们生产出来这一点,人类的智商等各方面都是不如它们的。在这种情况下,我们想问,一个工具为什么会永远地服从人类呢?就像你觉得你的上司可能会出错,你不会永远服从他的管理一样。这就是我方所有的危机感,它会不会想欺骗人类,会不会不愿意服从人类呢?
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
辩题:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情
自由辩论环节:
正方:您好,我想问您第一个问题,人工智能有妈吗?人工智能有没有妈我不知道,但是如果您给了它情感的能力,它会有所欲求。所以我想问您,作为一个工具,是让它尽量不要有欲求比较好,还是让它有欲求?
反方:所以说人工智能没有妈,您没有办法赐予它们母爱;人工智能不吃东西,您没办法给它食欲;人工智能没有寿命,您没有办法给予它伤春悲秋的情感;人工智能没有爱恨欲,没有性欲,您没有办法告诉它什么叫爱;人工智能没有孩子,您没有办法告诉它什么叫做保护;人工智能没有人类的大小和强弱之分,您作为一个人类永远没有办法赋予人工智能感情。人工智能为何与人类有区别?是因为它没有主体性,它由人类所产生,最初它必然不可能超出人类所有的限度。而您刚才所说的人类不是技术发展到一定程度,而是人类像造物主一样创造出的一个新的种族,您方就像处在魔法世界一般,但不好意思,我们今天是个现实世界,也就是说我们今天所说的正常的伦理情感,都在我们今天伦理情感范围内,所以您方所说的产生需求根本就不存在,因为我们不是在幻想中,我们是人,我们通过技术手段自我控制下的情感。好,回到我们今天的探讨,我们今天要赋予情感,还是不赋予情感呢?我想问您,如果今天不赋予情感,那么多问题,那些心理咨询者、那些制造业该怎么办?
正方:我觉得现在本身岗位就是供过于求的状态,让更多人工智能来取代一些岗位也不会有损失,我觉得心理咨询是它自己会有自己的问题。所以您可以告诉我是怎么来管制人工智能,当它有了情感以后,不会出现您方这种失控的情况啊,您也可以向我提一下您方的技术手段到底是如何控制人工智能的情感的。
反方:技术问题我们这里不做解释。按照您的道理,主要造成了工作岗位的减少,那是不是工业革命也不应该被发生呢?
正方:不是的,我觉得更深层的问题是因为情感是人工智能和人的最后一道屏障,但人类社会是人工智能无法进入的重要领域,但是如果这最后一道屏障被打破,人工智能和人类已经完全没有区别了,人类就是个完全可被替代的物种,这对您方有什么好处呢?
反方:我对您方辩友说,我已经跟您很明确地说了,人工智能没有生老,并且没有母亲,没有孩子,没有食欲,它永远不可能完全替代人类,人类是主导者。我再问您最后一遍,我们今天发展人工智能并赋予它情感,就是为了让它提高效率,更好地服务人类,如果说它有危害,我们坦然承认它不能完全解决所有问题,按照您这个理论,科技就不应该发展,工业革命也不应该发展,只要有危害就不应该发展,对不对?
正方:首先不是说您方说要跟它进行亲密关系了嘛,所以它可以缔结。所以我往下问的部分是您在赋予情感和不赋予情感之前,它们产生的一个效率差别到底在哪啊?
反方:您看,我们已经说得非常明确了,通过人工智能发展来看,它有四个阶段,最后一个就是人类智能阶段,也就是我方所说的完全赋予情感,但并不代表它完全成为一个人,只是说代表它能够以更好的自维方式、更高的生产效率、更好地去服务人类。就像诺贝尔小还是从北京下学(此处表述不清,按原文保留),我们已经提到了,可以说明它可以极大提升人类的生产效率。我最后一次问您,您今天赋予人工智能情感,这部分生产效能全释(此处疑似表述不清,按原文保留)就发展了,我们的发展怎么办?
正方:说实话,我还是没有看懂,就是您不赋予情感,它到底是怎么不能提高效率的,反而我看到您方所举的例子,我看现在猫乡(此处表述不清,按原文保留),我说猫香下载量不够,那您可以看国外的那个单(此处表述不清,按原文保留),它也可以做到,所以我搞不懂您方的利好到底在哪,而往下那部分是当有了需求以后,您这部分利好,您从来没有跟我说过到底足够的利好在哪;而往下那部分是刚刚有了需求理由,这部分弊害您从来没有跟我说过,到底没有什么去阻断来解决,而您方这个问题就不谈啊,今天我是技术手段我们就是不谈,除非您方告诉我今天技术手段到底是怎么把人工智能变成人了,我才考虑和您谈一谈。
反方:技术手段是能控制情感,这我们双方都不谈的,今天所谓的效率我已经谈了,不论是法理还是我们进一步的情感安慰,我们都已经给了很多例子,希望你们给出一个理由,你们凭什么不赋予人工智能情感?同学,我方今天所说的赋予人工智能情感,是把它区分于现在已有的技术一个阶段,它是叫人工识别,所以您方问的利好意思都是建立在它具有情绪识别这一个利好下的,所以我方听到就是说我方其实今天的态度是它有危害,所以它不应该,但是您方今天所有的利好都可以用来类比如果您方所说的啊,我需要一个人理解我,当然可以去找我们的朋友跟他诉说,让他理解我,而不是带来一个这么有风险的一个东西,然后给他进行一个赋予情感这么一个操作,然后才达到。
正方:不对,所以您方您方其实对于人工智能的很大一个危机的构造,其实是在于人工智能具有意识,您方的意识和情感进行了等同。辩方辩友,您方应该至少都是上过大学的,起码就是有过高中学历的人,那我想问您,您方对于政治课本上这个对于人来说意识是人脑的唯一的一个特点的话,您方怎么看?
反方:哦,是这样子的同学,我方并不是说要赋予人工智能意识,我方只是在说情感作为人类的基本心理过程之一,是主体性的一个基本方面,所以我方今天一直在讲的是它有了情感之后,它会有自己的一个主体选择,但相反您方今天又把它当成一个工具,您方又要赋予它情感,就是说从情感上理解,您又要说,哦,就是您方需要的时候,就是那个人工智能又要一直在,所以您方今天的这个对人工智能的定义,是不是自相矛盾呢?
正方:来,您说,既然您方一直不是很明白这个概念,我才给您念这个哲学书上的一个东西,意识是指我们对于环境和自我存在的主观体验,包括感觉、思维、意识的认知。所以对方辩友发现了吗?如果我们把意识和情感两个切割开来,其实您方所谓的所谓的主体观念,主体性的利好,其实都在意识之间,而情感只是对于事件的情绪体验和反应,所以请您方辩友再给我论证一下您的主体性,或者说您给我摆出一个其他的例子来。
反方:不是,我对方辩友,如果它没有主体性的话,它怎么产生这些情感呢?团队方面有问题,刚才已经说了,它今天产生的不是一个独立的意义(此处疑似表述不清,按原文保留),我刚刚也说了,情感只是意识的一个方面,那为什么只有一个方面的情况,为什么我达到意识的一个方面,那在这种只有一个方面的情况,为什么我达到了意识的一个方面,我就可以变成一个独立的人格呢?为什么机器人一旦有了形态,就可以做到整个摧毁整个世界的这样一个强大的力量了?其次在这种情况下,您方的一些毁灭世界的弊端就是已经不存在的了,那如果在这种呢,因为我就是它弊端情况下,我们为什么不去发展现代科技,让它拥有更多的情感来为我服务?
正方:哦,同学发现啊,您说您说啊,首先我方告诉您一个关于人类和猿猴之间的事,首先为什么人类会取代猿猴,是因为猿猴呢?在人类的,在人类大脑体层中会有控制情感反应的能力,因为有这种控制反应的行为取代能力,所以猿猴啊,所以猿猴人类逐渐取代了猿猴。那为什么我们说会有这种AI取代人类的一项风险,因为AI呢,在技术、距离、速度等方面一切都远超于人类,它为什么会允许我们人类主宰它呢?就像秦朝的时候,那为什么那些王朝会不断的更替,因为那些君王的实力比他们弱,所以说他们会选择去取代王朝,所以说我们会认为AI在我们这上的种种都超过人类,它为什么不会有取代人类的一种风险呢?
反方:嗯。然后我觉得关于意识和情感这东西其实有点奇怪,所以您刚的意思我跟您说今天人工智能它是硅胶生(此处表述不清,按原文保留),它不是碳基生物,所以它无法产生,那就是,但关键是无论通过什么途径,那目前是什么,它就算是算法喂出来的情感,它本身表现出来那个东西在今天变得与您更加相近。所以我方想论证的东西是在有了情感之后,叫做我看到的东西,我有正向和反馈,我看到它开心,我就会越想要去追求这个东西,这部分是它欲求产生的概念,也是它情感有了主体特(此处疑似表述不清,按原文保留)的表现。
辩题:如果计算机技术足够发达,我们应该在设计人工智能时为其赋予感情vs如果计算机技术足够发达,我们不应该在设计人工智能时为其赋予感情
自由辩论环节:
正方:您好,我想问您第一个问题,人工智能有妈吗?人工智能有没有妈我不知道,但是如果您给了它情感的能力,它会有所欲求。所以我想问您,作为一个工具,是让它尽量不要有欲求比较好,还是让它有欲求?
反方:所以说人工智能没有妈,您没有办法赐予它们母爱;人工智能不吃东西,您没办法给它食欲;人工智能没有寿命,您没有办法给予它伤春悲秋的情感;人工智能没有爱恨欲,没有性欲,您没有办法告诉它什么叫爱;人工智能没有孩子,您没有办法告诉它什么叫做保护;人工智能没有人类的大小和强弱之分,您作为一个人类永远没有办法赋予人工智能感情。人工智能为何与人类有区别?是因为它没有主体性,它由人类所产生,最初它必然不可能超出人类所有的限度。而您刚才所说的人类不是技术发展到一定程度,而是人类像造物主一样创造出的一个新的种族,您方就像处在魔法世界一般,但不好意思,我们今天是个现实世界,也就是说我们今天所说的正常的伦理情感,都在我们今天伦理情感范围内,所以您方所说的产生需求根本就不存在,因为我们不是在幻想中,我们是人,我们通过技术手段自我控制下的情感。好,回到我们今天的探讨,我们今天要赋予情感,还是不赋予情感呢?我想问您,如果今天不赋予情感,那么多问题,那些心理咨询者、那些制造业该怎么办?
正方:我觉得现在本身岗位就是供过于求的状态,让更多人工智能来取代一些岗位也不会有损失,我觉得心理咨询是它自己会有自己的问题。所以您可以告诉我是怎么来管制人工智能,当它有了情感以后,不会出现您方这种失控的情况啊,您也可以向我提一下您方的技术手段到底是如何控制人工智能的情感的。
反方:技术问题我们这里不做解释。按照您的道理,主要造成了工作岗位的减少,那是不是工业革命也不应该被发生呢?
正方:不是的,我觉得更深层的问题是因为情感是人工智能和人的最后一道屏障,但人类社会是人工智能无法进入的重要领域,但是如果这最后一道屏障被打破,人工智能和人类已经完全没有区别了,人类就是个完全可被替代的物种,这对您方有什么好处呢?
反方:我对您方辩友说,我已经跟您很明确地说了,人工智能没有生老,并且没有母亲,没有孩子,没有食欲,它永远不可能完全替代人类,人类是主导者。我再问您最后一遍,我们今天发展人工智能并赋予它情感,就是为了让它提高效率,更好地服务人类,如果说它有危害,我们坦然承认它不能完全解决所有问题,按照您这个理论,科技就不应该发展,工业革命也不应该发展,只要有危害就不应该发展,对不对?
正方:首先不是说您方说要跟它进行亲密关系了嘛,所以它可以缔结。所以我往下问的部分是您在赋予情感和不赋予情感之前,它们产生的一个效率差别到底在哪啊?
反方:您看,我们已经说得非常明确了,通过人工智能发展来看,它有四个阶段,最后一个就是人类智能阶段,也就是我方所说的完全赋予情感,但并不代表它完全成为一个人,只是说代表它能够以更好的自维方式、更高的生产效率、更好地去服务人类。就像诺贝尔小还是从北京下学(此处表述不清,按原文保留),我们已经提到了,可以说明它可以极大提升人类的生产效率。我最后一次问您,您今天赋予人工智能情感,这部分生产效能全释(此处疑似表述不清,按原文保留)就发展了,我们的发展怎么办?
正方:说实话,我还是没有看懂,就是您不赋予情感,它到底是怎么不能提高效率的,反而我看到您方所举的例子,我看现在猫乡(此处表述不清,按原文保留),我说猫香下载量不够,那您可以看国外的那个单(此处表述不清,按原文保留),它也可以做到,所以我搞不懂您方的利好到底在哪,而往下那部分是当有了需求以后,您这部分利好,您从来没有跟我说过到底足够的利好在哪;而往下那部分是刚刚有了需求理由,这部分弊害您从来没有跟我说过,到底没有什么去阻断来解决,而您方这个问题就不谈啊,今天我是技术手段我们就是不谈,除非您方告诉我今天技术手段到底是怎么把人工智能变成人了,我才考虑和您谈一谈。
反方:技术手段是能控制情感,这我们双方都不谈的,今天所谓的效率我已经谈了,不论是法理还是我们进一步的情感安慰,我们都已经给了很多例子,希望你们给出一个理由,你们凭什么不赋予人工智能情感?同学,我方今天所说的赋予人工智能情感,是把它区分于现在已有的技术一个阶段,它是叫人工识别,所以您方问的利好意思都是建立在它具有情绪识别这一个利好下的,所以我方听到就是说我方其实今天的态度是它有危害,所以它不应该,但是您方今天所有的利好都可以用来类比如果您方所说的啊,我需要一个人理解我,当然可以去找我们的朋友跟他诉说,让他理解我,而不是带来一个这么有风险的一个东西,然后给他进行一个赋予情感这么一个操作,然后才达到。
正方:不对,所以您方您方其实对于人工智能的很大一个危机的构造,其实是在于人工智能具有意识,您方的意识和情感进行了等同。辩方辩友,您方应该至少都是上过大学的,起码就是有过高中学历的人,那我想问您,您方对于政治课本上这个对于人来说意识是人脑的唯一的一个特点的话,您方怎么看?
反方:哦,是这样子的同学,我方并不是说要赋予人工智能意识,我方只是在说情感作为人类的基本心理过程之一,是主体性的一个基本方面,所以我方今天一直在讲的是它有了情感之后,它会有自己的一个主体选择,但相反您方今天又把它当成一个工具,您方又要赋予它情感,就是说从情感上理解,您又要说,哦,就是您方需要的时候,就是那个人工智能又要一直在,所以您方今天的这个对人工智能的定义,是不是自相矛盾呢?
正方:来,您说,既然您方一直不是很明白这个概念,我才给您念这个哲学书上的一个东西,意识是指我们对于环境和自我存在的主观体验,包括感觉、思维、意识的认知。所以对方辩友发现了吗?如果我们把意识和情感两个切割开来,其实您方所谓的所谓的主体观念,主体性的利好,其实都在意识之间,而情感只是对于事件的情绪体验和反应,所以请您方辩友再给我论证一下您的主体性,或者说您给我摆出一个其他的例子来。
反方:不是,我对方辩友,如果它没有主体性的话,它怎么产生这些情感呢?团队方面有问题,刚才已经说了,它今天产生的不是一个独立的意义(此处疑似表述不清,按原文保留),我刚刚也说了,情感只是意识的一个方面,那为什么只有一个方面的情况,为什么我达到意识的一个方面,那在这种只有一个方面的情况,为什么我达到了意识的一个方面,我就可以变成一个独立的人格呢?为什么机器人一旦有了形态,就可以做到整个摧毁整个世界的这样一个强大的力量了?其次在这种情况下,您方的一些毁灭世界的弊端就是已经不存在的了,那如果在这种呢,因为我就是它弊端情况下,我们为什么不去发展现代科技,让它拥有更多的情感来为我服务?
正方:哦,同学发现啊,您说您说啊,首先我方告诉您一个关于人类和猿猴之间的事,首先为什么人类会取代猿猴,是因为猿猴呢?在人类的,在人类大脑体层中会有控制情感反应的能力,因为有这种控制反应的行为取代能力,所以猿猴啊,所以猿猴人类逐渐取代了猿猴。那为什么我们说会有这种AI取代人类的一项风险,因为AI呢,在技术、距离、速度等方面一切都远超于人类,它为什么会允许我们人类主宰它呢?就像秦朝的时候,那为什么那些王朝会不断的更替,因为那些君王的实力比他们弱,所以说他们会选择去取代王朝,所以说我们会认为AI在我们这上的种种都超过人类,它为什么不会有取代人类的一种风险呢?
反方:嗯。然后我觉得关于意识和情感这东西其实有点奇怪,所以您刚的意思我跟您说今天人工智能它是硅胶生(此处表述不清,按原文保留),它不是碳基生物,所以它无法产生,那就是,但关键是无论通过什么途径,那目前是什么,它就算是算法喂出来的情感,它本身表现出来那个东西在今天变得与您更加相近。所以我方想论证的东西是在有了情感之后,叫做我看到的东西,我有正向和反馈,我看到它开心,我就会越想要去追求这个东西,这部分是它欲求产生的概念,也是它情感有了主体特(此处疑似表述不清,按原文保留)的表现。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
感谢主持人。我方找到一位学者的观点,其称人工智能有了情感之后就具备一定的主体性,不能再被当作客体工具。
再看对方的论述,对方称这是必然趋势,但我方不知为何这是必然趋势就代表有相关利好。并且,银行圈一直在要求人工智能理解人类,可奇怪的是,基于现有的算法,它能根据大量数据库对人类情绪进行识别,且已应用到日常生活中,比如银行用于检测危险和恐怖袭击等破坏事件,就是根据人的细微表情来观察的,这是基于算法进行的情绪识别。然而,对方今天讨论的似乎都是现有情况,我方并未听到在计算机足够发达之后,赋予人工智能情感到底是什么。
接着,对方对于人工智能的基本定义是相当矛盾的。对方既要求它理解人类,用自身情感理解人类,但这自身情感区别于现有的人工算法,是通过算法产生的,而对方要求它有自身情感,这是否与对方所说的它是工具相违背呢?
另外,对方提到并非完美解决的要求,但奇怪的是,对方所说的一切利好都可用其他方式替代。比如我想要机器人理解我、陪伴我,我可以通过朋友或者亲情友情来达到,而不用承担我方所说的赋予其情感之后的风险,这部分风险是可以规避的。
我方今天所说的风险在于,根据之前的理论,机器有了主体意识,一旦发现自身所需电力与人类所需电力冲突,它会如何?对方也未具体说明赋予情感后如何控制情感。而且,我方一直强调的是,它意识到这一点后可能会对人类产生威胁。并且,我方之前提到人工智能应用于更广泛的方面可能导致一些人失业,在现状下,部分岗位上的人可能比不上人工智能的高智能,从而面临失业,对方所说的生产效能这部分也可用其他方面规避,这就是我方的态度。
感谢主持人。我方找到一位学者的观点,其称人工智能有了情感之后就具备一定的主体性,不能再被当作客体工具。
再看对方的论述,对方称这是必然趋势,但我方不知为何这是必然趋势就代表有相关利好。并且,银行圈一直在要求人工智能理解人类,可奇怪的是,基于现有的算法,它能根据大量数据库对人类情绪进行识别,且已应用到日常生活中,比如银行用于检测危险和恐怖袭击等破坏事件,就是根据人的细微表情来观察的,这是基于算法进行的情绪识别。然而,对方今天讨论的似乎都是现有情况,我方并未听到在计算机足够发达之后,赋予人工智能情感到底是什么。
接着,对方对于人工智能的基本定义是相当矛盾的。对方既要求它理解人类,用自身情感理解人类,但这自身情感区别于现有的人工算法,是通过算法产生的,而对方要求它有自身情感,这是否与对方所说的它是工具相违背呢?
另外,对方提到并非完美解决的要求,但奇怪的是,对方所说的一切利好都可用其他方式替代。比如我想要机器人理解我、陪伴我,我可以通过朋友或者亲情友情来达到,而不用承担我方所说的赋予其情感之后的风险,这部分风险是可以规避的。
我方今天所说的风险在于,根据之前的理论,机器有了主体意识,一旦发现自身所需电力与人类所需电力冲突,它会如何?对方也未具体说明赋予情感后如何控制情感。而且,我方一直强调的是,它意识到这一点后可能会对人类产生威胁。并且,我方之前提到人工智能应用于更广泛的方面可能导致一些人失业,在现状下,部分岗位上的人可能比不上人工智能的高智能,从而面临失业,对方所说的生产效能这部分也可用其他方面规避,这就是我方的态度。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)