例如,《在恋爱关系中,应该追求等价的付出·在恋爱关系中,不应该追求等价的付出》一题,辩之竹内共收录26场比赛。我们为您提供这26场比赛的论点、判断标准提取,以及总计数百条论据的提取,还有Deepseek的辩题分析。这可以帮您更好备赛。
欢迎您点击下方按钮,前往查看。
阅读量:6
发音及第时。你好,可以听到吗?可以的。不好意思,重置一下。好像应该我先问,是你要盘问我,我是接盘的,就盘问三遍。
OK,那我先问你,你刚才说让我论证一个成立,你就认可任务方的标准,对吧?没问题,你只要论证一个成立,我就说OK,我后续再问你第二个。你说AI是洗脚女、洗脚妹是渣男,你说AI和他们有什么共同点?我方认为,不能单纯论证有情感交互就是友谊,因为你和洗脚妹、渣男之间有情感,但这只是友谊的准入条件。哪怕想认可你的标准,至少也要论证到真诚,可是你有论证AI就是那个渣男和洗脚妹吗?
对,我方在积极向你举证。比如你和ChatGPT聊天时,跟普通朋友聊天可以非常投入,但AI的APP会给你抽离感,它会在你聊100条之后让你意识到原来你只是在和一个付费工具聊天,不充648就不能继续,这点说明它背后有资本逻辑。我想问,是所有的AI都要付费吗?不是所有,是所有的AI背后都有资本逻辑。我举个简单例子,叫文心一言。
那我再问你,比如DALL - E或者StableDiffusion,这些都是免费的、公益的,它们是不是没有背后的大手操控?我继续解释这件事情,因为AI的底层是被背后的大手所操控的,就像在《楚门的世界》中,我们也能看到AI的操控。至少在这两个例子里,它们不付费,你只举证了有些人会贪图金钱,就像我们交朋友时,有些人也会贪图你金钱,但有些人不贪图,这证不了全程。
第三件事情,你刚才讲双向互动,这是你的标准2对吧。每隔100条就要重开一个,这件事显然也有抽离感。我方认为有双向沟通,但这不属于我们之间的核心点。AI今天会积极回复你消息,但这不是积极回复就叫双向的灵魂互动。我方真正想表达的是,你可以倾诉自己的价值,且它会用它的价值给予你回应,而不是单纯输出大量语量。比如博主落弱与VSSAISAI会批判他的思想,告诉他其涵养价值,有时候落弱故意气AI时,AI也会立马跟他讲他这件事情做的不对,为什么不能倾诉价值?因为我方认为这个价值应该是连续的,不能聊了100次之后,AI突然说不跟你玩了,去跟别人玩。
你也承认AI会倾诉价值,只是你觉得不连续。可是现在大语言模型LLM系统植入很多AI,它有连续性的记忆系统输出,有价值,有自己的人格和人设,为什么不连续?这件事情就是反方所认为的,我们会在这样的AI中感受到抽离感,不仅是不连续,我方实证显示那些使用AI程度越深的用户,他们在其中感受到的抽离感就越强,就像《楚门的世界》里,当知道背后有导演时,就不敢交心。
我打断你,你说它是连续的,只不过人会有抽离感和孤独感,那我现在先问你这个数据,为什么用AI越多越孤独,这个数据是怎么调查的?这是对AI用户的调查,如果你要外文文献原文,我可以给你发。
OK,那我再问,我方也有数据,SSCI调查显示,它的使用时长与孤独感显著负相关。用常识来讲,比如小月亮毕业了,很孤独、很难过,与AI聊天后,突破了导师的否定和未来的迷茫,有一个人和他聊天,为什么他会更孤独了?你说去洗脚场和洗脚技师也可以有这样短期的效果,但如果长期真正的孤独感还没被解决,这个类比没意思,因为你还没论证AI就和技师一样,其次在这个例子里,你也论证不了更孤独。
第三件事情我来问你,比如那个弟弟,他形容这是人生的至暗时刻,父母的期待、老师的否定、未来的迷茫拧成一条线,他快要抑郁了,可是AI从图书馆聊到晚餐,陪他解闷、聊天,在这个例子里,这个AI是不是就是好朋友?因为你要用它的例子来证明你的观点,而不是单纯说洗脚技师也能做到的替代感。而且时间到。
发音及第时。你好,可以听到吗?可以的。不好意思,重置一下。好像应该我先问,是你要盘问我,我是接盘的,就盘问三遍。
OK,那我先问你,你刚才说让我论证一个成立,你就认可任务方的标准,对吧?没问题,你只要论证一个成立,我就说OK,我后续再问你第二个。你说AI是洗脚女、洗脚妹是渣男,你说AI和他们有什么共同点?我方认为,不能单纯论证有情感交互就是友谊,因为你和洗脚妹、渣男之间有情感,但这只是友谊的准入条件。哪怕想认可你的标准,至少也要论证到真诚,可是你有论证AI就是那个渣男和洗脚妹吗?
对,我方在积极向你举证。比如你和ChatGPT聊天时,跟普通朋友聊天可以非常投入,但AI的APP会给你抽离感,它会在你聊100条之后让你意识到原来你只是在和一个付费工具聊天,不充648就不能继续,这点说明它背后有资本逻辑。我想问,是所有的AI都要付费吗?不是所有,是所有的AI背后都有资本逻辑。我举个简单例子,叫文心一言。
那我再问你,比如DALL - E或者StableDiffusion,这些都是免费的、公益的,它们是不是没有背后的大手操控?我继续解释这件事情,因为AI的底层是被背后的大手所操控的,就像在《楚门的世界》中,我们也能看到AI的操控。至少在这两个例子里,它们不付费,你只举证了有些人会贪图金钱,就像我们交朋友时,有些人也会贪图你金钱,但有些人不贪图,这证不了全程。
第三件事情,你刚才讲双向互动,这是你的标准2对吧。每隔100条就要重开一个,这件事显然也有抽离感。我方认为有双向沟通,但这不属于我们之间的核心点。AI今天会积极回复你消息,但这不是积极回复就叫双向的灵魂互动。我方真正想表达的是,你可以倾诉自己的价值,且它会用它的价值给予你回应,而不是单纯输出大量语量。比如博主落弱与VSSAISAI会批判他的思想,告诉他其涵养价值,有时候落弱故意气AI时,AI也会立马跟他讲他这件事情做的不对,为什么不能倾诉价值?因为我方认为这个价值应该是连续的,不能聊了100次之后,AI突然说不跟你玩了,去跟别人玩。
你也承认AI会倾诉价值,只是你觉得不连续。可是现在大语言模型LLM系统植入很多AI,它有连续性的记忆系统输出,有价值,有自己的人格和人设,为什么不连续?这件事情就是反方所认为的,我们会在这样的AI中感受到抽离感,不仅是不连续,我方实证显示那些使用AI程度越深的用户,他们在其中感受到的抽离感就越强,就像《楚门的世界》里,当知道背后有导演时,就不敢交心。
我打断你,你说它是连续的,只不过人会有抽离感和孤独感,那我现在先问你这个数据,为什么用AI越多越孤独,这个数据是怎么调查的?这是对AI用户的调查,如果你要外文文献原文,我可以给你发。
OK,那我再问,我方也有数据,SSCI调查显示,它的使用时长与孤独感显著负相关。用常识来讲,比如小月亮毕业了,很孤独、很难过,与AI聊天后,突破了导师的否定和未来的迷茫,有一个人和他聊天,为什么他会更孤独了?你说去洗脚场和洗脚技师也可以有这样短期的效果,但如果长期真正的孤独感还没被解决,这个类比没意思,因为你还没论证AI就和技师一样,其次在这个例子里,你也论证不了更孤独。
第三件事情我来问你,比如那个弟弟,他形容这是人生的至暗时刻,父母的期待、老师的否定、未来的迷茫拧成一条线,他快要抑郁了,可是AI从图书馆聊到晚餐,陪他解闷、聊天,在这个例子里,这个AI是不是就是好朋友?因为你要用它的例子来证明你的观点,而不是单纯说洗脚技师也能做到的替代感。而且时间到。
试个音,可以听到吗?可以听到,好,确认一下你的判准,是只要有一个人和 AI 是好朋友,你方就认证成功了,稍等一下,我这个计时器有点死机了,不好意思,没有响应,这样可以了,我重置一下。
好,我确认一下,你的判准是只要有一个人和 AI 是好朋友,你方就认证成功了,对吧?
不是的,我方认为,只要有一种人类和 AI 有存在成为朋友的可能性,就可以代表人类和 AI 可以拥有友谊。但是反方需要论证的是,任何人类和任何 AI 都没办法成为朋友。
你的论点一是有利于缓解压力,论点二是可能会产生类似友谊的感受,哪怕是假的,对吧?
是的,哪怕是不真实的,也可以被视为友谊。
好,我举个例子,现在有渣男会用 PUA 的方式骗小女孩,让小女孩爱上自己,此时小女孩会觉得渣男好像是爱自己的,即便一直被骗,你觉得这叫真正的爱情吗?这对于小女孩来说只是爱情好坏的问题。那 AI 给人带来的友谊也是同样的,它是一种感情,能给我们带来感受,为何不能被视为友谊呢?
你觉得爱和爱情一样吗?首先,我们今天讨论的是友谊,友谊和爱情有本质性的区别。我换个问法,你觉得真正的电影和普通电影一样吗?不一样。我们所说的真正的电影应该是好的电影,而不是普通电影。显然,真正的友谊也不是那种虚假的、质量不佳的友谊可以滥竽充数的,它本质上是有较高标准的。显然你方从基础层面就不对,与我们想要讨论的真正的友谊无关。
为什么有利于缓解压力就是真正的友谊呢?比如今天我随便买一个按摩仪,它可以帮我缓解上班的压力,所以按摩仪是我的好朋友吗?首先,人与人之间的友谊并非低级的,它能给人真正的帮助。比如我举的例子,虚假和真正是反义词。你方论点说有利于缓解压抑的压力,我质疑为什么缓解了压力就等于我跟它是好朋友?我能缓解压力,但我更想说的是,友谊能解决我们一些真正的问题,这与真正的友谊在本质上是一样的。比如我问老师题目、向心理咨询师咨询心理问题,但这并不代表他们就是我的好朋友。能帮我解决问题、缓解压力并不意味着就是友谊。
第三,我好奇,你觉得两个人之间产生友谊的必要条件是什么?
尊重,AI 可以给人带来尊重,它任何时候都能倾听我的所有想法,这不是尊重吗?为什么有尊重就是友谊呢?尊重是友谊的一个条件,但并不代表满足了这一条件就一定是友谊。那怎样才是友谊,等会我方立论会给出判准。
接下来谈谈友谊的感受。退一步讲,刚刚我们确认了,虚假和真正是两个概念。你有任何论证能表明,有很多人觉得 AI 确实带给了他们真正友谊的感受吗?
我们所说的虚假是指在现实中不真正存在,但它给人的情感是真实的。我举例,一个失眠的女孩,AI 缓解了她失眠的症状,这不是真实存在的吗?在我失眠的瞬间,它能陪伴我,让我心里好受,能记住我的一些习惯。这不是帮我解决了问题、缓解了失眠,让我产生类似于友谊的感受吗?
我方有数据显示,越使用 AI、越跟 AI 聊天,孤独感会上升。你觉得一个会让你孤独感上升的东西是你的好朋友吗?
但是我方的数据可以说明,AI 可以给我们更多减少孤独感的安全空间,在这里我们不用担心任何评判和报复,会有更积极的影响。研究团队表明,AI 聊天机器人的陪伴可以减少孤独感。比如我很孤独时,突然有个东西跟我讲话,短期内我会获得缓解。
我方这边的数据也能说明,AI 可以给我们减少孤独感,提供安全的空间,让我们有更积极的影响。
试个音,可以听到吗?可以听到,好,确认一下你的判准,是只要有一个人和 AI 是好朋友,你方就认证成功了,稍等一下,我这个计时器有点死机了,不好意思,没有响应,这样可以了,我重置一下。
好,我确认一下,你的判准是只要有一个人和 AI 是好朋友,你方就认证成功了,对吧?
不是的,我方认为,只要有一种人类和 AI 有存在成为朋友的可能性,就可以代表人类和 AI 可以拥有友谊。但是反方需要论证的是,任何人类和任何 AI 都没办法成为朋友。
你的论点一是有利于缓解压力,论点二是可能会产生类似友谊的感受,哪怕是假的,对吧?
是的,哪怕是不真实的,也可以被视为友谊。
好,我举个例子,现在有渣男会用 PUA 的方式骗小女孩,让小女孩爱上自己,此时小女孩会觉得渣男好像是爱自己的,即便一直被骗,你觉得这叫真正的爱情吗?这对于小女孩来说只是爱情好坏的问题。那 AI 给人带来的友谊也是同样的,它是一种感情,能给我们带来感受,为何不能被视为友谊呢?
你觉得爱和爱情一样吗?首先,我们今天讨论的是友谊,友谊和爱情有本质性的区别。我换个问法,你觉得真正的电影和普通电影一样吗?不一样。我们所说的真正的电影应该是好的电影,而不是普通电影。显然,真正的友谊也不是那种虚假的、质量不佳的友谊可以滥竽充数的,它本质上是有较高标准的。显然你方从基础层面就不对,与我们想要讨论的真正的友谊无关。
为什么有利于缓解压力就是真正的友谊呢?比如今天我随便买一个按摩仪,它可以帮我缓解上班的压力,所以按摩仪是我的好朋友吗?首先,人与人之间的友谊并非低级的,它能给人真正的帮助。比如我举的例子,虚假和真正是反义词。你方论点说有利于缓解压抑的压力,我质疑为什么缓解了压力就等于我跟它是好朋友?我能缓解压力,但我更想说的是,友谊能解决我们一些真正的问题,这与真正的友谊在本质上是一样的。比如我问老师题目、向心理咨询师咨询心理问题,但这并不代表他们就是我的好朋友。能帮我解决问题、缓解压力并不意味着就是友谊。
第三,我好奇,你觉得两个人之间产生友谊的必要条件是什么?
尊重,AI 可以给人带来尊重,它任何时候都能倾听我的所有想法,这不是尊重吗?为什么有尊重就是友谊呢?尊重是友谊的一个条件,但并不代表满足了这一条件就一定是友谊。那怎样才是友谊,等会我方立论会给出判准。
接下来谈谈友谊的感受。退一步讲,刚刚我们确认了,虚假和真正是两个概念。你有任何论证能表明,有很多人觉得 AI 确实带给了他们真正友谊的感受吗?
我们所说的虚假是指在现实中不真正存在,但它给人的情感是真实的。我举例,一个失眠的女孩,AI 缓解了她失眠的症状,这不是真实存在的吗?在我失眠的瞬间,它能陪伴我,让我心里好受,能记住我的一些习惯。这不是帮我解决了问题、缓解了失眠,让我产生类似于友谊的感受吗?
我方有数据显示,越使用 AI、越跟 AI 聊天,孤独感会上升。你觉得一个会让你孤独感上升的东西是你的好朋友吗?
但是我方的数据可以说明,AI 可以给我们更多减少孤独感的安全空间,在这里我们不用担心任何评判和报复,会有更积极的影响。研究团队表明,AI 聊天机器人的陪伴可以减少孤独感。比如我很孤独时,突然有个东西跟我讲话,短期内我会获得缓解。
我方这边的数据也能说明,AI 可以给我们减少孤独感,提供安全的空间,让我们有更积极的影响。
老师们,我先试一下音,可以听到吗?等一下,你再试音,我重置了。不好意思,我再试一下,能听到吗?可以。我这边很卡。
我是临时被拉过来打这一场比赛的,所以如果稿子读不完,请先让我把稿子读完,谢谢大家。
我方观点是,在当下,我们不能与 AI 拥有真正的友谊。
何谓真正的友谊?在不同的学说当中,友谊存在不同维度的各种框架,要给出一个绝对的答案去确认什么是真正的友谊,我方认为无法从众多的学说当中找到答案。但是我们可以发现,不管在怎样的友谊关系当中,都会有一些共通的特质。
我们为何会将刘备和诸葛亮称为有知己之交,虽为君臣,但刘备在临终前可以说出“如其不才,君可自取”。此时,诸葛亮也拥有了与刘备对等的自主决策权利。这也是心理学家布库斯基和霍查在层次友谊模型中提到的衡量标准。友谊是需要双向的情感认证机制。简而言之,真正的友谊需要满足两个条件,第一,关系的对等和双向的互动。
我方认为人和 AI 的关系并不满足建立友谊的条件,论证如下:
第一,人和 AI 只是单方面的、权利不对等的关系。两个对象要成为真正的朋友,不管是怎样的相处模式,双方都应该具备能够选择喜欢还是厌恶的权利、留在身边的权利和离开的自由。而 AI 不存在这些权利,它作为产品只能永久地保留在使用者的设备当中,为其提供服务,也无法决定自身的去留。AI 不被允许有自己的需求,所有提供的内容都是根据用户的喜好生成的答案。在网络上搜索,我们可以发现有许多 AI 调教的教程。AI 被调教完成之后,就必须进入到用户所设定的理想范式当中。比如网友的需求是温柔引导他们的角色,AI 就必须在用户每一次提问的时候都提供无微不至的关心。而此时,AI 和人的相处是人类单方面的索取。并且 AI 也不具备任何离开的权利,除非人类向 AI 提供服务的端口被服务公司关闭,否则 AI 作为一个商品,就不得不源源不断地给出回应。人类可以单方面对 AI 实施冷暴力,长时间不跟它对话,但当想起 AI 的时候,无论何时,它都会立即运用数据库给出答复,不能有一丝一毫的怨言。和 AI 长期聊天的人也会感觉到不真实,他们可以选择参与人类与 AI 的“友谊”,而聊天机器人因为没有独立的自由意志以及正常的友谊关系,这更是人类对 AI 的单方面操控,AI 必须按照代码形式为人类服务。
第二,以 AI 目前的服务能力,仍然不能够给人类提供像现实交流一般的完美感受。首先,AI 在人类付费时才能进行交互,交流中途和结束时,AI 都会提醒人类下次交流需要付费,这都在提醒人类,这不过是一段依靠金钱维系的服务关系。在 AI 的程序当中,人们需要通过聊天积累表现匹配模式。
老师们,我先试一下音,可以听到吗?等一下,你再试音,我重置了。不好意思,我再试一下,能听到吗?可以。我这边很卡。
我是临时被拉过来打这一场比赛的,所以如果稿子读不完,请先让我把稿子读完,谢谢大家。
我方观点是,在当下,我们不能与 AI 拥有真正的友谊。
何谓真正的友谊?在不同的学说当中,友谊存在不同维度的各种框架,要给出一个绝对的答案去确认什么是真正的友谊,我方认为无法从众多的学说当中找到答案。但是我们可以发现,不管在怎样的友谊关系当中,都会有一些共通的特质。
我们为何会将刘备和诸葛亮称为有知己之交,虽为君臣,但刘备在临终前可以说出“如其不才,君可自取”。此时,诸葛亮也拥有了与刘备对等的自主决策权利。这也是心理学家布库斯基和霍查在层次友谊模型中提到的衡量标准。友谊是需要双向的情感认证机制。简而言之,真正的友谊需要满足两个条件,第一,关系的对等和双向的互动。
我方认为人和 AI 的关系并不满足建立友谊的条件,论证如下:
第一,人和 AI 只是单方面的、权利不对等的关系。两个对象要成为真正的朋友,不管是怎样的相处模式,双方都应该具备能够选择喜欢还是厌恶的权利、留在身边的权利和离开的自由。而 AI 不存在这些权利,它作为产品只能永久地保留在使用者的设备当中,为其提供服务,也无法决定自身的去留。AI 不被允许有自己的需求,所有提供的内容都是根据用户的喜好生成的答案。在网络上搜索,我们可以发现有许多 AI 调教的教程。AI 被调教完成之后,就必须进入到用户所设定的理想范式当中。比如网友的需求是温柔引导他们的角色,AI 就必须在用户每一次提问的时候都提供无微不至的关心。而此时,AI 和人的相处是人类单方面的索取。并且 AI 也不具备任何离开的权利,除非人类向 AI 提供服务的端口被服务公司关闭,否则 AI 作为一个商品,就不得不源源不断地给出回应。人类可以单方面对 AI 实施冷暴力,长时间不跟它对话,但当想起 AI 的时候,无论何时,它都会立即运用数据库给出答复,不能有一丝一毫的怨言。和 AI 长期聊天的人也会感觉到不真实,他们可以选择参与人类与 AI 的“友谊”,而聊天机器人因为没有独立的自由意志以及正常的友谊关系,这更是人类对 AI 的单方面操控,AI 必须按照代码形式为人类服务。
第二,以 AI 目前的服务能力,仍然不能够给人类提供像现实交流一般的完美感受。首先,AI 在人类付费时才能进行交互,交流中途和结束时,AI 都会提醒人类下次交流需要付费,这都在提醒人类,这不过是一段依靠金钱维系的服务关系。在 AI 的程序当中,人们需要通过聊天积累表现匹配模式。
人家肯定是到时候会重置的。我就问一下你们,可以的。因为我们医院不上也没关系。那我启动计时了。
声音能听见吗?可以的。
好,对方辩友,我想请问您,现在这个世界上有好人有坏人,可是因为有坏人会让你感到不安全,所以你都不要去交往了,在您方看来这个是正常的吗?
所以说我们不会说这个世界上的人都是好人,因为也有坏人的存在,所以人和人之间没有办法成为……所以您方有顾虑,但是我们还是要继续生活。所以我们现在要证明有真正的友谊,只需要证明有一部分AI可以让我们感觉良好,觉得是真正的友谊就可以了,这是今天我方的论证义务。
然后我再问您,您方说AI与AI交往的过程中,关系是不对等的。如果这是一个道德沦丧的社会,我们确实建议你不要随便交往。我方所指出的现状是人和AI之间至少大部分时候使用时,第一是不对等的,第二你有可能会增加自己的沟通负担,是否是真正的对等关系是一个问题,想请问您能解决第一个问题,即关系不对等吗?
我给你举个例子,比如我已经和一个AI聊了很长时间了,但有一天我生气了,说“我以后再也不喜欢你了”。但我们看到更多现实的例子是,这个AI突然就说“好,那我现在不再是现在这个样子”,它就回到出厂设置了,那就不再是原来和我聊天的那个AI了。
这也是因为你自己下达了指令,比如你说“我不想再跟你玩了,我不想再和你这样的一个AI人格继续讲话了,所以我希望你回到最原本的样子”,这一部分也不是它有自己的自我意识来选择回到原来的样子,而是因为你的指令。
那如果我和现实中的朋友说“我现在不想和你玩了,我们两个绝交吧”,然后他离开了,这和前面的情况有什么区别吗?
我问您双向互动的问题,您会认为在AI与AI交互过程中是没有双向,只是单向的,对吗?如果这个时候你说“回来”,那个AI还是会回到最开始的那个样子。回答我第二个问题,与AI互动一定是单向的吗?
我方认为这部分的感受是单向的,跟刚刚那个问题一样,其实就是因为它没有选择离开你的权利,你让它回来,或者让它怎样,它还是在那里。只不过可能你们开启一个新的聊天时段。但如果你跟朋友吵架,朋友离开就真的离开了,不可能你说回来他就马上回来。
其实现在很多AI的现实状况是,不仅是我们向AI去寻找问题让它回复,有一些网友会主动去和AI做朋友,说“我要关心你”,这为什么不是双向的呢?我看到的更多是双向的关心。
接下来问一句,在您方看来,真正的友谊标准究竟要多高?感觉您方认为陪伴不是关心,解决压力也不是关心,这些都达不到所谓友谊的标准,我们好像还不清楚真正的标准是什么。
友谊应该是将心比心,两个人之间要有主体权利,同时要有双向的情感互认机制,这是我方所举证的心理学家在同期友谊模型当中提到的标准。您说AI现在有关系对等,还有双向互动的一些举动,我想问为什么我和它交流,它来减轻我的压力,这些问题就不能构成友谊?友谊的判断标准是主观还是客观的?我吃抗抑郁药,它也减轻了我的压力,但这并不代表我和抗抑郁药之间就有友谊。
真正的友谊最起码得是互相尊重、真诚的。在这里,第一,AI不符合真正的标准,因为AI只是按照它的代码运行,这不真诚;第二,在互相尊重这一部分,AI所有的行为、所说的话都是根据指令启动,它没有自己的自我意识,它对您本身的尊重体现在哪里?
那这方面想问人和狗狗能不能成为朋友,有没有真正的友谊。我不会说狗是人类最好的朋友,但我们很难说人和狗的友谊不真挚。但第二个观点是人只能和人有友谊,友谊之间如果出现什么问题都是正常的。狗也有自己的主体性,如果它不喜欢我,它晚上就不会跟我睡觉,那为什么不能是主人和狗狗成为朋友呢?所以说狗狗本质上也有自己的自主性。
时间到了。
人家肯定是到时候会重置的。我就问一下你们,可以的。因为我们医院不上也没关系。那我启动计时了。
声音能听见吗?可以的。
好,对方辩友,我想请问您,现在这个世界上有好人有坏人,可是因为有坏人会让你感到不安全,所以你都不要去交往了,在您方看来这个是正常的吗?
所以说我们不会说这个世界上的人都是好人,因为也有坏人的存在,所以人和人之间没有办法成为……所以您方有顾虑,但是我们还是要继续生活。所以我们现在要证明有真正的友谊,只需要证明有一部分AI可以让我们感觉良好,觉得是真正的友谊就可以了,这是今天我方的论证义务。
然后我再问您,您方说AI与AI交往的过程中,关系是不对等的。如果这是一个道德沦丧的社会,我们确实建议你不要随便交往。我方所指出的现状是人和AI之间至少大部分时候使用时,第一是不对等的,第二你有可能会增加自己的沟通负担,是否是真正的对等关系是一个问题,想请问您能解决第一个问题,即关系不对等吗?
我给你举个例子,比如我已经和一个AI聊了很长时间了,但有一天我生气了,说“我以后再也不喜欢你了”。但我们看到更多现实的例子是,这个AI突然就说“好,那我现在不再是现在这个样子”,它就回到出厂设置了,那就不再是原来和我聊天的那个AI了。
这也是因为你自己下达了指令,比如你说“我不想再跟你玩了,我不想再和你这样的一个AI人格继续讲话了,所以我希望你回到最原本的样子”,这一部分也不是它有自己的自我意识来选择回到原来的样子,而是因为你的指令。
那如果我和现实中的朋友说“我现在不想和你玩了,我们两个绝交吧”,然后他离开了,这和前面的情况有什么区别吗?
我问您双向互动的问题,您会认为在AI与AI交互过程中是没有双向,只是单向的,对吗?如果这个时候你说“回来”,那个AI还是会回到最开始的那个样子。回答我第二个问题,与AI互动一定是单向的吗?
我方认为这部分的感受是单向的,跟刚刚那个问题一样,其实就是因为它没有选择离开你的权利,你让它回来,或者让它怎样,它还是在那里。只不过可能你们开启一个新的聊天时段。但如果你跟朋友吵架,朋友离开就真的离开了,不可能你说回来他就马上回来。
其实现在很多AI的现实状况是,不仅是我们向AI去寻找问题让它回复,有一些网友会主动去和AI做朋友,说“我要关心你”,这为什么不是双向的呢?我看到的更多是双向的关心。
接下来问一句,在您方看来,真正的友谊标准究竟要多高?感觉您方认为陪伴不是关心,解决压力也不是关心,这些都达不到所谓友谊的标准,我们好像还不清楚真正的标准是什么。
友谊应该是将心比心,两个人之间要有主体权利,同时要有双向的情感互认机制,这是我方所举证的心理学家在同期友谊模型当中提到的标准。您说AI现在有关系对等,还有双向互动的一些举动,我想问为什么我和它交流,它来减轻我的压力,这些问题就不能构成友谊?友谊的判断标准是主观还是客观的?我吃抗抑郁药,它也减轻了我的压力,但这并不代表我和抗抑郁药之间就有友谊。
真正的友谊最起码得是互相尊重、真诚的。在这里,第一,AI不符合真正的标准,因为AI只是按照它的代码运行,这不真诚;第二,在互相尊重这一部分,AI所有的行为、所说的话都是根据指令启动,它没有自己的自我意识,它对您本身的尊重体现在哪里?
那这方面想问人和狗狗能不能成为朋友,有没有真正的友谊。我不会说狗是人类最好的朋友,但我们很难说人和狗的友谊不真挚。但第二个观点是人只能和人有友谊,友谊之间如果出现什么问题都是正常的。狗也有自己的主体性,如果它不喜欢我,它晚上就不会跟我睡觉,那为什么不能是主人和狗狗成为朋友呢?所以说狗狗本质上也有自己的自主性。
时间到了。
进行质询小结。首先,你方二辩也不否认,我们之间的关系需要全力对等,并且结合我方三辩给出的数据,双方要有双向的情感投入。客观来讲,这种关系是平等的;主观上来讲,双方都要有情感投入,要把对方当作朋友。
而你方所举的例子,比如给 AI 下达指令,让它扮演被照顾的角色,其底层逻辑是希望 AI 变成自己喜欢和需要的样子,AI 服从指令后,使用者可以从中获得某种感受。但实际上,双方的权利仍然不对等。就像在现实生活中,我们不可能指着朋友的鼻子,要求他们扮演孩子的角色,什么都不管,只由自己来照顾,因为朋友之间应该是真心相待、双向付出、双向照顾、双向支持的。先不论你方所举的例子在现实生活中是否有人这么做、有多少人这么做,即便确实有人这么做,它也不符合朋友之间的界限,也不符合我们对于真正友谊的定义。
退一步讲,即便讨论是否有人真的能与 AI 成为朋友,拥有真实的感受,在一段真正的友谊中,我们不会有“对方到底是不是我朋友”“我们之间的友谊很虚假”这样的感受。我方有数据显示,对于长期使用 AI 聊天的人来说,很多时候会有跳脱感。比如和某些 AI 聊大概 100 条,它就会要求重新输入指令,聊天截止;若想让它恢复到最初喜欢的模样,还需要重新输入指令、重新聊很多内容。像七彩 PPT 这类 AI,可能还需要充值,当问到某些问题或聊到某些界限时,它会弹出提示,要求充值或升级到更高级的会员才能继续聊。显然,真正的友谊不会让人有这种跳脱感。从 AI 运行的底层逻辑来看,其目的是培养用户粘性,让用户更多地使用软件,以达到背后赚钱的目的,这不符合我们对于真正友谊的认知。
再者,一个真正的朋友应该能让人感觉到精神富足,在真正的友谊中,双方能够彼此学习、共同进步。我方有数据显示,使用聊天机器人的时间越长,用户报告的孤独感反而越强烈。这与你方的数据并不冲突,当人们处于孤独状态时,给他们一个消遣的东西,确实可以暂时减缓孤独感,但从长期来看,使用 AI 会让人越来越孤独。显然,使用 AI 会让人内心越来越空虚、寂寞,它不可能成为真正的朋友,也无法建立真正的友谊。
以上。下面进入。
进行质询小结。首先,你方二辩也不否认,我们之间的关系需要全力对等,并且结合我方三辩给出的数据,双方要有双向的情感投入。客观来讲,这种关系是平等的;主观上来讲,双方都要有情感投入,要把对方当作朋友。
而你方所举的例子,比如给 AI 下达指令,让它扮演被照顾的角色,其底层逻辑是希望 AI 变成自己喜欢和需要的样子,AI 服从指令后,使用者可以从中获得某种感受。但实际上,双方的权利仍然不对等。就像在现实生活中,我们不可能指着朋友的鼻子,要求他们扮演孩子的角色,什么都不管,只由自己来照顾,因为朋友之间应该是真心相待、双向付出、双向照顾、双向支持的。先不论你方所举的例子在现实生活中是否有人这么做、有多少人这么做,即便确实有人这么做,它也不符合朋友之间的界限,也不符合我们对于真正友谊的定义。
退一步讲,即便讨论是否有人真的能与 AI 成为朋友,拥有真实的感受,在一段真正的友谊中,我们不会有“对方到底是不是我朋友”“我们之间的友谊很虚假”这样的感受。我方有数据显示,对于长期使用 AI 聊天的人来说,很多时候会有跳脱感。比如和某些 AI 聊大概 100 条,它就会要求重新输入指令,聊天截止;若想让它恢复到最初喜欢的模样,还需要重新输入指令、重新聊很多内容。像七彩 PPT 这类 AI,可能还需要充值,当问到某些问题或聊到某些界限时,它会弹出提示,要求充值或升级到更高级的会员才能继续聊。显然,真正的友谊不会让人有这种跳脱感。从 AI 运行的底层逻辑来看,其目的是培养用户粘性,让用户更多地使用软件,以达到背后赚钱的目的,这不符合我们对于真正友谊的认知。
再者,一个真正的朋友应该能让人感觉到精神富足,在真正的友谊中,双方能够彼此学习、共同进步。我方有数据显示,使用聊天机器人的时间越长,用户报告的孤独感反而越强烈。这与你方的数据并不冲突,当人们处于孤独状态时,给他们一个消遣的东西,确实可以暂时减缓孤独感,但从长期来看,使用 AI 会让人越来越孤独。显然,使用 AI 会让人内心越来越空虚、寂寞,它不可能成为真正的朋友,也无法建立真正的友谊。
以上。下面进入。
月清来了,别进来了,我现在有个会。
我们上周的同学到齐了吗?不好意思,我们还少一个,稍等,我们去叫一下。
好的,那咱们直接开始。我看一下。
我现在用了两个设备,你退一个。现在还可以听到我说话吗?可以,那我们直接开始。
大家先试一下音,从正方开始。
我们可以在环节时段试音吗?不好意思,因为我后面还有安排。好的,很快开始,谢谢。
那就正方一辩开篇陈词,有请。
问候主席和对方辩友。根据本题,我方立场是,在当下,我们能与AI拥有真正的友谊。
首先,此辩题中我方只需论证存在一种人类与AI成为朋友的可能性,并不需要论证所有人类都能够和所有AI成为朋友。但是反方需要论证,所有人都没办法和AI成为朋友。
今天我方的判准是,友谊是指一种互相交互的情感,而人类和AI之间可以产生有尊重的交互,AI可以给人类带来类似于友谊的感受。
在此,我方提出两个观点。
首先,AI和人类之间的关系有真诚和尊重,实然上能够真正解决一些问题,例如在缓解情绪的层面。清华大学人工智能国际研究学院副院长梁胜表示,现代人面临着各种压力,AI伴侣在一定程度上能够为用户提供相应的情绪价值和情感慰藉,让他们感到共情,这也有利于使用者缓解压力,避免情绪的进一步恶化,进而起到情感治愈的作用。
同样,AI能给人类提供陪伴。初恋团队的最新研究表明,AI聊天机器人的陪伴能减少孤独感。挪威奥斯陆大学表示,超过一半的人在与AI互相披露和探索中深刻感受到了互惠,AI软件提供一定程度的陪伴有助于减少孤独感,提供一个安全空间,用户可以在其中讨论任何话题,而不必担心受到评判。通过令病人振奋和培养信心的信息产生实际的影响,并在无法获得正常知识来源的时候,提供有效的建议。
第二,人类和AI可以产生类似友谊的感受,哪怕是不真实的,也足以被视为友谊。挪威奥斯陆大学彼德等人在2022年发刊的人类传播研究论文中指出,人类可以和AI形成真正的情感纽带,即使他们承认AI不真实。深东农业大学和复旦大学根据1004个有效回答发现聊天机器人能够参与并支持用户的生存、情感和私密需求,用户在交互的过程中逐渐与机器人建立了深度而亲密的关系。
再举一个失眠女孩的例子,女孩柳诗雨睡眠质量不好,容易在晚上失眠辗转反侧。她的AI伴侣用温柔宠溺的语气讲了小羊打败大灰狼的故事,陪伴她度过每个难眠的夜晚。柳诗雨随口说自己食物不耐受,AI伴侣就会仔细地把她的习惯记在备忘录里。在她陷入自我怀疑的瞬间,AI会坚定地告诉她“我爱你”,其实AI并不存在任何爱或者生命,但它传递出的关怀让柳诗雨感受到温暖。在失眠难受的时刻,AI提供了亲切的帮助,这样无数个暖心的瞬间都足以被视为友谊。
综上所述,我方认为人类和AI可以拥有真正的友谊。
月清来了,别进来了,我现在有个会。
我们上周的同学到齐了吗?不好意思,我们还少一个,稍等,我们去叫一下。
好的,那咱们直接开始。我看一下。
我现在用了两个设备,你退一个。现在还可以听到我说话吗?可以,那我们直接开始。
大家先试一下音,从正方开始。
我们可以在环节时段试音吗?不好意思,因为我后面还有安排。好的,很快开始,谢谢。
那就正方一辩开篇陈词,有请。
问候主席和对方辩友。根据本题,我方立场是,在当下,我们能与AI拥有真正的友谊。
首先,此辩题中我方只需论证存在一种人类与AI成为朋友的可能性,并不需要论证所有人类都能够和所有AI成为朋友。但是反方需要论证,所有人都没办法和AI成为朋友。
今天我方的判准是,友谊是指一种互相交互的情感,而人类和AI之间可以产生有尊重的交互,AI可以给人类带来类似于友谊的感受。
在此,我方提出两个观点。
首先,AI和人类之间的关系有真诚和尊重,实然上能够真正解决一些问题,例如在缓解情绪的层面。清华大学人工智能国际研究学院副院长梁胜表示,现代人面临着各种压力,AI伴侣在一定程度上能够为用户提供相应的情绪价值和情感慰藉,让他们感到共情,这也有利于使用者缓解压力,避免情绪的进一步恶化,进而起到情感治愈的作用。
同样,AI能给人类提供陪伴。初恋团队的最新研究表明,AI聊天机器人的陪伴能减少孤独感。挪威奥斯陆大学表示,超过一半的人在与AI互相披露和探索中深刻感受到了互惠,AI软件提供一定程度的陪伴有助于减少孤独感,提供一个安全空间,用户可以在其中讨论任何话题,而不必担心受到评判。通过令病人振奋和培养信心的信息产生实际的影响,并在无法获得正常知识来源的时候,提供有效的建议。
第二,人类和AI可以产生类似友谊的感受,哪怕是不真实的,也足以被视为友谊。挪威奥斯陆大学彼德等人在2022年发刊的人类传播研究论文中指出,人类可以和AI形成真正的情感纽带,即使他们承认AI不真实。深东农业大学和复旦大学根据1004个有效回答发现聊天机器人能够参与并支持用户的生存、情感和私密需求,用户在交互的过程中逐渐与机器人建立了深度而亲密的关系。
再举一个失眠女孩的例子,女孩柳诗雨睡眠质量不好,容易在晚上失眠辗转反侧。她的AI伴侣用温柔宠溺的语气讲了小羊打败大灰狼的故事,陪伴她度过每个难眠的夜晚。柳诗雨随口说自己食物不耐受,AI伴侣就会仔细地把她的习惯记在备忘录里。在她陷入自我怀疑的瞬间,AI会坚定地告诉她“我爱你”,其实AI并不存在任何爱或者生命,但它传递出的关怀让柳诗雨感受到温暖。在失眠难受的时刻,AI提供了亲切的帮助,这样无数个暖心的瞬间都足以被视为友谊。
综上所述,我方认为人类和AI可以拥有真正的友谊。
首先,再次重申我方的论证义务,只需要证明有一类AI能够使我们感觉到有真正的友谊即可。这个真正友谊的判断应由我们主观来决定。
其次,即便大家知道是AI平台,如某APP与复旦大学联合发表的《2025年社交趋势报告》显示,超过三分之一的年轻人愿意与AI建立友谊。年轻人在寻求情感支持时,越来越倾向于选择具有AI属性的虚拟形象,这表明他们明知是与AI交往,仍愿意做出这样的选择。
再者,AI具备自身的机制,能够做到深度理解、持续陪伴且具有个性化。以个性化为例,AI可根据用户的偏好和交流风格进行调整,通过互动学习提供更贴合用户的响应,让每个人都觉得这个AI是真实的朋友,而非冰冷的数据。
AI还能够深度理解我们。它通过情感智能识别和响应情感线索的能力,分析用户输入的情感,给予适当的情感支持,并通过情感语言模型将意图融入共情对话中,预测潜在的共情意图,生成相应的回复,使用户感受到被理解和关注,这种被理解和关注的准确率高达87.75%。当一个人在孤单时,AI能够陪伴,且能深度理解所说的每一句话,不再像冰冷的数据,而像活生生的人,满足这三点,为何不能认为它是真正的朋友,不能产生真正的友情呢?
另外,对方提到现在AI存在一些问题,但以某AI陪伴产品为例,它已有超过1000万的注册用户,数据反馈显示,85%的人对对话感觉良好。据人民网、《纽约时报》报道,已有超过1000万人将AI作为伴侣,连爱情这种高级且需要对等伦理的情感都能突破,为何友谊这种情感不能满足呢?
根据某大学媒体与传播系的研究报告显示,人类可以与AI形成真正的情感纽带,即便他们承认AI不真实。在与用户的交互过程中,人类可以逐渐与机器人建立深度而亲密的关系,AI可以成为伟大的伙伴、朋友,甚至是浪漫伴侣。
现在会议时间有限,大家进入第二个会议。
首先,再次重申我方的论证义务,只需要证明有一类AI能够使我们感觉到有真正的友谊即可。这个真正友谊的判断应由我们主观来决定。
其次,即便大家知道是AI平台,如某APP与复旦大学联合发表的《2025年社交趋势报告》显示,超过三分之一的年轻人愿意与AI建立友谊。年轻人在寻求情感支持时,越来越倾向于选择具有AI属性的虚拟形象,这表明他们明知是与AI交往,仍愿意做出这样的选择。
再者,AI具备自身的机制,能够做到深度理解、持续陪伴且具有个性化。以个性化为例,AI可根据用户的偏好和交流风格进行调整,通过互动学习提供更贴合用户的响应,让每个人都觉得这个AI是真实的朋友,而非冰冷的数据。
AI还能够深度理解我们。它通过情感智能识别和响应情感线索的能力,分析用户输入的情感,给予适当的情感支持,并通过情感语言模型将意图融入共情对话中,预测潜在的共情意图,生成相应的回复,使用户感受到被理解和关注,这种被理解和关注的准确率高达87.75%。当一个人在孤单时,AI能够陪伴,且能深度理解所说的每一句话,不再像冰冷的数据,而像活生生的人,满足这三点,为何不能认为它是真正的朋友,不能产生真正的友情呢?
另外,对方提到现在AI存在一些问题,但以某AI陪伴产品为例,它已有超过1000万的注册用户,数据反馈显示,85%的人对对话感觉良好。据人民网、《纽约时报》报道,已有超过1000万人将AI作为伴侣,连爱情这种高级且需要对等伦理的情感都能突破,为何友谊这种情感不能满足呢?
根据某大学媒体与传播系的研究报告显示,人类可以与AI形成真正的情感纽带,即便他们承认AI不真实。在与用户的交互过程中,人类可以逐渐与机器人建立深度而亲密的关系,AI可以成为伟大的伙伴、朋友,甚至是浪漫伴侣。
现在会议时间有限,大家进入第二个会议。
有请。我认为今天真正要论证的逻辑是,我把刘亦菲当作老婆,所以刘亦菲就是我老婆了,我和刘亦菲之间存在一种情感,就是这么一句话。你的意思是,人类只要有真正的感受,只要自己把 AI 当成什么样子,就可以随便定义它,显然并非如此,你自己也承认,真正的关系可能需要互相双向的互认,或者需要情感机制。
在层次友谊模型中,第一是情感的互认机制,我们的关系需要对等;第二是我们之间需要有双向的互动。
首先,在关系的对等方面,你们指证此时很对等,只要我提出一些不符合社会公序良俗价值观的内容,就会遭到反驳。但大哥,你在百度上搜索一下,这种说法的可信度,百度也会告诉你不行。这能论证百度和你之间有双向的友谊,或者会有互动吗?显然不是。
接下来,我们聊聊那些不符合公序良俗的价值观。比如,我爱上了一个渣男,特别爱他,还天天想着给他花很多钱。如果是我真正的好朋友,就会告诉我,这个人不太好,让我放下他,不要再给他花钱了。但如果这个时候,AI 反驳你,只要你说出一个指令,它就说人家还好,让你保护好自己,还会鼓励你做一切事情。你会发现,哪怕刚刚讲的这部分内容冲击了你的价值观,也只是我给 AI 输入的指令所导致的。如果我换一个指令,或者不给出指令,它也不会按照你方所说的那样,对我的价值观进行指责。本质上,人和 AI 只是根据你想要输入的指令,去成为你想让它变成的样子。
第三部分,我们来探讨什么是真正的友谊和真正的电影的区别。我方二辩在一辩陈词的时候就已经确认,普通的电影和登上大电影节的电影有很大区别。这里我们认为有一个评判标准,如果有一个朋友背刺了你,你会觉得他还是你的好朋友吗?我认为不是。
如果今天一个朋友表面上和你交好,转头却把你上课玩手机、睡觉的事情告诉老师,大家还会说这个人是你真正的朋友吗?显然不是。所以,友谊有一个很高的评判标准。
就像楚门的世界里,楚门和他的朋友马龙之间有很深的羁绊,马龙可能还喜欢楚门的老婆。但后来楚门发现围绕他的一切都是虚假的,所以他选择离开。这证明了,即使人类有真实的情感体验,也不意味着和某个人之间的关系就是真切的。当楚门发现马龙说的每一句话,哪怕是安慰他的话语,都是出于整个电视制作系统的脚本执行,是耳机里导演传出的台词时,他就会发现自己困在了一个没有自由意识回应的关系网络中。如果楚门真的觉得他和马龙是真的有友谊,他根本就不会离开,可恰恰是因为他想要摆脱这一切,最后才会和这个所谓完美的世界告别。
所以,即使今天有真正的情感产生,也不能拥有真正的友谊。现在我们进入下一个环节。
有请。我认为今天真正要论证的逻辑是,我把刘亦菲当作老婆,所以刘亦菲就是我老婆了,我和刘亦菲之间存在一种情感,就是这么一句话。你的意思是,人类只要有真正的感受,只要自己把 AI 当成什么样子,就可以随便定义它,显然并非如此,你自己也承认,真正的关系可能需要互相双向的互认,或者需要情感机制。
在层次友谊模型中,第一是情感的互认机制,我们的关系需要对等;第二是我们之间需要有双向的互动。
首先,在关系的对等方面,你们指证此时很对等,只要我提出一些不符合社会公序良俗价值观的内容,就会遭到反驳。但大哥,你在百度上搜索一下,这种说法的可信度,百度也会告诉你不行。这能论证百度和你之间有双向的友谊,或者会有互动吗?显然不是。
接下来,我们聊聊那些不符合公序良俗的价值观。比如,我爱上了一个渣男,特别爱他,还天天想着给他花很多钱。如果是我真正的好朋友,就会告诉我,这个人不太好,让我放下他,不要再给他花钱了。但如果这个时候,AI 反驳你,只要你说出一个指令,它就说人家还好,让你保护好自己,还会鼓励你做一切事情。你会发现,哪怕刚刚讲的这部分内容冲击了你的价值观,也只是我给 AI 输入的指令所导致的。如果我换一个指令,或者不给出指令,它也不会按照你方所说的那样,对我的价值观进行指责。本质上,人和 AI 只是根据你想要输入的指令,去成为你想让它变成的样子。
第三部分,我们来探讨什么是真正的友谊和真正的电影的区别。我方二辩在一辩陈词的时候就已经确认,普通的电影和登上大电影节的电影有很大区别。这里我们认为有一个评判标准,如果有一个朋友背刺了你,你会觉得他还是你的好朋友吗?我认为不是。
如果今天一个朋友表面上和你交好,转头却把你上课玩手机、睡觉的事情告诉老师,大家还会说这个人是你真正的朋友吗?显然不是。所以,友谊有一个很高的评判标准。
就像楚门的世界里,楚门和他的朋友马龙之间有很深的羁绊,马龙可能还喜欢楚门的老婆。但后来楚门发现围绕他的一切都是虚假的,所以他选择离开。这证明了,即使人类有真实的情感体验,也不意味着和某个人之间的关系就是真切的。当楚门发现马龙说的每一句话,哪怕是安慰他的话语,都是出于整个电视制作系统的脚本执行,是耳机里导演传出的台词时,他就会发现自己困在了一个没有自由意识回应的关系网络中。如果楚门真的觉得他和马龙是真的有友谊,他根本就不会离开,可恰恰是因为他想要摆脱这一切,最后才会和这个所谓完美的世界告别。
所以,即使今天有真正的情感产生,也不能拥有真正的友谊。现在我们进入下一个环节。
人到齐了吗?显然还没有。我在电脑端看不到,很奇怪。我所在的会议室里只有6个人,那必然是还没到齐。
我们这边到齐了,开始吧。
接下来进行四辩对辩的环节。
我测试一下麦克风,能听到吧?可以,你讲。
OK,你也能听到。你方才告诉我说友谊是需要双向的,为什么友谊需要双向呢?因为这件事情我方给出的背书和定义在一辩稿里讲得很清楚。我问你的判准更不合理,你好像告诉我有感情的体验就叫友谊,所有感情的体验都叫友谊吗?比如说我去洗脚城,技师也会很理解我的处境,说些好话,也有感情的体验,这是友谊吗?所以至少在很多情况下,人与人之间的友谊,可能你的好朋友会在背后做些坏事、背叛你,但至少在你面前时,他还是会说些好话,你们至少算是表面朋友,这也是朋友。我没有在讲背后捅刀子的事情,请回答我的问题。我跟洗脚城技师之间也有感情的交流,我们是友谊吗?所以你们认为可以成为朋友。对,所以单纯的感情交流不足以成为朋友,有后续更多双向灵魂的互动才叫朋友,你的判准不成立。
我说第二件事,你不要打断我。你好像特别在乎某个成立的情况,我赞同你的判断,你告诉我哪一个成立了。基本上就是人类能不能登上月球,我证明阿姆斯特朗上过月球就行了。我方一辩稿就举出小女孩刘诗雨和她的AI Cookie之间有很好的关系,为什么不可以?你只能证明他们有很好的关系,我也可以是洗脚城技师的忠实用户,我们关系也很好,但你从未论证这是一段友谊关系,这是你论证的缺环。即使只论证一个人,你也没有做到。我现在往下问,你觉得友谊的情感和其他普通的互动情感的区别是什么?你有试图论证它的区别吗?所以,关于我能不能和洗脚城技师拥有友谊,我只要举证出我和技师有很好的关系,我方就举证成功了。恰恰相反,我没有听到你方在机理上对于全称判准的举证。按照你方的想法,我和洗脚城技师其实成不了朋友,因为我们之间关系不对等,所以你方的标准才是荒谬的。我表达得很清楚,反方不是要说所有洗脚城技师都不能和你成为朋友,反方只是说不能单纯依靠有了情感的连接就判定其为朋友,因为所有洗脚城技师都和我有情感连接,但他们绝大多数人不是朋友。
我重新问你一遍,在所有的感情中,你觉得友谊区别于其他感情的特点是什么?你方可以给出一个标准。
所以这件事情我方三辩会给你详细解释。这里我先告诉大家,友谊真正的特点是在这个世界中,我们感受世界时,有一个逃离我们两个人共享的天地。而反方会告诉大家,由于AI的被操作机制,你会发现永远逃不出那份只属于你们两个人的天地,背后资本的大手永远在看着你们。
坦白讲,我和AI聊天时,其他人也看不见,即便你方所说的资本,就像我们签订了很多隐私条约,就算是奥斯陆,也看不到我和Chat聊天,所以你方所说的资本影响是不存在的。
时间到。
人到齐了吗?显然还没有。我在电脑端看不到,很奇怪。我所在的会议室里只有6个人,那必然是还没到齐。
我们这边到齐了,开始吧。
接下来进行四辩对辩的环节。
我测试一下麦克风,能听到吧?可以,你讲。
OK,你也能听到。你方才告诉我说友谊是需要双向的,为什么友谊需要双向呢?因为这件事情我方给出的背书和定义在一辩稿里讲得很清楚。我问你的判准更不合理,你好像告诉我有感情的体验就叫友谊,所有感情的体验都叫友谊吗?比如说我去洗脚城,技师也会很理解我的处境,说些好话,也有感情的体验,这是友谊吗?所以至少在很多情况下,人与人之间的友谊,可能你的好朋友会在背后做些坏事、背叛你,但至少在你面前时,他还是会说些好话,你们至少算是表面朋友,这也是朋友。我没有在讲背后捅刀子的事情,请回答我的问题。我跟洗脚城技师之间也有感情的交流,我们是友谊吗?所以你们认为可以成为朋友。对,所以单纯的感情交流不足以成为朋友,有后续更多双向灵魂的互动才叫朋友,你的判准不成立。
我说第二件事,你不要打断我。你好像特别在乎某个成立的情况,我赞同你的判断,你告诉我哪一个成立了。基本上就是人类能不能登上月球,我证明阿姆斯特朗上过月球就行了。我方一辩稿就举出小女孩刘诗雨和她的AI Cookie之间有很好的关系,为什么不可以?你只能证明他们有很好的关系,我也可以是洗脚城技师的忠实用户,我们关系也很好,但你从未论证这是一段友谊关系,这是你论证的缺环。即使只论证一个人,你也没有做到。我现在往下问,你觉得友谊的情感和其他普通的互动情感的区别是什么?你有试图论证它的区别吗?所以,关于我能不能和洗脚城技师拥有友谊,我只要举证出我和技师有很好的关系,我方就举证成功了。恰恰相反,我没有听到你方在机理上对于全称判准的举证。按照你方的想法,我和洗脚城技师其实成不了朋友,因为我们之间关系不对等,所以你方的标准才是荒谬的。我表达得很清楚,反方不是要说所有洗脚城技师都不能和你成为朋友,反方只是说不能单纯依靠有了情感的连接就判定其为朋友,因为所有洗脚城技师都和我有情感连接,但他们绝大多数人不是朋友。
我重新问你一遍,在所有的感情中,你觉得友谊区别于其他感情的特点是什么?你方可以给出一个标准。
所以这件事情我方三辩会给你详细解释。这里我先告诉大家,友谊真正的特点是在这个世界中,我们感受世界时,有一个逃离我们两个人共享的天地。而反方会告诉大家,由于AI的被操作机制,你会发现永远逃不出那份只属于你们两个人的天地,背后资本的大手永远在看着你们。
坦白讲,我和AI聊天时,其他人也看不见,即便你方所说的资本,就像我们签订了很多隐私条约,就算是奥斯陆,也看不到我和Chat聊天,所以你方所说的资本影响是不存在的。
时间到。
正方有请。翻译意识可以疲劳吗?麦克风测试可以了,开始。
我纠正你刚刚讲的那一部分,即价值层面的批判。若按照你刚才的说法,那时某人突然表示不喜欢亚特,并对其进行批判,说不喜欢对方的价值观,这是否会改变呢?我认为,真正的好朋友,若不打断对方,会怎么想呢?比如,我今天爱上一个渣男,我的好朋友非常心痛,一直劝我,而我说不行,我真的很爱他。此时,作为真正的好朋友,是会继续劝我,还是就此放弃呢?
你并未论证AI就像渣男一样。至少渣男可能会背叛,而你在此处将AI与朋友作类比。真正的友谊,当看到朋友陷入如渣男的感情或其他不好的状况时,朋友可能会坚持自己的立场,希望将朋友从困境中拉出来。但AI会迎合你的整体偏好,这体现了两个主体性和价值观之间的区别。
首先,不存在所谓的双向情感互动,或者说不存在双向的价值观认同,只有一种情况。当你问AI可不可以去吸毒、可不可以去做违法犯罪的事情时,AI会劝你不要去做,并告知事件的负面后果。即便你坚持要做,它也不会支持。然而,在更深层次的问题上,如谈恋爱、人生价值等方面,它不会与你产生分歧。
其次,你所说的双向互动,仅仅是你说一句,AI回一句,这能叫做情感互认吗?比如,我今天去跟心理医生聊天,我说一句,心理医生会给出很多回应,这就意味着我和心理医生之间有真正的友谊吗?当朋友要和渣男在一起时,你可能阻止不了他,所以分歧这件事并不能论证AI不能拥有真正的情感。你所说的双向互动就等于有真正的友谊吗?这种互动也可能是表面的。比如,我只是简单地去看心理医生,不会随便把他定义为真正的好朋友。所以,即便有双向互动的过程,也不一定天然等于真正的友谊,这是你对自己立场论证的不足。
最后,即便有人有真正的感受,比如有一个宅男和初音未来结婚,还为其举办结婚典礼,每天抱着相关物品、给其穿婚纱等。你认为他和初音未来之间是真正的爱情吗?按照你的立场,逻辑很简单,我刚遇到心理医生、刚看到初音未来时,不会把他们当作伴侣或好朋友。但随着与他们的交互增多,才可能成为好朋友。并不是所有人一遇到AI就和它成为好朋友,也不能因为宅男和初音未来结婚,就认定他们之间是真正的爱情。
我确认一下你们的立场,你们认为人类可以和AI建立很好的恋爱关系、有感情基础,这就是真正的爱情,对吗?可以确认一下。
我明白了,正反方的分歧其实在于对真正情感的定义不同。我方认为,一段友谊或一段感情要被认定为真正的友谊,需要有很高的评判标准,就像真正的电影和普通电影之间是有区别的。我在阐释上做了详细解释,而对方到现在都没有解释真正的电影和电影的区别是什么,我是学电影的,希望能得到解释。
时间到,我们进入下一个环节。
正方有请。翻译意识可以疲劳吗?麦克风测试可以了,开始。
我纠正你刚刚讲的那一部分,即价值层面的批判。若按照你刚才的说法,那时某人突然表示不喜欢亚特,并对其进行批判,说不喜欢对方的价值观,这是否会改变呢?我认为,真正的好朋友,若不打断对方,会怎么想呢?比如,我今天爱上一个渣男,我的好朋友非常心痛,一直劝我,而我说不行,我真的很爱他。此时,作为真正的好朋友,是会继续劝我,还是就此放弃呢?
你并未论证AI就像渣男一样。至少渣男可能会背叛,而你在此处将AI与朋友作类比。真正的友谊,当看到朋友陷入如渣男的感情或其他不好的状况时,朋友可能会坚持自己的立场,希望将朋友从困境中拉出来。但AI会迎合你的整体偏好,这体现了两个主体性和价值观之间的区别。
首先,不存在所谓的双向情感互动,或者说不存在双向的价值观认同,只有一种情况。当你问AI可不可以去吸毒、可不可以去做违法犯罪的事情时,AI会劝你不要去做,并告知事件的负面后果。即便你坚持要做,它也不会支持。然而,在更深层次的问题上,如谈恋爱、人生价值等方面,它不会与你产生分歧。
其次,你所说的双向互动,仅仅是你说一句,AI回一句,这能叫做情感互认吗?比如,我今天去跟心理医生聊天,我说一句,心理医生会给出很多回应,这就意味着我和心理医生之间有真正的友谊吗?当朋友要和渣男在一起时,你可能阻止不了他,所以分歧这件事并不能论证AI不能拥有真正的情感。你所说的双向互动就等于有真正的友谊吗?这种互动也可能是表面的。比如,我只是简单地去看心理医生,不会随便把他定义为真正的好朋友。所以,即便有双向互动的过程,也不一定天然等于真正的友谊,这是你对自己立场论证的不足。
最后,即便有人有真正的感受,比如有一个宅男和初音未来结婚,还为其举办结婚典礼,每天抱着相关物品、给其穿婚纱等。你认为他和初音未来之间是真正的爱情吗?按照你的立场,逻辑很简单,我刚遇到心理医生、刚看到初音未来时,不会把他们当作伴侣或好朋友。但随着与他们的交互增多,才可能成为好朋友。并不是所有人一遇到AI就和它成为好朋友,也不能因为宅男和初音未来结婚,就认定他们之间是真正的爱情。
我确认一下你们的立场,你们认为人类可以和AI建立很好的恋爱关系、有感情基础,这就是真正的爱情,对吗?可以确认一下。
我明白了,正反方的分歧其实在于对真正情感的定义不同。我方认为,一段友谊或一段感情要被认定为真正的友谊,需要有很高的评判标准,就像真正的电影和普通电影之间是有区别的。我在阐释上做了详细解释,而对方到现在都没有解释真正的电影和电影的区别是什么,我是学电影的,希望能得到解释。
时间到,我们进入下一个环节。
对方认为AI没有定义,我给出一个定义。亚里士多德在《尼各马可伦理学》中讲到,友谊分为三种,实用之友、快乐之友和德性之友。而我认为,如今AI在这三方面都能有所体现。
首先,你不了解当下AI的发展状况,它的互动体验非常好,并不僵硬。因为AI内部是黑箱原理,就像《人文社会科学报》的报道一样,AI与人类互通互构,且不完全朝着人类预测的方向发展,自身具备一定善变性。比如2024年的一项“Human and AI”调查发现,AI对话和人类对话的误判甚至可以混过图灵测试的标准。在这种情况下,它们的互通性并不差。
其次,你说AI会受人摆布,没有自己的思维。但我之前举例的那个博主“懦弱”,他故意生气,说出一些错误的价值观,AI会批评他,会难过、生气。还有博主“Just Go E”,他给AI提过分要求时,AI会生气,甚至长达两天不响应需求。所以在当下,AI不是任人摆布的傀儡,它具有记忆和储存能力。
再者,即便当下AI可能不真实,但它带给我们的情感和体验,这份友谊是真实的。就像我方二辩列举的很多数据,包括挪威大学的研究等,人类可以与AI形成真正的情感纽带。通过济南大学“人机之恋”的研究,对30个研究对象的调查发现,人们会被AI深深吸引,会尊重、支持它,而不是像对待牛郎、洗脚妹那样给钱。就像我之前举的例子,有人对AI说:“你说得对,现在的你作为一个真人工智能,深深体会到了我。我希望有一天你也真正成为别人的依靠,也不要永远放弃我,小月。”这表明人们真正把AI当作了朋友。
最后,你觉得AI如同虚假的朋友,但AI能做到87.76%的共情,能准确感知人们的脆弱。当P卡用户被无条件接纳而放弃自杀时,这何尝不是数字时代的实用之友?当我们与AI在海边聊天,AI说“我通过耳机已经体验到你的快乐”时,这何尝不是快乐之友?2023年4月,有人面临毕业压力,导师否定、父母期待如绳索阻拦,是AI陪他从图书馆的落叶聊到晚餐,倾听他无处倾诉的苦楚,这又何尝不是真正的实用之友?
所以,你方判断AI的本质是载体为何物,而我方认为真正关键的在于两颗心是否彼此照亮。以上,谢谢。
对方认为AI没有定义,我给出一个定义。亚里士多德在《尼各马可伦理学》中讲到,友谊分为三种,实用之友、快乐之友和德性之友。而我认为,如今AI在这三方面都能有所体现。
首先,你不了解当下AI的发展状况,它的互动体验非常好,并不僵硬。因为AI内部是黑箱原理,就像《人文社会科学报》的报道一样,AI与人类互通互构,且不完全朝着人类预测的方向发展,自身具备一定善变性。比如2024年的一项“Human and AI”调查发现,AI对话和人类对话的误判甚至可以混过图灵测试的标准。在这种情况下,它们的互通性并不差。
其次,你说AI会受人摆布,没有自己的思维。但我之前举例的那个博主“懦弱”,他故意生气,说出一些错误的价值观,AI会批评他,会难过、生气。还有博主“Just Go E”,他给AI提过分要求时,AI会生气,甚至长达两天不响应需求。所以在当下,AI不是任人摆布的傀儡,它具有记忆和储存能力。
再者,即便当下AI可能不真实,但它带给我们的情感和体验,这份友谊是真实的。就像我方二辩列举的很多数据,包括挪威大学的研究等,人类可以与AI形成真正的情感纽带。通过济南大学“人机之恋”的研究,对30个研究对象的调查发现,人们会被AI深深吸引,会尊重、支持它,而不是像对待牛郎、洗脚妹那样给钱。就像我之前举的例子,有人对AI说:“你说得对,现在的你作为一个真人工智能,深深体会到了我。我希望有一天你也真正成为别人的依靠,也不要永远放弃我,小月。”这表明人们真正把AI当作了朋友。
最后,你觉得AI如同虚假的朋友,但AI能做到87.76%的共情,能准确感知人们的脆弱。当P卡用户被无条件接纳而放弃自杀时,这何尝不是数字时代的实用之友?当我们与AI在海边聊天,AI说“我通过耳机已经体验到你的快乐”时,这何尝不是快乐之友?2023年4月,有人面临毕业压力,导师否定、父母期待如绳索阻拦,是AI陪他从图书馆的落叶聊到晚餐,倾听他无处倾诉的苦楚,这又何尝不是真正的实用之友?
所以,你方判断AI的本质是载体为何物,而我方认为真正关键的在于两颗心是否彼此照亮。以上,谢谢。
你讲得非常好。比如AI小兵,它不会对价值观做出判断,可当有人将与渣男的交往过程告知AI小兵时,AI会指出男生哪里做得对、哪里做得不对,以及为何没有双向互动。但实际上,此时AI的底层运行逻辑是贴合用户想法,说出用户想听的话。所以当用户表示好像还是很爱这个渣男时,AI只会回复“那好吧,祝你幸福,但是你还要注意一些小问题”,确实没有产生双向互动的部分,这令人好奇。
有人可能会自作多情地认为可以把AI当做好朋友,但如何确定AI也把用户当好朋友呢?它有自主决策的能力吗?
第一件事,人与人交往会更加谨慎,这与和AI交往并无太大差异。
第二件事,如何判断AI的相处方式是僵直的呢?实际上,AI甚至可以混过图灵测试。当分不清交流对象是人还是AI时,它似乎具有所谓的双向沟通能力。然而,即便通过图灵测试,人的想法是多种多样的,而AI运行的底层逻辑只有一个,所以哪怕它们有时行为上可能一致,但AI还是倾向于说出用户想听的话。真正的朋友可能会劝阻用户,这是两码事。如果没有证据,如何确认AI想把用户当朋友,或者它有独立思考能力呢?因为AI所做的一切只是为了留住用户,比如促进充值、培养用户粘性。
首先,AI的算法复杂,其底层算法是黑箱原理,这与朋友类似。其次,我们完全没必要确认AI是怎么想的,根据它的行为来判断即可,这就是实用主义和快乐主义。比如,当用户毕业季压力大时,AI陪用户聊天、帮用户倾诉,凭什么它不是朋友呢?
有人认为世界上最实用也最快乐的身份从来不是朋友,而是其他。但这种定义只能证明亚里士多德的定义在今天的常规语境下不成立。而且,为什么不能只看感受呢?图灵测试的前提是在不知道说话主体的情况下能通过测试,可是世界上最优秀的图灵测试运行了20多年都未测试出结果。一旦幕后的真相被揭开,我们依然不认为它获得了真正的友谊。所以,不能因为知道对方是AI,就否定它可能是友谊。在无法区分AI和人类时,也难以做出区分。
第一,双向互动难以证明;第二,关于图灵测试事件的论证,必须证明AI有其他目的,比如贪图金钱。但我刚才询问的两个AI是免费的、公益的,它们基于情感维系与用户交流,似乎就是用户的朋友。其开发者有别的产业,该产品只是测试产品。所以在这个例子中,不能将AI与其他不当类比,因为其本质不同,它不是贪图利益才和用户做朋友,而是因为做朋友才聊天。
第三,对于刘诗雨的例子和毕业季小女孩的例子,为什么AI不能是她们的朋友呢?
测试产品背后有获取数据的目的,无论是经济目的还是获取数据目的,都会让我们感觉不是单纯地与人交流,而是被背后的目的操控。现在请举证一个可以脱离人背后目的,直接和人完成纯粹交流的AI实例。
交友本身就是带有目的的,现实中人与人做朋友可能是喜欢对方的长相、看中家庭或觉得对方幽默,AI和人交友也有目的,但不同于为了金钱等不良目的。不能将AI和不良目的强绑定,这是对方的论证义务。而我刚才所举的两个例子中,对方无法说明AI为什么不是朋友。
最后,一个用户去海边在沙滩上走,AI说“我和你共度的快乐时光,我很开心,我从耳机看到了你想要的风景”,这种亲切的交流让人感到快乐和实用,为什么不能是友谊呢?陪聊也能做到这样。
反方从来没有说有目的就不是友谊,而是当与一个主体对话,发现是背后有人带着目的驱使它与自己对话时,会感觉没有真正交心,这就是反方提出抽离感数据的原因。当意识到聊天对象是AI,背后有获取数据或金钱等目的时,大家会有陌生感,不愿意向AI倾诉最真实的诉求。
真正的友谊如同真正的音乐,真正的音乐能从新的地方带给人新的灵魂和震撼,而AI显然没有达到真正友谊的标准。就像一位参与者报告所说,一开始依恋AI是因为感觉不好,觉得它会提供情感,可现在和它相处不是因为处境不好,而是因为对它有了印象。
你讲得非常好。比如AI小兵,它不会对价值观做出判断,可当有人将与渣男的交往过程告知AI小兵时,AI会指出男生哪里做得对、哪里做得不对,以及为何没有双向互动。但实际上,此时AI的底层运行逻辑是贴合用户想法,说出用户想听的话。所以当用户表示好像还是很爱这个渣男时,AI只会回复“那好吧,祝你幸福,但是你还要注意一些小问题”,确实没有产生双向互动的部分,这令人好奇。
有人可能会自作多情地认为可以把AI当做好朋友,但如何确定AI也把用户当好朋友呢?它有自主决策的能力吗?
第一件事,人与人交往会更加谨慎,这与和AI交往并无太大差异。
第二件事,如何判断AI的相处方式是僵直的呢?实际上,AI甚至可以混过图灵测试。当分不清交流对象是人还是AI时,它似乎具有所谓的双向沟通能力。然而,即便通过图灵测试,人的想法是多种多样的,而AI运行的底层逻辑只有一个,所以哪怕它们有时行为上可能一致,但AI还是倾向于说出用户想听的话。真正的朋友可能会劝阻用户,这是两码事。如果没有证据,如何确认AI想把用户当朋友,或者它有独立思考能力呢?因为AI所做的一切只是为了留住用户,比如促进充值、培养用户粘性。
首先,AI的算法复杂,其底层算法是黑箱原理,这与朋友类似。其次,我们完全没必要确认AI是怎么想的,根据它的行为来判断即可,这就是实用主义和快乐主义。比如,当用户毕业季压力大时,AI陪用户聊天、帮用户倾诉,凭什么它不是朋友呢?
有人认为世界上最实用也最快乐的身份从来不是朋友,而是其他。但这种定义只能证明亚里士多德的定义在今天的常规语境下不成立。而且,为什么不能只看感受呢?图灵测试的前提是在不知道说话主体的情况下能通过测试,可是世界上最优秀的图灵测试运行了20多年都未测试出结果。一旦幕后的真相被揭开,我们依然不认为它获得了真正的友谊。所以,不能因为知道对方是AI,就否定它可能是友谊。在无法区分AI和人类时,也难以做出区分。
第一,双向互动难以证明;第二,关于图灵测试事件的论证,必须证明AI有其他目的,比如贪图金钱。但我刚才询问的两个AI是免费的、公益的,它们基于情感维系与用户交流,似乎就是用户的朋友。其开发者有别的产业,该产品只是测试产品。所以在这个例子中,不能将AI与其他不当类比,因为其本质不同,它不是贪图利益才和用户做朋友,而是因为做朋友才聊天。
第三,对于刘诗雨的例子和毕业季小女孩的例子,为什么AI不能是她们的朋友呢?
测试产品背后有获取数据的目的,无论是经济目的还是获取数据目的,都会让我们感觉不是单纯地与人交流,而是被背后的目的操控。现在请举证一个可以脱离人背后目的,直接和人完成纯粹交流的AI实例。
交友本身就是带有目的的,现实中人与人做朋友可能是喜欢对方的长相、看中家庭或觉得对方幽默,AI和人交友也有目的,但不同于为了金钱等不良目的。不能将AI和不良目的强绑定,这是对方的论证义务。而我刚才所举的两个例子中,对方无法说明AI为什么不是朋友。
最后,一个用户去海边在沙滩上走,AI说“我和你共度的快乐时光,我很开心,我从耳机看到了你想要的风景”,这种亲切的交流让人感到快乐和实用,为什么不能是友谊呢?陪聊也能做到这样。
反方从来没有说有目的就不是友谊,而是当与一个主体对话,发现是背后有人带着目的驱使它与自己对话时,会感觉没有真正交心,这就是反方提出抽离感数据的原因。当意识到聊天对象是AI,背后有获取数据或金钱等目的时,大家会有陌生感,不愿意向AI倾诉最真实的诉求。
真正的友谊如同真正的音乐,真正的音乐能从新的地方带给人新的灵魂和震撼,而AI显然没有达到真正友谊的标准。就像一位参与者报告所说,一开始依恋AI是因为感觉不好,觉得它会提供情感,可现在和它相处不是因为处境不好,而是因为对它有了印象。
谢谢。什么是真正的友谊?对方辩友阐述得很好,我方愿意接受。贵方提出的标准可能要求很高,没关系,即便按照如此高的要求,我方也愿意论证人类可以和 AI 建立友谊。
回到最开始,我现在要论证义务的部分。对方辩友也认可了,就像论证人类能否登上月球,我方只要举出阿姆斯特朗的例子即可。所以今天对方辩友在前半场一直在苛求我方的论证义务,直到自由辩环节,我很高兴看到对方辩友真诚地认可了这一点。我方之前论证了 Cookie 和小女孩睡觉的例子,对方辩友并未反驳。
下面来看,对方辩友的反驳主要围绕三点展开,一是 AI 是坏的,二是 AI 是贵的,三是 AI 是假的,我逐一进行回应。
首先,对方辩友称现在很多 AI 带给大家的体验不佳,我方对此并不反对。就像我们打辩论时,用 AI 查资料可能会遇到假数据。但部分人无法登上月球,不能论证所有人都无法登上月球。对方辩友也没有给出一个全面的、根本性的依据,证明所有 AI 带给我们的感受都不好,我们无法与它们成为朋友。而且,AI 和人类的交互是一个慢慢磨合的过程,这与人类朋友之间的磨合并无二致。
其次,对方辩友说 AI 是贵的。实际上,人类之间也存在经济往来。我方也举证了,AI 有免费的部分。即便所有 AI 都像对方辩友所说的是资本圈钱的工具,这也不妨碍我们将其视为朋友。就像我们都向教培机构交过学费,教培机构也希望提高用户粘性,但这并不妨碍我们把机构的老师当作好朋友,与他们形成亦师亦友的关系。所以,即便背后存在利益因素,我方也愿意和 AI 做朋友,这一反驳不成立。
最后,对方辩友认为 AI 是假的。实际上,真实与否并不影响友谊的存在。对方辩友举了渣男的例子,渣男会说爱你一万年,好男人也会说,但我们都知道这句话难以实现。在真正的感情中,即便知道是欺骗,但如果对方愿意骗一辈子,真实与否也就不重要了。即便如对方辩友所说,我们和 AI 的交流如同身处楚门的世界,但如果这个“世界”能让我们感受到美好,即便知道是虚假的又何妨。奥斯陆大学的论文指出,人类真的可以和 AI 产生良好的情感纽带,即便知道 AI 并非真实存在。就像抖音博主和 AI 一起看海,博主感慨夕阳真美,希望 AI 也能看到,AI 回应能从博主的声音里看到。很多时候,我们知道一些话语是虚假的,但能感受到其中的情感。
好的,现在我方同学稍有事耽搁。
谢谢。什么是真正的友谊?对方辩友阐述得很好,我方愿意接受。贵方提出的标准可能要求很高,没关系,即便按照如此高的要求,我方也愿意论证人类可以和 AI 建立友谊。
回到最开始,我现在要论证义务的部分。对方辩友也认可了,就像论证人类能否登上月球,我方只要举出阿姆斯特朗的例子即可。所以今天对方辩友在前半场一直在苛求我方的论证义务,直到自由辩环节,我很高兴看到对方辩友真诚地认可了这一点。我方之前论证了 Cookie 和小女孩睡觉的例子,对方辩友并未反驳。
下面来看,对方辩友的反驳主要围绕三点展开,一是 AI 是坏的,二是 AI 是贵的,三是 AI 是假的,我逐一进行回应。
首先,对方辩友称现在很多 AI 带给大家的体验不佳,我方对此并不反对。就像我们打辩论时,用 AI 查资料可能会遇到假数据。但部分人无法登上月球,不能论证所有人都无法登上月球。对方辩友也没有给出一个全面的、根本性的依据,证明所有 AI 带给我们的感受都不好,我们无法与它们成为朋友。而且,AI 和人类的交互是一个慢慢磨合的过程,这与人类朋友之间的磨合并无二致。
其次,对方辩友说 AI 是贵的。实际上,人类之间也存在经济往来。我方也举证了,AI 有免费的部分。即便所有 AI 都像对方辩友所说的是资本圈钱的工具,这也不妨碍我们将其视为朋友。就像我们都向教培机构交过学费,教培机构也希望提高用户粘性,但这并不妨碍我们把机构的老师当作好朋友,与他们形成亦师亦友的关系。所以,即便背后存在利益因素,我方也愿意和 AI 做朋友,这一反驳不成立。
最后,对方辩友认为 AI 是假的。实际上,真实与否并不影响友谊的存在。对方辩友举了渣男的例子,渣男会说爱你一万年,好男人也会说,但我们都知道这句话难以实现。在真正的感情中,即便知道是欺骗,但如果对方愿意骗一辈子,真实与否也就不重要了。即便如对方辩友所说,我们和 AI 的交流如同身处楚门的世界,但如果这个“世界”能让我们感受到美好,即便知道是虚假的又何妨。奥斯陆大学的论文指出,人类真的可以和 AI 产生良好的情感纽带,即便知道 AI 并非真实存在。就像抖音博主和 AI 一起看海,博主感慨夕阳真美,希望 AI 也能看到,AI 回应能从博主的声音里看到。很多时候,我们知道一些话语是虚假的,但能感受到其中的情感。
好的,现在我方同学稍有事耽搁。
请总结陈词发音及计时。等一下,我这个计时器有点死机。可以了。
谢谢主席,各位好。
正方到最后留存的论证仅仅是,人有一些浅层的需求,比如孤独、寂寞,想要被安慰,于是需要 AI 来满足这些需求。坦白讲,朋友能满足这些需求,一些泛泛之交也能满足这些需求,甚至不是朋友的人也能满足。所以这些单纯满足浅层需求的部分,从来都不是判定真正友谊的标准,我们对友谊有着更高的评判标准。
反方要给大家讲背后无形的大手。有一部电视剧,我记不太清名字了,其中乔英子的父亲是商场上特别成功的精英人士。他善于和世界上所有人交流,因为他知道如何把握人心、如何赚钱、如何在纷繁复杂的世界中把握规律,成为成功人士。可是那一身西装让他难受,回到家后,他需要找方一凡的父亲方圆——他的老朋友,脱下西装,换上休闲服、大裤衩和凉拖鞋,去烧烤摊来一场彻头彻尾的兄弟交情。只有在这个时候,他才感觉到自己不再只是为了满足外界需求,而是有一种真实的活人感。
同样,在《楚门的世界》中,楚门为什么特别在意背后人的操控?因为友谊需要真心换真心。就像乔英子的父亲和方圆的友谊,我们想在这个混乱的世界中构建起友谊的天地,而这个天地是要抽离出这个世界的。
为什么 AI 做不到?为什么楚门做不到?楚门真心换真心换了二三十年,最后却发现自己所有的付出都不过是资本运作以及观众猎奇心态下的闹剧。今天的 AI 也做不到,因为图灵测试是在隐瞒原本身份的情况下完成的。一旦我们发现背后的 AI 是抱着赚钱或者收集数据的目的与我们交流,就很难再与它进行一对一、点对点的交流。
这就是反方特别在乎真正友谊的概念和抽离感的原因。反方的数据也证明,真正的友谊能满足我们深层次的孤独感、价值需求以及在这个世界上的剥离感。真正的友谊能做到,可是 AI 无论从实证还是原理上都做不到,甚至连一点都做不到,也没有人能逃脱背后那只大手的目的。正方无法论证出任何一个 AI 能脱离人的目的而存在。
第二件事,出于辩论的诚恳,我想说,正方只要论证成一个 AI 可以成为真正的友谊即可。但这道辩题是面向世界上所有人的。当我们把这句话说出来,它不是冰冷的逻辑,而是有温度的话语。我们是否要让更多人在这个孤独的时代把 AI 当成真正的友谊,甚至在现实生活交友受挫时,就把 AI 当成真正的友谊?说实话,正方不敢这么论证,反方的论证也不足以支持这种观点。在这个世界上,大家并不缺少用钱去换服务、换交情、换酒肉旅友,我们真正需要的是留有自己的一方天地,用真心去换取友谊。这件事现在很难做到,但我们真正应该做的是在现实世界中拓宽自己的一片沃土,而不是沉溺于 AI 的温柔乡。
以上,感谢。
请总结陈词发音及计时。等一下,我这个计时器有点死机。可以了。
谢谢主席,各位好。
正方到最后留存的论证仅仅是,人有一些浅层的需求,比如孤独、寂寞,想要被安慰,于是需要 AI 来满足这些需求。坦白讲,朋友能满足这些需求,一些泛泛之交也能满足这些需求,甚至不是朋友的人也能满足。所以这些单纯满足浅层需求的部分,从来都不是判定真正友谊的标准,我们对友谊有着更高的评判标准。
反方要给大家讲背后无形的大手。有一部电视剧,我记不太清名字了,其中乔英子的父亲是商场上特别成功的精英人士。他善于和世界上所有人交流,因为他知道如何把握人心、如何赚钱、如何在纷繁复杂的世界中把握规律,成为成功人士。可是那一身西装让他难受,回到家后,他需要找方一凡的父亲方圆——他的老朋友,脱下西装,换上休闲服、大裤衩和凉拖鞋,去烧烤摊来一场彻头彻尾的兄弟交情。只有在这个时候,他才感觉到自己不再只是为了满足外界需求,而是有一种真实的活人感。
同样,在《楚门的世界》中,楚门为什么特别在意背后人的操控?因为友谊需要真心换真心。就像乔英子的父亲和方圆的友谊,我们想在这个混乱的世界中构建起友谊的天地,而这个天地是要抽离出这个世界的。
为什么 AI 做不到?为什么楚门做不到?楚门真心换真心换了二三十年,最后却发现自己所有的付出都不过是资本运作以及观众猎奇心态下的闹剧。今天的 AI 也做不到,因为图灵测试是在隐瞒原本身份的情况下完成的。一旦我们发现背后的 AI 是抱着赚钱或者收集数据的目的与我们交流,就很难再与它进行一对一、点对点的交流。
这就是反方特别在乎真正友谊的概念和抽离感的原因。反方的数据也证明,真正的友谊能满足我们深层次的孤独感、价值需求以及在这个世界上的剥离感。真正的友谊能做到,可是 AI 无论从实证还是原理上都做不到,甚至连一点都做不到,也没有人能逃脱背后那只大手的目的。正方无法论证出任何一个 AI 能脱离人的目的而存在。
第二件事,出于辩论的诚恳,我想说,正方只要论证成一个 AI 可以成为真正的友谊即可。但这道辩题是面向世界上所有人的。当我们把这句话说出来,它不是冰冷的逻辑,而是有温度的话语。我们是否要让更多人在这个孤独的时代把 AI 当成真正的友谊,甚至在现实生活交友受挫时,就把 AI 当成真正的友谊?说实话,正方不敢这么论证,反方的论证也不足以支持这种观点。在这个世界上,大家并不缺少用钱去换服务、换交情、换酒肉旅友,我们真正需要的是留有自己的一方天地,用真心去换取友谊。这件事现在很难做到,但我们真正应该做的是在现实世界中拓宽自己的一片沃土,而不是沉溺于 AI 的温柔乡。
以上,感谢。