来看这个。开始。好的。请正方稍微准备一下,稍作等候。海滨,生命。好的。OK?首先,正方一辩进行开篇立论。哈喽。我知道每个环节的安排,不是。现在请大家每人试一句话,试一下音,确认麦克风是否有声音。环节开始前确认即可,OK?我们三个人发言时请关掉麦。正方一辩,开篇立论。谢谢主席,各位好。AI发展日新月异,关于其潜在风险的讨论也日渐增多。题目中“威胁人类”指人类整体遭受严重损害,发展长期停滞甚至倒退。若伤害程度较低,或者有明确有效的手段解决,则不能称为威胁。比如流感和天花对现在的我们都不再是威胁。要判断AI带给人类的威胁是被高估还是低估,就要从现状出发,看技术发展是否造成了严重危机,公众对于技术风险的感知是否偏离了客观现实。论证如下:
首先从大众认知层面,社交媒体对AI威胁的报道系统性夸大了风险,导致公众判断偏离现实。当前普通人大多不了解AI技术的真实边界,获取信息的主要渠道是社交媒体的碎片化报道,而媒体出于流量逻辑,倾向于放大AI清洗人类等戏剧化负面内容。罗格斯大学团队分析了近7万条AI相关新闻头条,发现AI新闻报道中持续存在情感负面的恐吓性语言,将AI描绘为对人类构成危险,甚至对人类生存的威胁。这种系统性使用恐吓语言的方式,深刻影响了公众对AI的负面认知。当一个不太了解的事物被灾难化叙事扭曲放大,公众看AI如同盲人摸象,自然会高估其威胁程度。当一篇又一篇AI清洗人类的叙事占据头条,公众对风险的认知和焦虑被推向了不合理的高度。皮尤研究中心对5410名美国成年人和1013名AI专家的调查发现,76%的专家认为AI会给自己带来好处,仅24%的公众持此观点;43%的公众担心AI会给自己带来伤害,仅12%的专家有此担忧。宾夕法尼亚大学对637名受过高等教育的受访者分组研究,也显示公众对AI导致人类灭绝的风险感知显著高于AI专家组,且公众组的风险感知分布范围最广,表明公众对AI风险的担忧程度远高于其他专业群体。
其次,从技术发展层面,当下AI的真实能力远未达到能构成系统性威胁的水平。根据风险分类研究,学界普遍认为真正对人类构成生存威胁的AI需要具备自主意识、跨领域通用能力、推理与独立目标设定能力,即所谓的强人工智能。然而,即使是当前最先进的多模态模型,本质上仍是基于系统统计学习的模式匹配工具,没有真正的理解力、意图和长期规划。斯坦福大学研究发现,人工智能依靠统计相关性而非逻辑因果生成输出,本质上无法对正确性提供任何保证,其现阶段能力仍处于较低水平,并且其能力的提升面临着根本性无法解决的障碍。再比如,AI幻觉是大型语言模型在生成内容时会编造出一些看似合理、逻辑自洽,但实际上与事实不符或毫无根据的信息。中国科学院联合科大讯飞等团队,从计算理论层面证明了AI大模型的幻觉在特定计算边界上的不可避免性。这不是技术发展可以逐步消除的暂时缺陷,而是由其内在数学结构所决定的根本局限,机制上无法避免的缺陷,同样反映在实际使用中。如今的AI连区分“我相信什么”与“事实是什么”都困难,遑论构成公众所认知的意图消灭人类的威胁。
综上,我方坚定认为,AI威胁人类的可能性被高估了。
反方四辩质询正方一辩。可以。我方认为要比较当前公众对AI的认知和专家给出的客观评估或事实。我方认为这两点都存在,当时可能存在低估的情况。当时人们发现相关问题,我方查到很多资料,比如欧盟人工智能法,我国也有很多相关法律,美国同样有相关立法。但在我方看来,我方查到非常多的人工智能法案法则,都说明当下已有措施应对AI构成的部分风险。我方认为民众接触不到这些信息,公众对AI的普遍认知相对低下,只有专家了解。
反方一辩进行开篇立论。可以听到吗?可以。第一个问题,你方是否认为只要某件事情可能有伤害,就算能威胁到人类?好,我明白了。那您方对于威胁人类的标准是怎么样的呢?这么跟你说,流感也可能让人致死,那现在流感属于对人类的威胁吗?那我问你,流感有危险、有风险存在,AI技术也有风险存在,为什么两件事情不能相提并论?AI现在确实会对人造成伤害吗?请你举个例子。流感已经让人致死了,那现在你方是不是在低估流感对人类的威胁?好,我换一个问题。现在一把刀放在辩论桌上,这把刀会不会自己刺伤人类?它有能力伤害人类,算对我们有威胁吗?那是使用者有威胁,还是这把刀有威胁?所以,AI现在没有可能自动伤人,你方所说的AI可能出现的伤害,概率是多少?出现了什么样的事情?AI到底怎样伤害人类?概率有多少?好,所以你方也没有说明AI到底怎样伤害人类,只告诉我天可能会塌下来,也没说天塌了多少块。我想说的是,现在有能力真实造成大量伤害,并且失控概率很高,如果您方能论证这一点,我方才可能承认AI确实有能力对人类造成威胁。下一个问题,你方觉得辩题中的“人类”指什么样的范围?那您方对于高估和低估的比较,就是看有没有风险就能确定大家是低估还是高估吗?您方对于高估跟低估的比较标准是什么?我没太听清楚,感觉这个比较不是很成立,你的意思是大家对于AI的认知和真正的现实不匹配?好,先到这里。
正方二辩进行申论。能听到我声音吗?可以。首先,今天您方一直在说治理落后、认知脱节即是低估或高估的体现。先讲治理问题,我方有数据显示,全球已有超过40个国家颁布了AI专项法律,欧盟办公室也有报道指出,如果AI无法通过高风险审核,就会被主动放弃市场,无法融入市场。所以我们没有看到您方所说的治理落后,反而看到治理以及政策正在逐步跟上发展过程。其次,您方又说当下政策和技术不匹配,但当下没有完美的解决方案,不代表就会失控,不代表真正威胁到人类。就像疫苗,吃了药没办法完全治好病,但不能说此时它就在威胁人类。反而我们看到的是它正在让人们变好的过程。
您方还提到认知低的问题。我方承认人们的认知和实际发展脱节,正是因为认知低,人们容易被社交媒体的夸张报道引导。我方一辩稿中也明确提到,近7万条AI相关新闻头条会持续存在情感负面恐吓性内容,这些新闻报道会说AI已经威胁人类发展,认知低的人们就会被这些负面内容影响,进而觉得AI真的威胁到了人类。所以我方今天所说的高估,一是AI的能力没有达到您方所说的超人工智能水平,这从根本上是数学上无法挣脱的束缚,超人工智能短期不会出现,长期也很难突破。二是当代公众对AI负面影响的担忧远高于专家的正常担忧情绪,这就是高估的体现。以上就是我方申论。
反方三辩质询正方二辩。稍等。可以。今天我方的观点是,不是光觉得有伤害就够了,而是伤害不足以威胁人类整体发展,没有达到那么严重的程度。您方需要举证的是,它切切实实正在威胁,并且会被逐渐放大,但今天您方给出的全都是口头上的表述。不是的,我们今天要看的是对整体人类发展存在非常大的威胁。刚才这个危险,你需要论证到它满足非常失控的条件,并且失控发生的概率很高,其次人类没有办法有效阻止。我方觉得您方一直在强调可能性,我们没有看到实际产生了多大的威胁,我方觉得那不算。能再说一遍,您方的比较标准吗?有点没太听明白。我觉得您方一直在聊可能性的问题,可能性没办法推导它正在威胁人类。我觉得核武器就是这样,不能说有一个东西危险,就说它在威胁人类发展,世界上所有东西都在威胁人类发展了。首先上一个问题,我先简短回复,你今天需要论证到这个危险、这个风险扩大到整个人类层面,才符合我方所说的威胁。我方觉得政策已经非常完善了,首先国家会出台人工智能法,其次现在有沙盒机制,会从AI刚投放市场到后期发展进行完整的监管,AI上市前也会进行各方面测试,我觉得已经完全足够了,并没有看到您方所说的治理缺位。其次,我方的政策当然有力度,有力度才可行。
我觉得并不是您方所说的那样,首先AI的能力非常低,不足以实现您方所说的那些严重程度的威胁。您方刚才举的例子存在疑点,只是说明85%的人认为安全非常重要。关于上市前的审核,我们看到因为一些AI的问题,确实会有处罚,比如七彩肖像门事件,会依照法律进行罚款或者判刑之类的,这就是有规可循的。如果你想要具体案例,我也可以说明,AI侵犯肖像权的处罚,就是通过AI换脸技术侵犯他人隐私,会有赔礼道歉、公众道歉,依法赔偿精神损失。还有AI造谣方面,我方也有实际案例。我们就是为了规避这些风险才出台政策,首先您方说AI上市前没有测试,我方不同意,我方查过资料,AI上市前会进行各方面测试,不通过就不能上市,后期不通过也会被勒令禁止。其次即使发生了一些问题,我方也有切实的解决手段,并没有看到您方所说的治理缺位。您方能再说一下吗?我觉得正是因为公众认知低下,那些AI报道的夸大恐吓性语言会引导人们高估威胁程度,都觉得很危险。没太听明白你们所说的科幻电影是什么意思。我觉得是认知上的问题,从生物学角度来讲,我们大脑天生就会被悲观消息引导,人本质上就会被夸大AI的内容影响。我觉得不是这样,光举科幻电影的例子,今天大家都知道科幻电影是虚构的,但实实在在的是,人们会相信那些说AI真的在杀死人类、真的在威胁人类的言论,这就是高估。我觉得认知因人而异,专家对这个问题非常了解,但对一个普通理科学生来说,只知道AI对他有危险而已。不是的,即使公众只知道核泄漏有危险,不知道危险如何降临,也没有义务知道,但这并不影响我们讨论高估低估。首先我方没有看到AI造成人类失业,反而看到AI会带来新兴职业的发展,超过20个与人工智能相关的新职业,每个新职业可以带动数万人就业。今天您方一直在说高估低估,却没有给出评判标准,没有进行比较。经济银行还是没有给出实证。
反方二辩进行申论。一起做出了决定。最后,4分钟要叫停对吧。同学,停一下,时间到了。
正方三辩质询反方二辩。可以。终于有种才放诉我,因为他的市场对他想用市场。有一个数据说,中国和欧盟对AI监管非常紧急,美国对此管理非常松。找不到相关内容。我们有预防措施,我觉得你是说政策没有在犯错之前出台,我个人认为这是一种现状,几乎所有政策都不会在错误出现之前出台。比如民法典里的内容也是在相关事件出现后才完善的,但不代表大家就没有监管。我觉得这个东西都有,还是在认知上的问题,不是现在的问题。您方说两个点:治理落后、认知脱节,可以推导出我方观点。我觉得治理落后和认知脱节是相关的。打气,打那个地球,给那个地球通气。为什么昨天新竹的新竹门出不去?应该可以吧。没事儿,马上就要站起来了。马上就暂停。哦,对对对,白底要红。插不上话了。进入中站。
来看这个。开始。好的。请正方稍微准备一下,稍作等候。海滨,生命。好的。OK?首先,正方一辩进行开篇立论。哈喽。我知道每个环节的安排,不是。现在请大家每人试一句话,试一下音,确认麦克风是否有声音。环节开始前确认即可,OK?我们三个人发言时请关掉麦。正方一辩,开篇立论。谢谢主席,各位好。AI发展日新月异,关于其潜在风险的讨论也日渐增多。题目中“威胁人类”指人类整体遭受严重损害,发展长期停滞甚至倒退。若伤害程度较低,或者有明确有效的手段解决,则不能称为威胁。比如流感和天花对现在的我们都不再是威胁。要判断AI带给人类的威胁是被高估还是低估,就要从现状出发,看技术发展是否造成了严重危机,公众对于技术风险的感知是否偏离了客观现实。论证如下:
首先从大众认知层面,社交媒体对AI威胁的报道系统性夸大了风险,导致公众判断偏离现实。当前普通人大多不了解AI技术的真实边界,获取信息的主要渠道是社交媒体的碎片化报道,而媒体出于流量逻辑,倾向于放大AI清洗人类等戏剧化负面内容。罗格斯大学团队分析了近7万条AI相关新闻头条,发现AI新闻报道中持续存在情感负面的恐吓性语言,将AI描绘为对人类构成危险,甚至对人类生存的威胁。这种系统性使用恐吓语言的方式,深刻影响了公众对AI的负面认知。当一个不太了解的事物被灾难化叙事扭曲放大,公众看AI如同盲人摸象,自然会高估其威胁程度。当一篇又一篇AI清洗人类的叙事占据头条,公众对风险的认知和焦虑被推向了不合理的高度。皮尤研究中心对5410名美国成年人和1013名AI专家的调查发现,76%的专家认为AI会给自己带来好处,仅24%的公众持此观点;43%的公众担心AI会给自己带来伤害,仅12%的专家有此担忧。宾夕法尼亚大学对637名受过高等教育的受访者分组研究,也显示公众对AI导致人类灭绝的风险感知显著高于AI专家组,且公众组的风险感知分布范围最广,表明公众对AI风险的担忧程度远高于其他专业群体。
其次,从技术发展层面,当下AI的真实能力远未达到能构成系统性威胁的水平。根据风险分类研究,学界普遍认为真正对人类构成生存威胁的AI需要具备自主意识、跨领域通用能力、推理与独立目标设定能力,即所谓的强人工智能。然而,即使是当前最先进的多模态模型,本质上仍是基于系统统计学习的模式匹配工具,没有真正的理解力、意图和长期规划。斯坦福大学研究发现,人工智能依靠统计相关性而非逻辑因果生成输出,本质上无法对正确性提供任何保证,其现阶段能力仍处于较低水平,并且其能力的提升面临着根本性无法解决的障碍。再比如,AI幻觉是大型语言模型在生成内容时会编造出一些看似合理、逻辑自洽,但实际上与事实不符或毫无根据的信息。中国科学院联合科大讯飞等团队,从计算理论层面证明了AI大模型的幻觉在特定计算边界上的不可避免性。这不是技术发展可以逐步消除的暂时缺陷,而是由其内在数学结构所决定的根本局限,机制上无法避免的缺陷,同样反映在实际使用中。如今的AI连区分“我相信什么”与“事实是什么”都困难,遑论构成公众所认知的意图消灭人类的威胁。
综上,我方坚定认为,AI威胁人类的可能性被高估了。
反方四辩质询正方一辩。可以。我方认为要比较当前公众对AI的认知和专家给出的客观评估或事实。我方认为这两点都存在,当时可能存在低估的情况。当时人们发现相关问题,我方查到很多资料,比如欧盟人工智能法,我国也有很多相关法律,美国同样有相关立法。但在我方看来,我方查到非常多的人工智能法案法则,都说明当下已有措施应对AI构成的部分风险。我方认为民众接触不到这些信息,公众对AI的普遍认知相对低下,只有专家了解。
反方一辩进行开篇立论。可以听到吗?可以。第一个问题,你方是否认为只要某件事情可能有伤害,就算能威胁到人类?好,我明白了。那您方对于威胁人类的标准是怎么样的呢?这么跟你说,流感也可能让人致死,那现在流感属于对人类的威胁吗?那我问你,流感有危险、有风险存在,AI技术也有风险存在,为什么两件事情不能相提并论?AI现在确实会对人造成伤害吗?请你举个例子。流感已经让人致死了,那现在你方是不是在低估流感对人类的威胁?好,我换一个问题。现在一把刀放在辩论桌上,这把刀会不会自己刺伤人类?它有能力伤害人类,算对我们有威胁吗?那是使用者有威胁,还是这把刀有威胁?所以,AI现在没有可能自动伤人,你方所说的AI可能出现的伤害,概率是多少?出现了什么样的事情?AI到底怎样伤害人类?概率有多少?好,所以你方也没有说明AI到底怎样伤害人类,只告诉我天可能会塌下来,也没说天塌了多少块。我想说的是,现在有能力真实造成大量伤害,并且失控概率很高,如果您方能论证这一点,我方才可能承认AI确实有能力对人类造成威胁。下一个问题,你方觉得辩题中的“人类”指什么样的范围?那您方对于高估和低估的比较,就是看有没有风险就能确定大家是低估还是高估吗?您方对于高估跟低估的比较标准是什么?我没太听清楚,感觉这个比较不是很成立,你的意思是大家对于AI的认知和真正的现实不匹配?好,先到这里。
正方二辩进行申论。能听到我声音吗?可以。首先,今天您方一直在说治理落后、认知脱节即是低估或高估的体现。先讲治理问题,我方有数据显示,全球已有超过40个国家颁布了AI专项法律,欧盟办公室也有报道指出,如果AI无法通过高风险审核,就会被主动放弃市场,无法融入市场。所以我们没有看到您方所说的治理落后,反而看到治理以及政策正在逐步跟上发展过程。其次,您方又说当下政策和技术不匹配,但当下没有完美的解决方案,不代表就会失控,不代表真正威胁到人类。就像疫苗,吃了药没办法完全治好病,但不能说此时它就在威胁人类。反而我们看到的是它正在让人们变好的过程。
您方还提到认知低的问题。我方承认人们的认知和实际发展脱节,正是因为认知低,人们容易被社交媒体的夸张报道引导。我方一辩稿中也明确提到,近7万条AI相关新闻头条会持续存在情感负面恐吓性内容,这些新闻报道会说AI已经威胁人类发展,认知低的人们就会被这些负面内容影响,进而觉得AI真的威胁到了人类。所以我方今天所说的高估,一是AI的能力没有达到您方所说的超人工智能水平,这从根本上是数学上无法挣脱的束缚,超人工智能短期不会出现,长期也很难突破。二是当代公众对AI负面影响的担忧远高于专家的正常担忧情绪,这就是高估的体现。以上就是我方申论。
反方三辩质询正方二辩。稍等。可以。今天我方的观点是,不是光觉得有伤害就够了,而是伤害不足以威胁人类整体发展,没有达到那么严重的程度。您方需要举证的是,它切切实实正在威胁,并且会被逐渐放大,但今天您方给出的全都是口头上的表述。不是的,我们今天要看的是对整体人类发展存在非常大的威胁。刚才这个危险,你需要论证到它满足非常失控的条件,并且失控发生的概率很高,其次人类没有办法有效阻止。我方觉得您方一直在强调可能性,我们没有看到实际产生了多大的威胁,我方觉得那不算。能再说一遍,您方的比较标准吗?有点没太听明白。我觉得您方一直在聊可能性的问题,可能性没办法推导它正在威胁人类。我觉得核武器就是这样,不能说有一个东西危险,就说它在威胁人类发展,世界上所有东西都在威胁人类发展了。首先上一个问题,我先简短回复,你今天需要论证到这个危险、这个风险扩大到整个人类层面,才符合我方所说的威胁。我方觉得政策已经非常完善了,首先国家会出台人工智能法,其次现在有沙盒机制,会从AI刚投放市场到后期发展进行完整的监管,AI上市前也会进行各方面测试,我觉得已经完全足够了,并没有看到您方所说的治理缺位。其次,我方的政策当然有力度,有力度才可行。
我觉得并不是您方所说的那样,首先AI的能力非常低,不足以实现您方所说的那些严重程度的威胁。您方刚才举的例子存在疑点,只是说明85%的人认为安全非常重要。关于上市前的审核,我们看到因为一些AI的问题,确实会有处罚,比如七彩肖像门事件,会依照法律进行罚款或者判刑之类的,这就是有规可循的。如果你想要具体案例,我也可以说明,AI侵犯肖像权的处罚,就是通过AI换脸技术侵犯他人隐私,会有赔礼道歉、公众道歉,依法赔偿精神损失。还有AI造谣方面,我方也有实际案例。我们就是为了规避这些风险才出台政策,首先您方说AI上市前没有测试,我方不同意,我方查过资料,AI上市前会进行各方面测试,不通过就不能上市,后期不通过也会被勒令禁止。其次即使发生了一些问题,我方也有切实的解决手段,并没有看到您方所说的治理缺位。您方能再说一下吗?我觉得正是因为公众认知低下,那些AI报道的夸大恐吓性语言会引导人们高估威胁程度,都觉得很危险。没太听明白你们所说的科幻电影是什么意思。我觉得是认知上的问题,从生物学角度来讲,我们大脑天生就会被悲观消息引导,人本质上就会被夸大AI的内容影响。我觉得不是这样,光举科幻电影的例子,今天大家都知道科幻电影是虚构的,但实实在在的是,人们会相信那些说AI真的在杀死人类、真的在威胁人类的言论,这就是高估。我觉得认知因人而异,专家对这个问题非常了解,但对一个普通理科学生来说,只知道AI对他有危险而已。不是的,即使公众只知道核泄漏有危险,不知道危险如何降临,也没有义务知道,但这并不影响我们讨论高估低估。首先我方没有看到AI造成人类失业,反而看到AI会带来新兴职业的发展,超过20个与人工智能相关的新职业,每个新职业可以带动数万人就业。今天您方一直在说高估低估,却没有给出评判标准,没有进行比较。经济银行还是没有给出实证。
反方二辩进行申论。一起做出了决定。最后,4分钟要叫停对吧。同学,停一下,时间到了。
正方三辩质询反方二辩。可以。终于有种才放诉我,因为他的市场对他想用市场。有一个数据说,中国和欧盟对AI监管非常紧急,美国对此管理非常松。找不到相关内容。我们有预防措施,我觉得你是说政策没有在犯错之前出台,我个人认为这是一种现状,几乎所有政策都不会在错误出现之前出台。比如民法典里的内容也是在相关事件出现后才完善的,但不代表大家就没有监管。我觉得这个东西都有,还是在认知上的问题,不是现在的问题。您方说两个点:治理落后、认知脱节,可以推导出我方观点。我觉得治理落后和认知脱节是相关的。打气,打那个地球,给那个地球通气。为什么昨天新竹的新竹门出不去?应该可以吧。没事儿,马上就要站起来了。马上就暂停。哦,对对对,白底要红。插不上话了。进入中站。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
反方四辩质询正方一辩
反方一辩质询正方一辩(注:此处原文本标注为“反方一辩进行开篇立论”,但内容实为质询,按实际内容处理)
反方三辩质询正方二辩
正方三辩质询反方二辩
正方二辩申论
反方二辩申论 文本内容为“一起做出了决定。最后,4分钟要叫停对吧。同学,停一下,时间到了。”,未呈现有效论述内容。