我操,2031年还没有我不打可以,我念稿有什么关系呢?你就补一下有什么关系呢?我的意思是大家的环节任务都慢一点吧,不能太快吧。两分钟我告是的,然后我就这到两分钟。分是正常是正常,我你们点这录音给听的。你们要是录讲的话,我把正方开篇这个儿好的,他把我抢走了。病我有那我了好的,正方开篇论讲话。正方开篇立论,OK, 谢谢主席,各位好,AI发展日新月异,关于其潜在风险的讨论也日渐成功。题目中威胁人类指人类整体物质遭受严重损害,发展长期停滞甚至倒退。若伤害程度较低,或有明确有效的手段解决,则不能称为威胁。比如流感和天花对现在的我们都不再是威胁。要判断AI带给人类的威胁,只要是被低估,还是是被高估还是低估,就要从现状出发,看技术发展是否造成了严重危机。公众对于技术风险的感知是否偏离了客观事实论证如下,首先从大众认知层面,社交媒体对AI威胁的报道系统性的夸大了风险,导致公众判断偏离现实。当前普通人大多不了解AI技术的真实边界,获取信息的主要渠道是社交媒体的碎片化报道,而媒体出于流量逻辑,倾向于放大AI,清洗人类的戏剧化负面内容。23年5月,关于AI可能引发人类灭绝的微博热搜,话题浏览量超1400万,只要接上震惊人工智能比核弹危险100倍的标题,就会获得到较高的热度。当一个不太了解的事物被灾难化叙事扭去放大,公众看AI如同盲人摸象,自然会高估其威胁程度。皮研究中心对5410名美国成年人,和1013名AI专家的调查发现,76%的专家认为AI会给自己带来好处,请24%的公众持出此观点。43%的公众担心A股会给自己带来伤害,仅12%的专家有此在有此担忧。近西法尼亚大学对637名受过高等教育的受访者分组研究,也显示,公众对AI导致人类灭绝的风险性感知显著高于AI专家组,且其公众组的风险感知分布范围最广,表明公众对AI风险的担忧程度远高于其他专业群体。当一天又一天AI清起,人类的叙事占据头条,公众对风险的认知和焦虑被推向了不合理的高度。
其次,从技术发展层面,当下AI的真实能力远未达到构成系统性威胁的水平。根据风险分类研究,学界普遍认为,真正对人类构成生存及威胁的AI需要具备自主意识、跨领域通用、对独立目标设计能力及所谓的强人工智能。然而,即使是现当前最先进的大语言模型、多模态模型,本质上仍是基于统计学习的模式匹配工具,没有真正的理解力、意图和长期规划。斯坦福大学研究发现,人工智能依靠统计相关性而非逻因果逻辑生成输出,本质上无法对正确性提供任何保证,其现阶段能力仍处于较低水平,学习能力的提升面临着根本性无法解决的障碍。中国科学院联合科大讯飞等团队,从技术理论层面证明了AI大模型的幻觉,在特定计算边界上的不可避免性。这不是技术发展中可以逐步消除的暂时缺陷,而是由其内在数学结构所决定的根本曲限机制上无法避免的缺陷,同样反映在实际使用中。如今的AI人,区分我相信什么和事实是什么都困难,遑论构成有意图消灭人类的威胁。综上,我方认为AI威胁人类的可能性被高估了。
反方四辩质询正方一辩第情况,比方说,有手段控制就等于不危害,对不对?有手段控制就等于不危害,就不构成危险。这是不构成问题的一点,因为我们有有效的,有有效的手段去控制和解决这部分危害啊,他就所以事实上,如果这个病能让我造成死亡,只是我现在有法救他,我能说这个病现在对我一点威胁都没有。风险并不等于危险,我们可以说这个病对人是有危险,是有危还是有威胁的。在客观上,我接着问你,包括地步谁来评判啊,我们认为的风险和威胁是不不相等的,什么回答我的个问题,高度和低度谁来评判?我们认为是公众舆当前的公众舆论视角和真实情况相判断。所以你要先看大家现在是怎么想的。你觉的那个数据是大家现在看到AI有那个说AI会毁灭人,大家用一点进一看,有说候大家真的认为这个事情是真的吗?有啊,我们有数据说明啊,就是有43%的公众担心AI会给自己带来伤害。我这里有份数据点上海标到二五年的数据介释,只有8.5%的公众对他高度警惕,比方怎么证明,我点进去看,一定我很关心这件事情,有没有可能是当成一个乐子来看?并不完全是啊,我们也没法证对,所以你没有法证里面,他一定是可是我方有数据跟你说,只有8.5%的对他高度警惕,所以那公众对他认知一定是像你说的那么高的。你有没有看出来大I这是有个问题啊,你我们来看AI实力对人造成的威胁,我们不需要证明到AI会把人全部杀掉才能证明成功吗?不需要就是构成生存威胁。那所以说,在那个认知的情况下,只要我们这里AI确实有比那个认知更高的伤害,就是有几估没有问题吧?就是在我们在我方定义当中,威胁分为三部分,第一是取代工作,第二是使人能力变差。好不是吗?不重要,那我来跟你聊取代工作,你我们觉得会取代工作,你们觉得不会取代,为什么?因为AI取代容易被取代的工作种类实际上是非常有限的,并且AI的产生,所以本质上会有取代工作课,那现在公众大家认识到了这一点吗?在公众,但是公众是在取代工作这一点上确实是被夸大的。在我方,我方有数据证明,那你举不举,恐怕有数据证明啊,就是在人人们担心AI在机器人做这件事情上的评分说明,70%的人打出了三分,近四成的人表示出了高度的担担忧。嗯,就是我现在也会担心AI有没有可能,可是我会不会真的担心,就是我现在这个杨表填的三分一定代表我人的高度警惕,你方有论证吗?当前人们认为自己的工作被取代是对自己造成威胁的,这在公众当中有超过半数的人都有这份担忧。实际上,人们对于这个AI体,就是AI对人类造成危胁的可能性。我举一个场景很简单的相关举证,就是我现在看那个视频,我昨天跟他们分享,我看一个那个AI给那个大帽都做那个跳舞的视频,我看着可乐了。如果大部分人都是像,我觉得就是我看AI看这个乐子怎么办。但是,你得证明所有的就是绝大部分人都是像你一样看他是个乐的。但是我现在有数据证明,有七十百分之70的人认为就是担心自己自己的工作被AI取代。是这样的,那个8.5%的公众对他AI幻觉造假高度警惕。你说的是有半数人对AI有警惕。我刚我说了,说了就是你说有些人已经对取不取代自己工作有警觉了,可是你有比这部分警觉和实际上他能做到的大小吗?有啊,我们我们想说的就是,他认为他他认为自己受到威胁和现实情况是不符的,和现实情况相比,他是他是明显高估的。我没有听到你方怎么举证。现在我的担心一定是高于他真的可能会给我造成的威胁的。我们证明是有威胁,你说是可能你方是一开始打算通过没有威胁来证明,可是现在如果我证明了有威胁,你方就要比较现在人的担心。他的威胁大小究竟是大小,我接天着问你啊,幻觉这个问题就像这么说的,只感觉只有这么一点点担心他有幻觉。可是,我从这个五方四店给我看了一个视频,就那个XEIXO跟那个T,他现在那个现在那个AI做的栩栩如生。在可能几个月前,我们根本就没有看见这样的视频。发现现在AI的发展速度一日千里,如果这个事情发生了,加上人们对AI的这个识别能力很弱,是不是能证明了我们对他是低估的?并不是啊,在我方看来,AI技术现在本质上是受到根本性的限制的,并不会发展到但然的。你说实在不能像那个不要里那个骂子一样,把人类全部像那个激光,或者像生化危机那个激光把人给杀了。可是我们也没有打算论用到这个地步,我们说的是现在人类大家对AI,基本上对AI,基本上对AI的幻觉体也很低,可能这个XOP确实造成了难辨增样的情况,所以这是第一步的第一部分。第二部分,如果之后我们证明到AI能够让人本主义逐渐走向瓦解,是不是我方也可以证明成功?等下AI就是人们对于AI幻觉的警惕很低,这件事情并不是我方提出的,那我举证了这个数据,经举论,你不答我这个问题。如果我方这样做,老是可以解决什么?我方我方不这样认为啊。我方认为的威胁其实并不包含说人们对于这部分的警惕降低造成的,造成的威胁是人就是人们没有想象到的,反而会更高。嗯,所以在幻觉这部分,我们看到了XOP确实真假难辨,并且人类对这个显然是低一估的那我们后续基的论证,现在对人文主义的瓦解在也在因为AI的发展逐渐逐渐的扩大,所以这一部分也是你方没有想到的两部分都是上啊。
反方一辩开篇,这个开拓义随着时代发展所能做到的事情,已然逐渐处于大工想上的边界。网络上各种AI性的视频的进化速度能超出我们的预期,人们越来越难以分辨AI系统和现实的差距。低估意味着公众、企业乃至政策制定者对AI风险认知程度低于风险实际水平。潜在危害。我方并非宣称在AI中将历解人类末认论。需要指出,在AI能力指数级跃升当下,从安全意识,制度准备到风险感知,我与威胁之间的差距正在扩大而非缩小。论证如下,首先,AI可能造成的问题层出不穷,而相当大之数的人们还会意识到AI可能的危险,风险方面也是薄弱。上海在到2025年6月,面向8达11位AI使用者调研指数,以8.5%的观众对AI判者造假高速警惕,提29.7%,几乎完全没有察觉到AI被造。分众对于AI判者造假高速警体,二十九点七几乎完全没有察觉到AI编造虚假信息,45.6%有对于AI风险完全没有具体概念。除了个人以外,企业对AI防护措施部署严重滞后的技术应用,经管了87%的组织在云端使用AI服务,在部署专门AI控制安全控制措施不足1/7,仅有13%的企业使用了AI专属安全态始管理工具。更源担忧的是,47.2%的企业是因未配置任何AI安全控制措施。对于大众使用而言,58%的AI情况并不清楚是能提供哪些权限,能访问哪些数据。这些数据充分证明,不管AI的未来可能AI怎样的风险,人们显然并不打算在现阶段更新对于全新技术的使用理念、风险防障方式,只是将AI作为一个好用的技术工具。科林格离器困境就在一年最一经的的一面指出,技术在其早期阶段,社会难以预测其长期风险,而当风险充分显现时,技术往往已深入社会,记理变得难以控制,其次,AI对于人类的威胁已然全面扩展,从显而易见的技术攻击和信息安全,到难以防范人文主义退化和人类自主性的蚕食,AI正要赋于攻击者前所未有的能力。攻击者利用AI工具突破企业防线时间已缩短至平均29分钟,最快仅需27秒。在AI上线案例中,语音克隆技术已经一生到年亲密同事难以分辨,企业高管接到冒充CE1楼诈骗电话以非个案,更值得警惕的是,大模型的判决问题不仅是技术缺浅,更有可能被武器化原因操控认知。此外,AI技术的进步正在消解人类个体性,将其逐渐异化为可悲量化的生产工具,人文主义关怀正在被有下限挤压。2018年起,浙江航中机器移动学院引入AI摄像头。通过分析学生课堂上抬头与举手次数、低头时间、他出次数等指标,设成每名学生专注度指数,并实时同步给班主任和家长。在此情景中,AI技术的极具提升,使得监管措施和对生产效率的量化变得前所未有的容易,人类的被工具化程度正在被无限拔高。因此,我方认为人工智能威胁人员可能性正的被正在被低估。
正方四辩质询,反方一辩好,谢谢我们这个辩题所讨论的威胁人类,这也是威胁整个人类的明为什么一定什么威胁胁人类,他威胁到了我们,也可以是威胁人啊,那也就是说,今天AI诈骗诈骗到了,你就说明AI威胁到整个人类。诈骗犯威胁人类吗?我觉得当然威胁。所以AI诈骗威胁人类嘛,我觉得应该是威胁吧,因为他威胁到我这一部分人类生产安全,我的意思是他只威胁到了你就可以平等的认证到他。所以我是人类,威胁整个人类。我觉得可以啊,就是有那人类当中有那么一部分人,他在对这个的现象和AI发生这个事情受到困扰,我们的生命财安全受到威胁,所以为什么不能威胁到人类呢?为什么一定要是整个人类,然后遍地要是整个威胁人类啊。所以,为什么不能威胁到人类呢?为什么一定要是整个人类,然后遍地要是整个威胁人类啊?他们么呀,那也就是说,银行觉得只要今天有这个特例出现,那么所有人都就会出现在同一个风险下面。首先,我方没有认为这个是这个现象非常的普遍,不管是AI诈骗、AI视频、AI语音控制这些东西,他正在逐渐侵入我们的生活,方方面面,庞大基数的人类正在被这个东西困扰。有多少人?嗯,我看看啊。我好像没给,但是我应该查的这个啊,没关系,好意好好,那也就是说,您方觉得你,您方觉得现在AI的威胁程度,是他在普遍的让整个人类走向某一个很坏的很坏的结果,是这样正在向正在向整个人类导现都很坏的结果。我觉得我们没没有必要问到这里,我们只需要论证,AI信息在带来的危害已然超出了我们的风险和外做事的人的想象,就是超出给人等一下,稍微等一下,不是他跳个广告。可以继续好。再强调一点吧,我方也没有说AI不会威胁到人类,我方想说的是,只有现在,只有AI能够伤及到人类整体的福祉,使人类整体的发展处于或即将处于停滞状态,才能够说明到微AI可以威胁到人啊。再问一下,您方觉得什么样的危害才能算得上是威胁?什么样的危害才能算得上是威胁?我觉得我们不需要讨论这个,因为今天我方双我们双方已经达成了共识。AI他在实验上面对于我们的生存的威胁,包括我方论大家辩你没听懂我的意思,我的意思是,嗯,我的意思是你今天如果感冒的话,那么这个流感病毒算得上是可以威胁人类吗?是这个意思。流感病毒客观上面当然可以威胁人类。那那你觉得大家对于流感病毒的态度是什么?大家挺警惕流感病毒的,大家会有效去防范,有效去治。那这个流感病毒对于人类的威胁和大家对他的态度来比是怎样的?所以你想跟我证明说,今天大家对于AI有非常有效的防判措施,还有非常熟洁的全意识吗?我觉得并没有啊。所以今天话是要认真的,我们的认知并不匹。不是还有非常新安全意识吗?我觉得并没有啊。所以今天话要认证的,我们的认知并不匹配现在的发展程度,什么我没听我一下,我的问题我没听进去。刚才说遍,所以你所以今天您方打算问证的是,我们大家对待AI的意识和现在流感一样,今天AI的流感,我们都承认它这个危害性,但是我们对于对于流感,我们有充分的预防措施,还有治疗措施。但是,你方需要跟我证明,今天我们针对AI所带来的可能威胁也有这样的安全措施、预防措施,这是我想要表达的啊。有啊,但但是我方想主张的是,人们对于AI的威胁看的太严重了,其实,AI并没有能做到像您方或者是大众所认为的那样的优秀,那样的足以威胁到我的生存地步。再问您好,您方觉得大众对于A的了解哪里先回前面那个问题啊,AI在人为操控的情况下,它是非常致命的恐惧。它可以通过生成视频、生成各种营方式,对你进行包括改变你的认知,包括包括诈骗你的前台。其实,公众对AI的认知,我觉得很多来自于我们自己,不包括对AI还有社交媒体吧。嗯,也就是说,现在全人类都可以使用一些AI,然后大家对他的认知就是,我在跟个AI聊天的过程中看他的能力有多少是这样的。不是啊,我觉得我认为其实我方已经举证过了,58%的AI使用方并不清楚智能提供哪些权限和访问哪些数据,就像我们使用AI,我不知道他能做什么,但是我知道他能够完成作业。我方想要论证,其实今天在AI可能带来的风险之下,我们作为AI使用的者候,我们并没有充分的安全情绪意识去防范它可能带来的危害。嗯,你没有安全警惕意识和你不知道AI到底做到什么样的程度,这两个问题冲突吗?不冲突啊,那所以说你觉得那你方是怎么认为AI现在超级优秀的?AI现在超级优秀,你方不是说AI可以做到某些某些严重的后果吗?嗯,我要怎么向你证明我现在给你刷个短视频吗?就是我就是你可以自己去刷一下抖音。现在很多AI生成视频,它的逼真程度从有一个那个那个那个谁吃拉面的那个视频,他从2016年一直进化到现在2026年,在每一年毕竟成度都在上升了。2022年这个版本我已经看不出来是AI了,完全看不
我操,2031年还没有我不打可以,我念稿有什么关系呢?你就补一下有什么关系呢?我的意思是大家的环节任务都慢一点吧,不能太快吧。两分钟我告是的,然后我就这到两分钟。分是正常是正常,我你们点这录音给听的。你们要是录讲的话,我把正方开篇这个儿好的,他把我抢走了。病我有那我了好的,正方开篇论讲话。正方开篇立论,OK, 谢谢主席,各位好,AI发展日新月异,关于其潜在风险的讨论也日渐成功。题目中威胁人类指人类整体物质遭受严重损害,发展长期停滞甚至倒退。若伤害程度较低,或有明确有效的手段解决,则不能称为威胁。比如流感和天花对现在的我们都不再是威胁。要判断AI带给人类的威胁,只要是被低估,还是是被高估还是低估,就要从现状出发,看技术发展是否造成了严重危机。公众对于技术风险的感知是否偏离了客观事实论证如下,首先从大众认知层面,社交媒体对AI威胁的报道系统性的夸大了风险,导致公众判断偏离现实。当前普通人大多不了解AI技术的真实边界,获取信息的主要渠道是社交媒体的碎片化报道,而媒体出于流量逻辑,倾向于放大AI,清洗人类的戏剧化负面内容。23年5月,关于AI可能引发人类灭绝的微博热搜,话题浏览量超1400万,只要接上震惊人工智能比核弹危险100倍的标题,就会获得到较高的热度。当一个不太了解的事物被灾难化叙事扭去放大,公众看AI如同盲人摸象,自然会高估其威胁程度。皮研究中心对5410名美国成年人,和1013名AI专家的调查发现,76%的专家认为AI会给自己带来好处,请24%的公众持出此观点。43%的公众担心A股会给自己带来伤害,仅12%的专家有此在有此担忧。近西法尼亚大学对637名受过高等教育的受访者分组研究,也显示,公众对AI导致人类灭绝的风险性感知显著高于AI专家组,且其公众组的风险感知分布范围最广,表明公众对AI风险的担忧程度远高于其他专业群体。当一天又一天AI清起,人类的叙事占据头条,公众对风险的认知和焦虑被推向了不合理的高度。
其次,从技术发展层面,当下AI的真实能力远未达到构成系统性威胁的水平。根据风险分类研究,学界普遍认为,真正对人类构成生存及威胁的AI需要具备自主意识、跨领域通用、对独立目标设计能力及所谓的强人工智能。然而,即使是现当前最先进的大语言模型、多模态模型,本质上仍是基于统计学习的模式匹配工具,没有真正的理解力、意图和长期规划。斯坦福大学研究发现,人工智能依靠统计相关性而非逻因果逻辑生成输出,本质上无法对正确性提供任何保证,其现阶段能力仍处于较低水平,学习能力的提升面临着根本性无法解决的障碍。中国科学院联合科大讯飞等团队,从技术理论层面证明了AI大模型的幻觉,在特定计算边界上的不可避免性。这不是技术发展中可以逐步消除的暂时缺陷,而是由其内在数学结构所决定的根本曲限机制上无法避免的缺陷,同样反映在实际使用中。如今的AI人,区分我相信什么和事实是什么都困难,遑论构成有意图消灭人类的威胁。综上,我方认为AI威胁人类的可能性被高估了。
反方四辩质询正方一辩第情况,比方说,有手段控制就等于不危害,对不对?有手段控制就等于不危害,就不构成危险。这是不构成问题的一点,因为我们有有效的,有有效的手段去控制和解决这部分危害啊,他就所以事实上,如果这个病能让我造成死亡,只是我现在有法救他,我能说这个病现在对我一点威胁都没有。风险并不等于危险,我们可以说这个病对人是有危险,是有危还是有威胁的。在客观上,我接着问你,包括地步谁来评判啊,我们认为的风险和威胁是不不相等的,什么回答我的个问题,高度和低度谁来评判?我们认为是公众舆当前的公众舆论视角和真实情况相判断。所以你要先看大家现在是怎么想的。你觉的那个数据是大家现在看到AI有那个说AI会毁灭人,大家用一点进一看,有说候大家真的认为这个事情是真的吗?有啊,我们有数据说明啊,就是有43%的公众担心AI会给自己带来伤害。我这里有份数据点上海标到二五年的数据介释,只有8.5%的公众对他高度警惕,比方怎么证明,我点进去看,一定我很关心这件事情,有没有可能是当成一个乐子来看?并不完全是啊,我们也没法证对,所以你没有法证里面,他一定是可是我方有数据跟你说,只有8.5%的对他高度警惕,所以那公众对他认知一定是像你说的那么高的。你有没有看出来大I这是有个问题啊,你我们来看AI实力对人造成的威胁,我们不需要证明到AI会把人全部杀掉才能证明成功吗?不需要就是构成生存威胁。那所以说,在那个认知的情况下,只要我们这里AI确实有比那个认知更高的伤害,就是有几估没有问题吧?就是在我们在我方定义当中,威胁分为三部分,第一是取代工作,第二是使人能力变差。好不是吗?不重要,那我来跟你聊取代工作,你我们觉得会取代工作,你们觉得不会取代,为什么?因为AI取代容易被取代的工作种类实际上是非常有限的,并且AI的产生,所以本质上会有取代工作课,那现在公众大家认识到了这一点吗?在公众,但是公众是在取代工作这一点上确实是被夸大的。在我方,我方有数据证明,那你举不举,恐怕有数据证明啊,就是在人人们担心AI在机器人做这件事情上的评分说明,70%的人打出了三分,近四成的人表示出了高度的担担忧。嗯,就是我现在也会担心AI有没有可能,可是我会不会真的担心,就是我现在这个杨表填的三分一定代表我人的高度警惕,你方有论证吗?当前人们认为自己的工作被取代是对自己造成威胁的,这在公众当中有超过半数的人都有这份担忧。实际上,人们对于这个AI体,就是AI对人类造成危胁的可能性。我举一个场景很简单的相关举证,就是我现在看那个视频,我昨天跟他们分享,我看一个那个AI给那个大帽都做那个跳舞的视频,我看着可乐了。如果大部分人都是像,我觉得就是我看AI看这个乐子怎么办。但是,你得证明所有的就是绝大部分人都是像你一样看他是个乐的。但是我现在有数据证明,有七十百分之70的人认为就是担心自己自己的工作被AI取代。是这样的,那个8.5%的公众对他AI幻觉造假高度警惕。你说的是有半数人对AI有警惕。我刚我说了,说了就是你说有些人已经对取不取代自己工作有警觉了,可是你有比这部分警觉和实际上他能做到的大小吗?有啊,我们我们想说的就是,他认为他他认为自己受到威胁和现实情况是不符的,和现实情况相比,他是他是明显高估的。我没有听到你方怎么举证。现在我的担心一定是高于他真的可能会给我造成的威胁的。我们证明是有威胁,你说是可能你方是一开始打算通过没有威胁来证明,可是现在如果我证明了有威胁,你方就要比较现在人的担心。他的威胁大小究竟是大小,我接天着问你啊,幻觉这个问题就像这么说的,只感觉只有这么一点点担心他有幻觉。可是,我从这个五方四店给我看了一个视频,就那个XEIXO跟那个T,他现在那个现在那个AI做的栩栩如生。在可能几个月前,我们根本就没有看见这样的视频。发现现在AI的发展速度一日千里,如果这个事情发生了,加上人们对AI的这个识别能力很弱,是不是能证明了我们对他是低估的?并不是啊,在我方看来,AI技术现在本质上是受到根本性的限制的,并不会发展到但然的。你说实在不能像那个不要里那个骂子一样,把人类全部像那个激光,或者像生化危机那个激光把人给杀了。可是我们也没有打算论用到这个地步,我们说的是现在人类大家对AI,基本上对AI,基本上对AI的幻觉体也很低,可能这个XOP确实造成了难辨增样的情况,所以这是第一步的第一部分。第二部分,如果之后我们证明到AI能够让人本主义逐渐走向瓦解,是不是我方也可以证明成功?等下AI就是人们对于AI幻觉的警惕很低,这件事情并不是我方提出的,那我举证了这个数据,经举论,你不答我这个问题。如果我方这样做,老是可以解决什么?我方我方不这样认为啊。我方认为的威胁其实并不包含说人们对于这部分的警惕降低造成的,造成的威胁是人就是人们没有想象到的,反而会更高。嗯,所以在幻觉这部分,我们看到了XOP确实真假难辨,并且人类对这个显然是低一估的那我们后续基的论证,现在对人文主义的瓦解在也在因为AI的发展逐渐逐渐的扩大,所以这一部分也是你方没有想到的两部分都是上啊。
反方一辩开篇,这个开拓义随着时代发展所能做到的事情,已然逐渐处于大工想上的边界。网络上各种AI性的视频的进化速度能超出我们的预期,人们越来越难以分辨AI系统和现实的差距。低估意味着公众、企业乃至政策制定者对AI风险认知程度低于风险实际水平。潜在危害。我方并非宣称在AI中将历解人类末认论。需要指出,在AI能力指数级跃升当下,从安全意识,制度准备到风险感知,我与威胁之间的差距正在扩大而非缩小。论证如下,首先,AI可能造成的问题层出不穷,而相当大之数的人们还会意识到AI可能的危险,风险方面也是薄弱。上海在到2025年6月,面向8达11位AI使用者调研指数,以8.5%的观众对AI判者造假高速警惕,提29.7%,几乎完全没有察觉到AI被造。分众对于AI判者造假高速警体,二十九点七几乎完全没有察觉到AI编造虚假信息,45.6%有对于AI风险完全没有具体概念。除了个人以外,企业对AI防护措施部署严重滞后的技术应用,经管了87%的组织在云端使用AI服务,在部署专门AI控制安全控制措施不足1/7,仅有13%的企业使用了AI专属安全态始管理工具。更源担忧的是,47.2%的企业是因未配置任何AI安全控制措施。对于大众使用而言,58%的AI情况并不清楚是能提供哪些权限,能访问哪些数据。这些数据充分证明,不管AI的未来可能AI怎样的风险,人们显然并不打算在现阶段更新对于全新技术的使用理念、风险防障方式,只是将AI作为一个好用的技术工具。科林格离器困境就在一年最一经的的一面指出,技术在其早期阶段,社会难以预测其长期风险,而当风险充分显现时,技术往往已深入社会,记理变得难以控制,其次,AI对于人类的威胁已然全面扩展,从显而易见的技术攻击和信息安全,到难以防范人文主义退化和人类自主性的蚕食,AI正要赋于攻击者前所未有的能力。攻击者利用AI工具突破企业防线时间已缩短至平均29分钟,最快仅需27秒。在AI上线案例中,语音克隆技术已经一生到年亲密同事难以分辨,企业高管接到冒充CE1楼诈骗电话以非个案,更值得警惕的是,大模型的判决问题不仅是技术缺浅,更有可能被武器化原因操控认知。此外,AI技术的进步正在消解人类个体性,将其逐渐异化为可悲量化的生产工具,人文主义关怀正在被有下限挤压。2018年起,浙江航中机器移动学院引入AI摄像头。通过分析学生课堂上抬头与举手次数、低头时间、他出次数等指标,设成每名学生专注度指数,并实时同步给班主任和家长。在此情景中,AI技术的极具提升,使得监管措施和对生产效率的量化变得前所未有的容易,人类的被工具化程度正在被无限拔高。因此,我方认为人工智能威胁人员可能性正的被正在被低估。
正方四辩质询,反方一辩好,谢谢我们这个辩题所讨论的威胁人类,这也是威胁整个人类的明为什么一定什么威胁胁人类,他威胁到了我们,也可以是威胁人啊,那也就是说,今天AI诈骗诈骗到了,你就说明AI威胁到整个人类。诈骗犯威胁人类吗?我觉得当然威胁。所以AI诈骗威胁人类嘛,我觉得应该是威胁吧,因为他威胁到我这一部分人类生产安全,我的意思是他只威胁到了你就可以平等的认证到他。所以我是人类,威胁整个人类。我觉得可以啊,就是有那人类当中有那么一部分人,他在对这个的现象和AI发生这个事情受到困扰,我们的生命财安全受到威胁,所以为什么不能威胁到人类呢?为什么一定要是整个人类,然后遍地要是整个威胁人类啊。所以,为什么不能威胁到人类呢?为什么一定要是整个人类,然后遍地要是整个威胁人类啊?他们么呀,那也就是说,银行觉得只要今天有这个特例出现,那么所有人都就会出现在同一个风险下面。首先,我方没有认为这个是这个现象非常的普遍,不管是AI诈骗、AI视频、AI语音控制这些东西,他正在逐渐侵入我们的生活,方方面面,庞大基数的人类正在被这个东西困扰。有多少人?嗯,我看看啊。我好像没给,但是我应该查的这个啊,没关系,好意好好,那也就是说,您方觉得你,您方觉得现在AI的威胁程度,是他在普遍的让整个人类走向某一个很坏的很坏的结果,是这样正在向正在向整个人类导现都很坏的结果。我觉得我们没没有必要问到这里,我们只需要论证,AI信息在带来的危害已然超出了我们的风险和外做事的人的想象,就是超出给人等一下,稍微等一下,不是他跳个广告。可以继续好。再强调一点吧,我方也没有说AI不会威胁到人类,我方想说的是,只有现在,只有AI能够伤及到人类整体的福祉,使人类整体的发展处于或即将处于停滞状态,才能够说明到微AI可以威胁到人啊。再问一下,您方觉得什么样的危害才能算得上是威胁?什么样的危害才能算得上是威胁?我觉得我们不需要讨论这个,因为今天我方双我们双方已经达成了共识。AI他在实验上面对于我们的生存的威胁,包括我方论大家辩你没听懂我的意思,我的意思是,嗯,我的意思是你今天如果感冒的话,那么这个流感病毒算得上是可以威胁人类吗?是这个意思。流感病毒客观上面当然可以威胁人类。那那你觉得大家对于流感病毒的态度是什么?大家挺警惕流感病毒的,大家会有效去防范,有效去治。那这个流感病毒对于人类的威胁和大家对他的态度来比是怎样的?所以你想跟我证明说,今天大家对于AI有非常有效的防判措施,还有非常熟洁的全意识吗?我觉得并没有啊。所以今天话是要认真的,我们的认知并不匹。不是还有非常新安全意识吗?我觉得并没有啊。所以今天话要认证的,我们的认知并不匹配现在的发展程度,什么我没听我一下,我的问题我没听进去。刚才说遍,所以你所以今天您方打算问证的是,我们大家对待AI的意识和现在流感一样,今天AI的流感,我们都承认它这个危害性,但是我们对于对于流感,我们有充分的预防措施,还有治疗措施。但是,你方需要跟我证明,今天我们针对AI所带来的可能威胁也有这样的安全措施、预防措施,这是我想要表达的啊。有啊,但但是我方想主张的是,人们对于AI的威胁看的太严重了,其实,AI并没有能做到像您方或者是大众所认为的那样的优秀,那样的足以威胁到我的生存地步。再问您好,您方觉得大众对于A的了解哪里先回前面那个问题啊,AI在人为操控的情况下,它是非常致命的恐惧。它可以通过生成视频、生成各种营方式,对你进行包括改变你的认知,包括包括诈骗你的前台。其实,公众对AI的认知,我觉得很多来自于我们自己,不包括对AI还有社交媒体吧。嗯,也就是说,现在全人类都可以使用一些AI,然后大家对他的认知就是,我在跟个AI聊天的过程中看他的能力有多少是这样的。不是啊,我觉得我认为其实我方已经举证过了,58%的AI使用方并不清楚智能提供哪些权限和访问哪些数据,就像我们使用AI,我不知道他能做什么,但是我知道他能够完成作业。我方想要论证,其实今天在AI可能带来的风险之下,我们作为AI使用的者候,我们并没有充分的安全情绪意识去防范它可能带来的危害。嗯,你没有安全警惕意识和你不知道AI到底做到什么样的程度,这两个问题冲突吗?不冲突啊,那所以说你觉得那你方是怎么认为AI现在超级优秀的?AI现在超级优秀,你方不是说AI可以做到某些某些严重的后果吗?嗯,我要怎么向你证明我现在给你刷个短视频吗?就是我就是你可以自己去刷一下抖音。现在很多AI生成视频,它的逼真程度从有一个那个那个那个谁吃拉面的那个视频,他从2016年一直进化到现在2026年,在每一年毕竟成度都在上升了。2022年这个版本我已经看不出来是AI了,完全看不
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
<辩论主题> AI威胁人类的可能性被高估了 vs AI威胁人类的可能性被低估了 </辩论主题> <辩论环节> 双方开篇立论及质询环节 </辩论环节>