例如,《在恋爱关系中,应该追求等价的付出·在恋爱关系中,不应该追求等价的付出》一题,辩之竹内共收录26场比赛。我们为您提供这26场比赛的论点、判断标准提取,以及总计数百条论据的提取,还有Deepseek的辩题分析。这可以帮您更好备赛。
欢迎您点击下方按钮,前往查看。
阅读量:216
尊敬的各位观众朋友们,大家好!今天我们在这里讨论人工智能威胁人类的可能性是正在被高估还是被低估。我方认为人工智能威胁人类的可能性被高估了。
我们现在看到大部分已知作品,如文学作品、像古代文学以及科幻电影《末日无声狂》、相关小说,甚至是网络上随处可见的悲观评论,都反映出人们对人工智能危险的过度担忧,这表明大众认为人工智能威胁人类的可能性很高这一事实。同时,辩题中正在被高估,意味着这是基于过去已有的数据和事实得出的结论。
根据 2024 年人工智能公众认知调查报告,目前来看,有 49.1%的人认为 AI 未来会在某些方面取代人类,有 63.1%的人认为 AI 经济发展可能会失控。美国民众对人工智能态度的电闻报告显示,57%的民众表示 AI 会加大高收入与低收入者的差距。2014 年 7 月斯南部大学发表的人工智能指数表明,AI 产品和服务的年增长率从 2022 年提升到 13%,有 55%的人感到非常紧张。小米集团人工智能实验室主任王斌在 2024 年的一个企业家论坛中说:“天天科技革命,日日文艺复兴,每天都很焦虑。”从这些事实和数据来看,现在有一部分甚至大部分评估者都已经认为人工智能威胁人类的可能性非常大。可能性被定义为概率,也就是说,技术数据显示大部分评估者都已经认为人工智能有很大的概率威胁到人类。如果这种担忧是真的,是符合客观事实的,是符合 AI 本身可能会有的概率的,那么这个观念是合理的。但是问题就在于这种忧虑性的观点是比 AI 本身的威胁概率、AI 本身威胁的认知可能性高的,我方只需要证明这个评估值是比 AI 本身威胁率高即可。
一件事情的发生,第一个取决于事物本身的性质和特点,第二个是外界环境的条件与控制。所以 AI 是否会威胁人类以及 AI 的威胁概率有多高,第一个取决于 AI 本身的能力高低,第二个取决于外界环境对 AI 的条件控制程度。我们当前看来,人工智能本身的能力仍有缺陷,仍然没有解决价值判断问题、意识问题,甚至连计算和技术也会有偏差,这就是大家所说的“人工智障”问题。AI 的相关研究显示,一个负责任的人工智能严重缺乏标准化,AI 自身的能力并没有达到一个有很大概率威胁人类的程度,其目前本身的技术缺陷决定了真实的危险概率并没有我们想象的那么高。其次,由于人工智能是新兴产业,所以过去的一段时间缺乏相应的法律政策的相关条例,这在一定程度上使评估者开始对外界调控失去信心,降低了对外界调控的评估值。而实际上,外界调控能力是在提高的,如 2023 年 12 月 12 日,联合国秘书长设立人工智能咨询机构,发布了以联合国的人工智能和治理 2023 年全球立法传书,其中提到人工智能的次数有 2145 次,几乎是上一年的两倍。仅去年一年,人工智能相关法律元素就增长了 56.3%。所以评估者对外界环境的调控能力的评估值是低于实际能力值的。
尊敬的各位观众朋友们,大家好!今天我们在这里讨论人工智能威胁人类的可能性是正在被高估还是被低估。我方认为人工智能威胁人类的可能性被高估了。
我们现在看到大部分已知作品,如文学作品、像古代文学以及科幻电影《末日无声狂》、相关小说,甚至是网络上随处可见的悲观评论,都反映出人们对人工智能危险的过度担忧,这表明大众认为人工智能威胁人类的可能性很高这一事实。同时,辩题中正在被高估,意味着这是基于过去已有的数据和事实得出的结论。
根据 2024 年人工智能公众认知调查报告,目前来看,有 49.1%的人认为 AI 未来会在某些方面取代人类,有 63.1%的人认为 AI 经济发展可能会失控。美国民众对人工智能态度的电闻报告显示,57%的民众表示 AI 会加大高收入与低收入者的差距。2014 年 7 月斯南部大学发表的人工智能指数表明,AI 产品和服务的年增长率从 2022 年提升到 13%,有 55%的人感到非常紧张。小米集团人工智能实验室主任王斌在 2024 年的一个企业家论坛中说:“天天科技革命,日日文艺复兴,每天都很焦虑。”从这些事实和数据来看,现在有一部分甚至大部分评估者都已经认为人工智能威胁人类的可能性非常大。可能性被定义为概率,也就是说,技术数据显示大部分评估者都已经认为人工智能有很大的概率威胁到人类。如果这种担忧是真的,是符合客观事实的,是符合 AI 本身可能会有的概率的,那么这个观念是合理的。但是问题就在于这种忧虑性的观点是比 AI 本身的威胁概率、AI 本身威胁的认知可能性高的,我方只需要证明这个评估值是比 AI 本身威胁率高即可。
一件事情的发生,第一个取决于事物本身的性质和特点,第二个是外界环境的条件与控制。所以 AI 是否会威胁人类以及 AI 的威胁概率有多高,第一个取决于 AI 本身的能力高低,第二个取决于外界环境对 AI 的条件控制程度。我们当前看来,人工智能本身的能力仍有缺陷,仍然没有解决价值判断问题、意识问题,甚至连计算和技术也会有偏差,这就是大家所说的“人工智障”问题。AI 的相关研究显示,一个负责任的人工智能严重缺乏标准化,AI 自身的能力并没有达到一个有很大概率威胁人类的程度,其目前本身的技术缺陷决定了真实的危险概率并没有我们想象的那么高。其次,由于人工智能是新兴产业,所以过去的一段时间缺乏相应的法律政策的相关条例,这在一定程度上使评估者开始对外界调控失去信心,降低了对外界调控的评估值。而实际上,外界调控能力是在提高的,如 2023 年 12 月 12 日,联合国秘书长设立人工智能咨询机构,发布了以联合国的人工智能和治理 2023 年全球立法传书,其中提到人工智能的次数有 2145 次,几乎是上一年的两倍。仅去年一年,人工智能相关法律元素就增长了 56.3%。所以评估者对外界环境的调控能力的评估值是低于实际能力值的。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
综上所述,我方认为人工智能威胁人类的可能性被高估了。
正方观点认为,就人工智能本身而言,其性质未达到可被高估的程度。另外,外部环境对人工智能的发展虽有一定规范,如通过立法和一些制度来规制,使其在正常范围内发展,但我们可就此两点对正方进行反驳。首先,虽当下人工智能技术未达到令人担忧的程度,但不能代表未来其技术不会发展,从而使我们低估其威胁。我们所说的低估,是对其未来发展趋势的一种预测,基于此预测,应思考如何去规制它。我们应知晓该技术会不断发展。其次,就外部环境而言,虽目前规制效果较好,但不能代表法律基础能跟上技术发展的步伐。所以,我们认为应重视人工智能威胁人类的可能性。
下面有请反方一辩开篇立论。
正方观点认为,就人工智能本身而言,其性质未达到可被高估的程度。另外,外部环境对人工智能的发展虽有一定规范,如通过立法和一些制度来规制,使其在正常范围内发展,但我们可就此两点对正方进行反驳。首先,虽当下人工智能技术未达到令人担忧的程度,但不能代表未来其技术不会发展,从而使我们低估其威胁。我们所说的低估,是对其未来发展趋势的一种预测,基于此预测,应思考如何去规制它。我们应知晓该技术会不断发展。其次,就外部环境而言,虽目前规制效果较好,但不能代表法律基础能跟上技术发展的步伐。所以,我们认为应重视人工智能威胁人类的可能性。
下面有请反方一辩开篇立论。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
亲爱的对方辩友大家好!刚刚我方二辩对对方辩题做了质询,主要提及在 AI 发展的潜力及外界限制方面。我方认为,AI 目前发展的潜力空间是存在的,但另一方面,由于法律存在缺口问题,所以目前的监管和安全处于高位风险。
首先,我方认为人工智能是通过计算机算法使机器人模拟思维过程和智能行为的科学,这一努力成为推动社会进步的重要力量,被广泛应用于自动驾驶、医疗健康、金融服务、教育等各个领域,比如个性化医疗、AI 辅助诊断等。所以我们可以很明显地发现,AI 早已不再是单纯意义上的聊天机器人或语言模型。
与此同时,广泛的应用必然会带来胜负的风险。一旦 AI 出现问题,带来的将是社会的全面风险。AI 对人类存在的威胁有两个突出表现:第一个是 AI 技术问题的产生,也就是说 AI 在决策预测和自动化操作方面的能力会越来越强,哪怕人类作为创造者也无法理解 AI 运作的每个细节,这对使用者来说风险增加;第二个是人工智能会导致社会结构的问题,发达国家经济发展不平衡,斯坦福大学在今年(2024 年)关于人工智能的研究中指出,在某些市场分类中,AI 表现超过人类。这意味着在知识领域,如果企业过度依赖 AI,可能会导致一些问题。而且报告指出,AI 的应用能够提高生产效率 40%,那么到 2035 年,发达国家的年均增长率平均每三年就会有显著提升。不难看出,目前依然是发达国家在 AI 发展中占据主导地位,广大发展中国家难以跟进,这一差距的进一步拉大必然会引发歧视,并会引发社会混乱和国际秩序混乱。然而,这些问题却被外界忽视和低估。
如果对待潜在的风险的严重性或者可能性认识不足,工作准备不够充分,将会引发危机。我方认为人工智能威胁人类的可能性正在被低估。如果工作给员工的冲击过大,那么了解 AI 的人会不会越来越多,职业是否会被 AI 取代?如果准备充分,完善的法律体系能够建立,如果建立有利,对用户和 AI 监管的法律仍然需要依靠企业资质认证。如果监管有效,为何欧盟的相关机构要解散,成立一个负责把控联盟安全的委员会?马克龙在社交平台上进行了直播访谈,提到了这一问题。可是目前大部分人却过度依赖 AI,应该何时进行考核和工作任务的安排呢?总之,这种低估将会导致我们忽视发展中的潜在风险,无法实施有效的应对措施。
亲爱的对方辩友大家好!刚刚我方二辩对对方辩题做了质询,主要提及在 AI 发展的潜力及外界限制方面。我方认为,AI 目前发展的潜力空间是存在的,但另一方面,由于法律存在缺口问题,所以目前的监管和安全处于高位风险。
首先,我方认为人工智能是通过计算机算法使机器人模拟思维过程和智能行为的科学,这一努力成为推动社会进步的重要力量,被广泛应用于自动驾驶、医疗健康、金融服务、教育等各个领域,比如个性化医疗、AI 辅助诊断等。所以我们可以很明显地发现,AI 早已不再是单纯意义上的聊天机器人或语言模型。
与此同时,广泛的应用必然会带来胜负的风险。一旦 AI 出现问题,带来的将是社会的全面风险。AI 对人类存在的威胁有两个突出表现:第一个是 AI 技术问题的产生,也就是说 AI 在决策预测和自动化操作方面的能力会越来越强,哪怕人类作为创造者也无法理解 AI 运作的每个细节,这对使用者来说风险增加;第二个是人工智能会导致社会结构的问题,发达国家经济发展不平衡,斯坦福大学在今年(2024 年)关于人工智能的研究中指出,在某些市场分类中,AI 表现超过人类。这意味着在知识领域,如果企业过度依赖 AI,可能会导致一些问题。而且报告指出,AI 的应用能够提高生产效率 40%,那么到 2035 年,发达国家的年均增长率平均每三年就会有显著提升。不难看出,目前依然是发达国家在 AI 发展中占据主导地位,广大发展中国家难以跟进,这一差距的进一步拉大必然会引发歧视,并会引发社会混乱和国际秩序混乱。然而,这些问题却被外界忽视和低估。
如果对待潜在的风险的严重性或者可能性认识不足,工作准备不够充分,将会引发危机。我方认为人工智能威胁人类的可能性正在被低估。如果工作给员工的冲击过大,那么了解 AI 的人会不会越来越多,职业是否会被 AI 取代?如果准备充分,完善的法律体系能够建立,如果建立有利,对用户和 AI 监管的法律仍然需要依靠企业资质认证。如果监管有效,为何欧盟的相关机构要解散,成立一个负责把控联盟安全的委员会?马克龙在社交平台上进行了直播访谈,提到了这一问题。可是目前大部分人却过度依赖 AI,应该何时进行考核和工作任务的安排呢?总之,这种低估将会导致我们忽视发展中的潜在风险,无法实施有效的应对措施。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
判断人工智能威胁人类的可能性是否被低估的标准是:人们对人工智能发展中潜在风险的认识和应对措施是否充分。
我方认为人工智能威胁人类的可能性正在被低估,人们对其潜在风险的认识不足,应对措施不够充分,可能导致忽视发展中的潜在风险,无法实施有效应对措施。
首先,对方一辩提出我们是因准备不充足,所以导致可能性被低估。那么请问,这准备充足与否和可能性有必然联系吗?以法律条例的建立为例,2022 年生成式 AI 推出后,其带来的颠覆性改变,我们目前的生活中并没有一个完善的防范机制。包括欧盟今年推出的安全监管和例外,也无法得到有效执行,且今年 2024 年底可能只是针对特定 AI 智能物能够取得有效监管。但是准备不充分,只能说明我们防范意识不够充足,而我们的问题是人工智能对人类危害的可能性,是对人的伤害,而对方提到的都是 AI 是否保护人,并未提到伤害人的大小。包括我们提到了它对个人以及国家发展的影响,这已经表明了我们所谓的可能性并非是危害。我们讨论的是人工智能对人类产生威胁的可能性,因为其威胁较大,但目前我们的准备工作不足,所以进一步推导得出我们目前对其发展的环境正处于一个初步的阶段。
首先,对方一辩提出我们是因准备不充足,所以导致可能性被低估。那么请问,这准备充足与否和可能性有必然联系吗?以法律条例的建立为例,2022 年生成式 AI 推出后,其带来的颠覆性改变,我们目前的生活中并没有一个完善的防范机制。包括欧盟今年推出的安全监管和例外,也无法得到有效执行,且今年 2024 年底可能只是针对特定 AI 智能物能够取得有效监管。但是准备不充分,只能说明我们防范意识不够充足,而我们的问题是人工智能对人类危害的可能性,是对人的伤害,而对方提到的都是 AI 是否保护人,并未提到伤害人的大小。包括我们提到了它对个人以及国家发展的影响,这已经表明了我们所谓的可能性并非是危害。我们讨论的是人工智能对人类产生威胁的可能性,因为其威胁较大,但目前我们的准备工作不足,所以进一步推导得出我们目前对其发展的环境正处于一个初步的阶段。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方二辩对反方一辩的观点进行质询。正方二辩指出反方一辩认为准备不充足导致可能性被低估,并质疑准备充足与否与可能性的必然联系。正方二辩以 2022 年生成式 AI 推出后生活中缺乏完善防范机制,以及欧盟今年推出的安全监管和例外无法有效执行且范围有限为例,说明准备不充分只能表明防范意识不足。正方二辩强调问题是人工智能对人类危害的可能性,而反方提到的是 AI 是否保护人而非伤害人,包括提到对个人及国家发展的影响,表明此可能性并非危害。正方二辩认为人工智能威胁较大,但目前准备工作不足,进而推导出现阶段对其发展的环境处于初步阶段。
在刚刚正方一辩与反方一辩的论述中,都提及了人工智能会给我们的社会带来的好处以及危害。我们可以意识到,人工智能本身目前能够给我们带来一些优势,但也要意识到,若该技术不加以防范,可能会超越人类的控制,这便是我们所说的其对我们的威胁正在被低估。因为技术存在大量我们无法预知的情况。另一点是对于外部环境,关于外部的监管是否能有效管制 AI 的问题,我们认为其并未得到良好的管控。正因如此,才导致了现今诸多的问题。正是由于其受到了低估,所以没有得到很好的管控,所以现在 AI 引发了诸多问题。感谢反方二辩的分享。
在刚刚正方一辩与反方一辩的论述中,都提及了人工智能会给我们的社会带来的好处以及危害。我们可以意识到,人工智能本身目前能够给我们带来一些优势,但也要意识到,若该技术不加以防范,可能会超越人类的控制,这便是我们所说的其对我们的威胁正在被低估。因为技术存在大量我们无法预知的情况。另一点是对于外部环境,关于外部的监管是否能有效管制 AI 的问题,我们认为其并未得到良好的管控。正因如此,才导致了现今诸多的问题。正是由于其受到了低估,所以没有得到很好的管控,所以现在 AI 引发了诸多问题。感谢反方二辩的分享。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
首先,我方一辩指出,网上人们对于人工智能危害的可能性存在相关疑虑,对其前景和潜在问题感到担忧,且人工智能本身存在很大缺陷,这些都体现了人工智能对人类的危害,说明人工智能威胁人类的可能性被高估是我方的观点。而对方认为,监管不利、准备不充分,人工智能本身应用广泛且对社会整体利益具有一定影响力,以此认为这是对人工智能威胁人类的可能性的低估。然而,这些观点建立在未知的未来,而对于未知我们都不太了解。但未知会将人的恐惧放大,这会导致我们对事情产生负担,这便是我方的观点。
首先,我方一辩指出,网上人们对于人工智能危害的可能性存在相关疑虑,对其前景和潜在问题感到担忧,且人工智能本身存在很大缺陷,这些都体现了人工智能对人类的危害,说明人工智能威胁人类的可能性被高估是我方的观点。而对方认为,监管不利、准备不充分,人工智能本身应用广泛且对社会整体利益具有一定影响力,以此认为这是对人工智能威胁人类的可能性的低估。然而,这些观点建立在未知的未来,而对于未知我们都不太了解。但未知会将人的恐惧放大,这会导致我们对事情产生负担,这便是我方的观点。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
我认为对方辩友对我方观点存在一定误解。首先,我方强调法律具有滞后性,当前 AI 的发展已远远超出人类可预估的程度,我们无法对后续情况进行有效监管。其次,坦白讲,在美国这个拥有几乎全部头部大型顶尖科技的国家,几乎所有企业都依靠自身制度搭建安全框架。例如,OpenAI 在前一段时间甚至解散了其安全团队。而对方所说的一些条例,虽有时效性,却形如“挂羊头卖狗肉”。比如欧盟的条例,称具有军事目的的科学研究和所有开源模型不在其监管范围内。也就是说,对方所谓的监管,对于那些真正可能对人类构成威胁的东西,已将部分排除在监管体系之外,这便是其监管不充分之处。所以,如我方刚才所述,存在一定问题。
此外,我补充一下我方二辩提到的民众恐慌问题。首先,对方论证不足,根本未给出究竟多少人或怎样的情况才算是恐慌。关于媒体夸大事实,或是故意采用标题党等行为,这属于传播学问题。甚至有些媒体称 AI 是万能的,那么这究竟达到何种程度呢?即便民众真的恐慌,那恐慌的内容是什么呢?即人工智能究竟会发展成何种模样,我们民众几乎毫无头绪。
我认为对方辩友对我方观点存在一定误解。首先,我方强调法律具有滞后性,当前 AI 的发展已远远超出人类可预估的程度,我们无法对后续情况进行有效监管。其次,坦白讲,在美国这个拥有几乎全部头部大型顶尖科技的国家,几乎所有企业都依靠自身制度搭建安全框架。例如,OpenAI 在前一段时间甚至解散了其安全团队。而对方所说的一些条例,虽有时效性,却形如“挂羊头卖狗肉”。比如欧盟的条例,称具有军事目的的科学研究和所有开源模型不在其监管范围内。也就是说,对方所谓的监管,对于那些真正可能对人类构成威胁的东西,已将部分排除在监管体系之外,这便是其监管不充分之处。所以,如我方刚才所述,存在一定问题。
此外,我补充一下我方二辩提到的民众恐慌问题。首先,对方论证不足,根本未给出究竟多少人或怎样的情况才算是恐慌。关于媒体夸大事实,或是故意采用标题党等行为,这属于传播学问题。甚至有些媒体称 AI 是万能的,那么这究竟达到何种程度呢?即便民众真的恐慌,那恐慌的内容是什么呢?即人工智能究竟会发展成何种模样,我们民众几乎毫无头绪。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
我方认为,通过不断完善法律,有诸多例子表明我们的法律在不断进步。然而,尽管农业法律具有一定性能,但在 2022 年,对于我们目前的立法体系和立法规范,却并未实现快速的、显著的建立。这可能是因为人们对迭代创新的体验重视程度不足。人工智能近两年发展迅速,导致一些与我们相关的法律形势未被人们充分记住。从 2015 年、2016 年开始,如果人类有钱去微信银行提现等操作,这是否表明我们对某些方面不够重视呢?实际上,人工智能服务安全技术受到了国家及整个地球的一定程度的重视,我们也生成了很多法律对其进行调控。然而,我们对人工智能威胁的认识表明,我们的应对能力还有待提高,我们正在想办法应对这一新型挑战。我方强调,可能因为推动相关建议的可能性,导致我们的立法速度不快,或者说我们没有立即跟进出台相关措施。但在经过一些情况后,我们已经开始正式进行立法了。
我方认为,通过不断完善法律,有诸多例子表明我们的法律在不断进步。然而,尽管农业法律具有一定性能,但在 2022 年,对于我们目前的立法体系和立法规范,却并未实现快速的、显著的建立。这可能是因为人们对迭代创新的体验重视程度不足。人工智能近两年发展迅速,导致一些与我们相关的法律形势未被人们充分记住。从 2015 年、2016 年开始,如果人类有钱去微信银行提现等操作,这是否表明我们对某些方面不够重视呢?实际上,人工智能服务安全技术受到了国家及整个地球的一定程度的重视,我们也生成了很多法律对其进行调控。然而,我们对人工智能威胁的认识表明,我们的应对能力还有待提高,我们正在想办法应对这一新型挑战。我方强调,可能因为推动相关建议的可能性,导致我们的立法速度不快,或者说我们没有立即跟进出台相关措施。但在经过一些情况后,我们已经开始正式进行立法了。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方三辩提出了一系列关于法律与人工智能的观点,试图说明我们对人工智能威胁的认识和应对存在问题。具体内容如下:
好,我想问一下您的观点。您认为影视炒作引起民众担忧,这就意味着人工智能威胁人类的可能性被高估了。那么我想请问,恐慌与高估这两者有因果关系吗?答案是没有。我再补充一点,您恐慌考试并不代表考试很难,所以您恐慌并不代表人工智能威胁人类的可能性被高估了,反而我认为这是被低估了。不叫平凡论证。假如恐慌就是高估的话,那么我觉得这种恐慌在一定程度上是有一定现实依据的。科幻作品都是反映现实的,能够引起恐慌,说明其本身有一定的道理,也说明民众比较认同人工智能威胁人类的可能性是被低估了的。
反正现实情况是,比如我们看科幻作品当中所描写的,比如人工智能毁灭人类之类的,这也反映了其实人类内心对人工智能是恐惧的,而这种恐惧表明人工智能的能力是被高估的,而不是被低估的。
我刚刚的问题是恐慌跟高估有无因果关系,您的回答是有。而我说的是人工智能对人类的威胁可能性比较低。那好,我再问第二个问题,您说人工智能有缺陷,它的威胁比较小,但是我所了解到的资料是人工智能已经应用于实战了。在俄罗斯,俄罗斯已经将战略机器人部署在前线;在巴以冲突中,以色列已经用 AI 来识别目标,并且刺杀了哈马斯的领导人,请问该如何解释您所说的人工智能有缺陷、威胁小这一观点呢?我论述的是人们评估人工智能威胁人类的可能性比其客观的威胁程度要高。也就是说,即使它实际威胁人类的可能性是 90%,但现在我们认为它是 90%几或者 99.9%,只要比它客观的威胁程度高,那么就叫高估,这并不是否认这个数据是高还是低,这跟您所说的没有关系。然后我想问第二个问题,您说它的威胁小就是高估,那么我认为它其实是被低估了。我再举个例子,2023 年美国 AI 无关机攻击了吗?
好,我想问一下您的观点。您认为影视炒作引起民众担忧,这就意味着人工智能威胁人类的可能性被高估了。那么我想请问,恐慌与高估这两者有因果关系吗?答案是没有。我再补充一点,您恐慌考试并不代表考试很难,所以您恐慌并不代表人工智能威胁人类的可能性被高估了,反而我认为这是被低估了。不叫平凡论证。假如恐慌就是高估的话,那么我觉得这种恐慌在一定程度上是有一定现实依据的。科幻作品都是反映现实的,能够引起恐慌,说明其本身有一定的道理,也说明民众比较认同人工智能威胁人类的可能性是被低估了的。
反正现实情况是,比如我们看科幻作品当中所描写的,比如人工智能毁灭人类之类的,这也反映了其实人类内心对人工智能是恐惧的,而这种恐惧表明人工智能的能力是被高估的,而不是被低估的。
我刚刚的问题是恐慌跟高估有无因果关系,您的回答是有。而我说的是人工智能对人类的威胁可能性比较低。那好,我再问第二个问题,您说人工智能有缺陷,它的威胁比较小,但是我所了解到的资料是人工智能已经应用于实战了。在俄罗斯,俄罗斯已经将战略机器人部署在前线;在巴以冲突中,以色列已经用 AI 来识别目标,并且刺杀了哈马斯的领导人,请问该如何解释您所说的人工智能有缺陷、威胁小这一观点呢?我论述的是人们评估人工智能威胁人类的可能性比其客观的威胁程度要高。也就是说,即使它实际威胁人类的可能性是 90%,但现在我们认为它是 90%几或者 99.9%,只要比它客观的威胁程度高,那么就叫高估,这并不是否认这个数据是高还是低,这跟您所说的没有关系。然后我想问第二个问题,您说它的威胁小就是高估,那么我认为它其实是被低估了。我再举个例子,2023 年美国 AI 无关机攻击了吗?
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
首先,已经存在如此大的风险,然而此前难道知晓吗?这难道不是表明其被低估了吗?
接下来我阐述一下风险被低估的三个原因。第一个,从社会层面来看,人工智能会对弱势群体产生影响。有钱人拥有 AI,这会导致一些低门槛工作的功能失业,进而拉大贫富差距。在国家之间,发达国家配备 AI 技术,他们能够利用这一技术达成自身目的,从而使我国军事经济陷入被动,难道此前有人想到过这些吗?
第二个原因,正如我们之前提到的黑箱问题。以前写代码时知道如何执行,而现在或许只知道结果,却不了解其过程。这可能导致结果失控,就如同我们所提及的美军 AI 无人机以及其工作操作人员的例子,当知晓结果时,往往已经为时已晚。
第三个原因是军事应用。在军事上,人工智能被应用于战争方面,人类倾向于利用尖端科技来互相伤害,人工智能已经被用于杀人。
在我方看来,风险被大大低估了。谢谢。
首先,已经存在如此大的风险,然而此前难道知晓吗?这难道不是表明其被低估了吗?
接下来我阐述一下风险被低估的三个原因。第一个,从社会层面来看,人工智能会对弱势群体产生影响。有钱人拥有 AI,这会导致一些低门槛工作的功能失业,进而拉大贫富差距。在国家之间,发达国家配备 AI 技术,他们能够利用这一技术达成自身目的,从而使我国军事经济陷入被动,难道此前有人想到过这些吗?
第二个原因,正如我们之前提到的黑箱问题。以前写代码时知道如何执行,而现在或许只知道结果,却不了解其过程。这可能导致结果失控,就如同我们所提及的美军 AI 无人机以及其工作操作人员的例子,当知晓结果时,往往已经为时已晚。
第三个原因是军事应用。在军事上,人工智能被应用于战争方面,人类倾向于利用尖端科技来互相伤害,人工智能已经被用于杀人。
在我方看来,风险被大大低估了。谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
强调的是 AI 会带来的危害如何,AI 因其危害怎样,AI 是它有怎样的情况,但是我们今天的问题是否是关于 AI 的危害呢?AI 的危害如何,AI 看 AI 的危态剧是什么,我们关心吗?我们关注的是现在我们大部分人对 AI 危险的可能性的看法。所以,对于电影,第一个就是分析了从一开始它的内容就一直引导 AI 的危害是怎样,AI 未来的情况如何。其次,未来这个事情,对方辩友的论点一直建立在未来的基础上,他们反复使用“一旦……”“如果……”。然后第三个问题,因为未知难道就一定是,难道未知就一定会被低估吗?难道未知不是应该被高估吗?所以说对方辩友的论点是建立在未知这个假设的事情上面,没有现实的事实依据。记住,我用更多三辩的话来回应你的问题。安排内力非常好,非常有力地证明了我方的观点。这不说国家没有想到计算机会侵犯隐私,国家没有想到,这不是一种低估吗?然后还有刚才又说国家在这些战争当中,他们没有想到人工智能会做这件事情,所以这不也是一种低估吗?最后给了我们两个有力的例子。
首先,我承认您说的确实是事实,但是我们讨论的是可能性是否被低估还是高估。当人工智能的概念提出的时候,就已经有人把它想象到它必然会应用在战争领域上,而这个事情只不过是现在发生了而已。我们所讨论的可能性是对今后的高估。在这件事情发生以前,人们一直以为,应用于战争可能是一种笑话,有可能是不可能发生的事情,而一开始我们认为人工智能应用于战争的可能性是必然发生的,而只是在现实情况下,从原本的一种设想,变成了 98%、99%,甚至 99.9%,而这相对于依赖度也算是被高估,这个比例相当于这个零点 99%点几,也算是被高估,对方应该怎么回答呢?您觉得呢?
人工智能自发展开始到现在,在人工智能初始阶段就已有人提出人工智能必然会应用于战争领域,而这件事情在您说的事情之前发生过吗?这相当于相比于之前不是相当于被包括了吗?
我觉得对方辩友在强调的一点,说我方一直在强调威胁的问题,说我方偏离了。我方强调威胁是想说,举个例子吧,人类简史的作者尤瓦尔·赫拉利,大家都知道在他的演讲当中已经提到人类对于 AI 的恐惧,自 20 世纪计算机时代开始以来,人们就对它一直怀有恐惧,直到今日。刚才我方举的那些威胁的例子一直在发生,这事实证明这一恐惧丝毫没有影响 AI 的发展,所以我方举这些威胁的例子,就是为了证明 AI 对人类威胁的可能性一直在被低估,就是比如说有人提醒你这么做是不对的,但是你说我拒绝,我不停,这恰恰就是一种最大的不顾。
那在刚才您这套逻辑里,高度在哪呢?那是因为我们没有意识到这些问题,然后发生了一些问题。这是新的观点。
我来回答一下对方辩友说的这个问题。对方辩友的逻辑是人类先有一个预测,然后发生了一些问题,然后人类提出了一些解决方案,但是我方强调的是,一方面是出现问题之后人类再出现解决方案,这是一种低估。另外,人工智能到现在目前来说已经变成了不可控的一个预测了,人工智能发展的节点在不断提前,在 12 年中国 GDP 就提出推出了这个分水点,AI 发展就已经进入了新阶段,越来越多的 AI 紧急会议与公司声明,AI 发展速度已经远超能力阈值,即 AI 可能会变得无法预测而无法控制。而有“AI 教父”之称的哈萨比斯通过算法可以极大降低对数据生成的可解释性,这就已经表明,我们已经很难去预测了,这个事情,就是人工智能还有可能会通过自我的训练而不断改变,这就是您方所说的,我们对它有一个预测,然后出现问题了,出现解决方案了,这是您的高度吗?这恰恰就是一种低估。
接着我上面的观点来说,23 年报告中预测说 AI 到 2016 年有 50%的可能性实现自动化,但这比 22 年的预测提早了 50 多年,所以哪怕是当代对于 AI 危险的认知,也是失败的。所以说为什么是因为您的未知而让您的认知变了之后呢?就是我们说的这种低估,就像以前的人,他根本就不可能预想到现在的人既能居然能坐上飞机,还能飞上天,所以为什么说您方认为未知带来的是高估,而不是一种低估呢?您怎么知道您现在认知到的 AI 不是几年前的结果呢?这就是我方说的第一点,即低估。谢谢。
强调的是 AI 会带来的危害如何,AI 因其危害怎样,AI 是它有怎样的情况,但是我们今天的问题是否是关于 AI 的危害呢?AI 的危害如何,AI 看 AI 的危态剧是什么,我们关心吗?我们关注的是现在我们大部分人对 AI 危险的可能性的看法。所以,对于电影,第一个就是分析了从一开始它的内容就一直引导 AI 的危害是怎样,AI 未来的情况如何。其次,未来这个事情,对方辩友的论点一直建立在未来的基础上,他们反复使用“一旦……”“如果……”。然后第三个问题,因为未知难道就一定是,难道未知就一定会被低估吗?难道未知不是应该被高估吗?所以说对方辩友的论点是建立在未知这个假设的事情上面,没有现实的事实依据。记住,我用更多三辩的话来回应你的问题。安排内力非常好,非常有力地证明了我方的观点。这不说国家没有想到计算机会侵犯隐私,国家没有想到,这不是一种低估吗?然后还有刚才又说国家在这些战争当中,他们没有想到人工智能会做这件事情,所以这不也是一种低估吗?最后给了我们两个有力的例子。
首先,我承认您说的确实是事实,但是我们讨论的是可能性是否被低估还是高估。当人工智能的概念提出的时候,就已经有人把它想象到它必然会应用在战争领域上,而这个事情只不过是现在发生了而已。我们所讨论的可能性是对今后的高估。在这件事情发生以前,人们一直以为,应用于战争可能是一种笑话,有可能是不可能发生的事情,而一开始我们认为人工智能应用于战争的可能性是必然发生的,而只是在现实情况下,从原本的一种设想,变成了 98%、99%,甚至 99.9%,而这相对于依赖度也算是被高估,这个比例相当于这个零点 99%点几,也算是被高估,对方应该怎么回答呢?您觉得呢?
人工智能自发展开始到现在,在人工智能初始阶段就已有人提出人工智能必然会应用于战争领域,而这件事情在您说的事情之前发生过吗?这相当于相比于之前不是相当于被包括了吗?
我觉得对方辩友在强调的一点,说我方一直在强调威胁的问题,说我方偏离了。我方强调威胁是想说,举个例子吧,人类简史的作者尤瓦尔·赫拉利,大家都知道在他的演讲当中已经提到人类对于 AI 的恐惧,自 20 世纪计算机时代开始以来,人们就对它一直怀有恐惧,直到今日。刚才我方举的那些威胁的例子一直在发生,这事实证明这一恐惧丝毫没有影响 AI 的发展,所以我方举这些威胁的例子,就是为了证明 AI 对人类威胁的可能性一直在被低估,就是比如说有人提醒你这么做是不对的,但是你说我拒绝,我不停,这恰恰就是一种最大的不顾。
那在刚才您这套逻辑里,高度在哪呢?那是因为我们没有意识到这些问题,然后发生了一些问题。这是新的观点。
我来回答一下对方辩友说的这个问题。对方辩友的逻辑是人类先有一个预测,然后发生了一些问题,然后人类提出了一些解决方案,但是我方强调的是,一方面是出现问题之后人类再出现解决方案,这是一种低估。另外,人工智能到现在目前来说已经变成了不可控的一个预测了,人工智能发展的节点在不断提前,在 12 年中国 GDP 就提出推出了这个分水点,AI 发展就已经进入了新阶段,越来越多的 AI 紧急会议与公司声明,AI 发展速度已经远超能力阈值,即 AI 可能会变得无法预测而无法控制。而有“AI 教父”之称的哈萨比斯通过算法可以极大降低对数据生成的可解释性,这就已经表明,我们已经很难去预测了,这个事情,就是人工智能还有可能会通过自我的训练而不断改变,这就是您方所说的,我们对它有一个预测,然后出现问题了,出现解决方案了,这是您的高度吗?这恰恰就是一种低估。
接着我上面的观点来说,23 年报告中预测说 AI 到 2016 年有 50%的可能性实现自动化,但这比 22 年的预测提早了 50 多年,所以哪怕是当代对于 AI 危险的认知,也是失败的。所以说为什么是因为您的未知而让您的认知变了之后呢?就是我们说的这种低估,就像以前的人,他根本就不可能预想到现在的人既能居然能坐上飞机,还能飞上天,所以为什么说您方认为未知带来的是高估,而不是一种低估呢?您怎么知道您现在认知到的 AI 不是几年前的结果呢?这就是我方说的第一点,即低估。谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
首先,我非常感谢整场辩论比赛中对方辩友的表现,但仔细思考后,仍存在偏颇之处。我们主要考虑两个问题。整场讨论下来,第一个是对方辩友提及的民众恐慌。在此,我再次重申,有人提醒但拒绝听从,这是最大的一种恐慌。AI 发展至今,已有许多实质内容可以证明,我方刚才已提到,在此不多赘述。
对方认为我方将法律监管问题理解偏了,我方想说,法律监管并非杞人忧天、固步自封,而是希望通过这种形式让人们有更清晰的认知,从而实现人工智能更好的发展。不知对方是否听过魔障文化这个词,硅谷创业者骨子里坚信技术可以改变万物,认为所有问题并非技术本身的问题,而是技术尚未达到某种领先程度,只要做出这种所谓的魔障,轻轻一挥,所有问题便可解决,这便是反技术监管的达成。
说实话,虽然我不想提及人性问题,但人类本身就倾向于利用自身优势做出有害之事,监督设计更是不用多说。因此,如何纠正这一低估的事实是人类共同的话题,这也是我方今天强调法律监管的原因。
我再举一个例子,美国空军人工智能测试负责人汉密尔顿提到,在模拟测试中,AI 无人机团通过攻击通信卡队中队与联络员的操作,夺取了测试的自主权。而 AI 教父约书亚发现,AI 巨头中仅有一家支持 SB1047 档案,该档案是对 AI 进行一些监管。真正能够对人类起到威胁的东西,已被排除在这一监管之外,所以我们对其风险无法预估。
综上,我方认为人工智能威胁人类的可能性正在被低估。我方反复强调,这并非是一种悲观的想法,也不是一味抗拒人工智能继续发展,而是通过提高人类的意识,扭转这一低估的事实,让我们认识到我们正在低估人工智能威胁人类的可能性,并采取更有效的措施,推动人工智能更快、更好、更强地发展。谢谢。
首先,我非常感谢整场辩论比赛中对方辩友的表现,但仔细思考后,仍存在偏颇之处。我们主要考虑两个问题。整场讨论下来,第一个是对方辩友提及的民众恐慌。在此,我再次重申,有人提醒但拒绝听从,这是最大的一种恐慌。AI 发展至今,已有许多实质内容可以证明,我方刚才已提到,在此不多赘述。
对方认为我方将法律监管问题理解偏了,我方想说,法律监管并非杞人忧天、固步自封,而是希望通过这种形式让人们有更清晰的认知,从而实现人工智能更好的发展。不知对方是否听过魔障文化这个词,硅谷创业者骨子里坚信技术可以改变万物,认为所有问题并非技术本身的问题,而是技术尚未达到某种领先程度,只要做出这种所谓的魔障,轻轻一挥,所有问题便可解决,这便是反技术监管的达成。
说实话,虽然我不想提及人性问题,但人类本身就倾向于利用自身优势做出有害之事,监督设计更是不用多说。因此,如何纠正这一低估的事实是人类共同的话题,这也是我方今天强调法律监管的原因。
我再举一个例子,美国空军人工智能测试负责人汉密尔顿提到,在模拟测试中,AI 无人机团通过攻击通信卡队中队与联络员的操作,夺取了测试的自主权。而 AI 教父约书亚发现,AI 巨头中仅有一家支持 SB1047 档案,该档案是对 AI 进行一些监管。真正能够对人类起到威胁的东西,已被排除在这一监管之外,所以我们对其风险无法预估。
综上,我方认为人工智能威胁人类的可能性正在被低估。我方反复强调,这并非是一种悲观的想法,也不是一味抗拒人工智能继续发展,而是通过提高人类的意识,扭转这一低估的事实,让我们认识到我们正在低估人工智能威胁人类的可能性,并采取更有效的措施,推动人工智能更快、更好、更强地发展。谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
我方认为人工智能威胁人类的可能性正在被低估,强调这并非悲观想法或抗拒人工智能发展,而是要提高人类意识,采取有效措施推动人工智能更好发展。
辩题为:人工智能威胁人类的可能性正在被高估 vs 人工智能威胁人类的可能性正在被低估
反方四辩·总结陈词
我的印象票给的是正方。我给票的理由是,我自己的判断标准中,印象票是根据预定法运价制定的。环节票是根据双方对自己论点的推进以及论证任务的完成程度而定,最后的决胜票在环节票不成的情况下,是根据环节票走,如果环节票数相同,则会跟着影响票。
首先说一下为什么我会把印象票给正方。双方的立论都有一定的框架。正方在对 AI 的定义上,至少我觉得不管是从开篇还是后面的环节中,对 AI 的定义没什么太大分歧。双方最大的区别在于判断标准。正方认为评估高于实际就叫做高估,反之叫做低估。而反方的判断标准我不太明确。正方开出的两个论点,一个是应从两个角度去判定,一个是 AI 本身的能力,一个是人类的调节能力。反方的两个论点,一个是黑箱有一定的不可控性,另一个是 AI 会使贫富差距加大,对于准备不足的解释是目前问题很多,希望通过实证方式告诉大家准备不足。
在一辩稿中,对于病例大家可能有一定分歧。我认为正方的定义对于高光低波的理解比较恰当,而反方的定义在我们四辩看来与高光低波有一定距离,且需要付出一定的解决成本。再者,正方的两个论点和定义的贴合度更准,AI 的能力对应实际,既聊了实际又聊了大家的估计,而反方的两个点,推进和贫富差距与准备充分不充分的贴合度,我认为不如正方。所以我的印象票会给到正方,因为他们的框架整体更优一点。
在环节方面,我和另外两位评委有分歧。正方有一个很大的问题,在我看来,正方的推进太少。反方的推进也不是很多。但在我这里,反方一直在说一个东西,虽然我说的顺序可能不完全符合逻辑链,但连贯起来是,你们认为 AI 现在的发展有一个什么问题提前到来的例子,然后认为这说明 AI 的发展超过人类的想象,人类不能准确规则,所以现在做的准备不太可能充足,还试图出一些实证。这个在我心里的认可有一定难度,因为在定义上有些霸道,这个东西在你们的定义下有些难以成立。但在辩论场上,我会认为更多地以场上的标准而定,所以正方的一些内容我可以做一些拆解。比如正方说计算机的例子,80 年代中国计算机刚开始发展时,政府没预料到会出现很多问题,反方借此说政府就是低估了。这时,我觉得反方在这个点上确实拿到了一些优势。这是我目前看到双方战场上残留的最准确的一个点。
正方说反方提到了一些关于恐慌的问题,在他们的定义下,恐慌确实不等于高估。今天场上股票的问题让我有些纠结,因为双方没有打定义战,所以我不知道该采纳双方谁的定义。但按说应该是按照各自的框架来看,我感觉正方的定义在某些时候被反方带跑了。所以可能今天我感觉在场实际讨论的内容中,采用转化率的部分要更多一些。虽然讨论有一定的启发,但也存在一些问题。
辩题为:人工智能威胁人类的可能性正在被高估 vs 人工智能威胁人类的可能性正在被低估
反方四辩·总结陈词
我的印象票给的是正方。我给票的理由是,我自己的判断标准中,印象票是根据预定法运价制定的。环节票是根据双方对自己论点的推进以及论证任务的完成程度而定,最后的决胜票在环节票不成的情况下,是根据环节票走,如果环节票数相同,则会跟着影响票。
首先说一下为什么我会把印象票给正方。双方的立论都有一定的框架。正方在对 AI 的定义上,至少我觉得不管是从开篇还是后面的环节中,对 AI 的定义没什么太大分歧。双方最大的区别在于判断标准。正方认为评估高于实际就叫做高估,反之叫做低估。而反方的判断标准我不太明确。正方开出的两个论点,一个是应从两个角度去判定,一个是 AI 本身的能力,一个是人类的调节能力。反方的两个论点,一个是黑箱有一定的不可控性,另一个是 AI 会使贫富差距加大,对于准备不足的解释是目前问题很多,希望通过实证方式告诉大家准备不足。
在一辩稿中,对于病例大家可能有一定分歧。我认为正方的定义对于高光低波的理解比较恰当,而反方的定义在我们四辩看来与高光低波有一定距离,且需要付出一定的解决成本。再者,正方的两个论点和定义的贴合度更准,AI 的能力对应实际,既聊了实际又聊了大家的估计,而反方的两个点,推进和贫富差距与准备充分不充分的贴合度,我认为不如正方。所以我的印象票会给到正方,因为他们的框架整体更优一点。
在环节方面,我和另外两位评委有分歧。正方有一个很大的问题,在我看来,正方的推进太少。反方的推进也不是很多。但在我这里,反方一直在说一个东西,虽然我说的顺序可能不完全符合逻辑链,但连贯起来是,你们认为 AI 现在的发展有一个什么问题提前到来的例子,然后认为这说明 AI 的发展超过人类的想象,人类不能准确规则,所以现在做的准备不太可能充足,还试图出一些实证。这个在我心里的认可有一定难度,因为在定义上有些霸道,这个东西在你们的定义下有些难以成立。但在辩论场上,我会认为更多地以场上的标准而定,所以正方的一些内容我可以做一些拆解。比如正方说计算机的例子,80 年代中国计算机刚开始发展时,政府没预料到会出现很多问题,反方借此说政府就是低估了。这时,我觉得反方在这个点上确实拿到了一些优势。这是我目前看到双方战场上残留的最准确的一个点。
正方说反方提到了一些关于恐慌的问题,在他们的定义下,恐慌确实不等于高估。今天场上股票的问题让我有些纠结,因为双方没有打定义战,所以我不知道该采纳双方谁的定义。但按说应该是按照各自的框架来看,我感觉正方的定义在某些时候被反方带跑了。所以可能今天我感觉在场实际讨论的内容中,采用转化率的部分要更多一些。虽然讨论有一定的启发,但也存在一些问题。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
反方四辩认为正方的框架整体更优,所以将印象票给了正方。在环节方面,反方在某些点上拿到了一些优势,但正方的推进较少。同时,双方在一些定义和问题的讨论上存在一定的问题和分歧。
那我们在这场辩论当中,这个案例的采信度是有一定依据的。既然在这种情况下,反方对正方提出的回应及拆解是有一定削减效力的。正方这边的推进,目前能力差等方面,正方一辩所给的提议较少,还有调节能力以及法律问题。法律问题方面,我至少记下一个有效点,即法律在完善,但这与原始论述存在一定差异。因此,正方的有效推进和按照反方的要求相比要少一些。所以,我会把过程票给反方,由于我的决胜票是按照过程票走的,所以我的决胜票也给到了反方,票形是正方比反方 1:2,最佳辩手给的是反方的四辩同学。因为我认为反方四辩同学在提出对正方的反冲以及关于所给论证方面,对之前一些关键的矛盾点有一定促进作用,这也是正方在某些环节中可以做到的,所以我会把这个荣誉给到反方。
首先,前面评委所说的计划不论,这场辩论中双方正方在论点的提出上有所欠缺。但是,我认为正方对于反方的拆解是有效且相当全面的。我大概理解几个关键点,场上大家首先比较有争议的是对于评估这件事情的定义。正方给的定义是,今天我认知这件事情与对待命定它本身的事实的关系,如果认知大于事实就是高估,认知小于事实就是低估。反方的定义是我们个人对风险评估这件事情是否到位,如果到位就是,如果不到位,就是另一端了。这两个定义引出了后面很多问题。
正方的判准,我觉得涉及了他们理论里的两个点,一个是 AI 自身的性质,一个是考虑到外界调控这件事情,即犯罪管控力,都能对这个所谓的认知水平与事实之间的对比建立联系。而反方的判决在我看来只保留了正方的第二个,就是外界的风险评估是否能够是一个完善的、有效的评估,说明一件事情。
大家辩论的几个比较关键的点,我尝试做以下的总结。一个是法律考虑,这是双方判决都要讨论的事情,就外部调控,这个口径是反方提出的,他们认为现在的法律和监管相对来说是无力的,并且没有一个统一的标准出现,甚至开发公司会根据自己公司的情况做一些规定,一系列事实说明法律监管并没有起到一个有效的作用。但这个点的推进到后续,其实与正方的第二个论点不谋而合。首先,正方对反方在法律上提出了一个表态,就是这件事情只要能证明它是可控的,或者说正在对这件事情的可控力度做改善的努力,那就能证明外界,也就是大家对于外界控制 AI 的认知水平其实是低于外界客观事实的。也就是说,你觉得外界不能管,其实外界能管,这个挑战我觉得是到位的,因为正方给了一个有效的例子,是武汉的最近的一件事情。反方没有回应好这个点,是因为反方的口径只停留在法律具有滞后性这一点,我认为这是不够的,因为正方的例子和他们的否定,让我看到即使在法律具有滞后性的条件下,政府部门和公司做出的努力其实是在推进这件事情的可控性上升。在法律管控和外界管控的这个层面上,我觉得正方已经完成了对反方的挑战,并且一定程度上进行了分析,当然正方的推进也不是非常有效,这是正方的缺点。
这是第一个法律条例上的事情,第二个事情是危害与评估之间的关系,这个也很重要。这个点的提出是基于正方的一个论点,反方向正方提出挑战,说那危害就等于高估或者低估吗?正方对反方的提问,他们询问了很多类似于危害的事情,那我证明一件事情很快,就等结果告诉我们低估的这件事情。在基于反方刚刚那个所谓的外部调控风险评估这件事情被拆掉之后,这一点就很关键。因为其实它可以被解释成很多事情,他们理论不好的地方就在于列举了很多 AI 带来的危害和可能带来的危害,但是这不足以论证在今天整个赛场发展的情况之下,对于低估的判断,所以我觉得这一点,正方也完成了他们的拆解。
现在场上唯一没有解决的点就只有正方的论点,这是在正方判决前来参与讨论的论点上的问题,他们所讲的事情是,AI 本身有缺陷,情理不足,与现在外界无论是影视、小说或者之类的东西做的宣传来比的话,那些宣传是要高于现在 AI 的水平的,这是反方给的一个挑战,我在前场比较认可。他们说,如果一件事情的现有现状,只考虑一件事情的现有现状,那对于这件事情的认知,要不要考虑它未来可能的发展趋势,这种发展趋势只要有可能都应该在我们今天讨论的范畴之内,我觉得是,所以在 AI 到底是什么样子,要不要考虑现状,还是要考虑未来上,我认可反方的攻击,我把这个战场分成了两层,第一层叫做在现状之下,AI 是不是一个需要警惕或者需要被那么提防的事情,比如所谓弱人工智能,这一点反方用 Q,正方不太舒服,所以我把它放在这里了,这一点相当于正方为推反方行为中心,第二层叫做在反方的有效论点之下,我们认为需要考虑 AI 未来可能的发展趋势,那在这个层面上来说,双方给出了两种不同的口径,这个口径的核心观点是对于未知事情的考虑。正方的观点是,面对反方提出的关于 AI 的发展,包括冰箱或者汽车中的故障等类似的东西,会带来我们对于 AI 未来发展的未知,这种未知为什么更可能被解读成一种过度的恐慌呢?我觉得这个是有效的,恰恰是人类天然的对于未知事物的恐惧更可能导致正方所说的高估。而反方的说法是,因为 AI 的发展是未知的,在这样一个未知的情况之下,大家可能就忽略了他各种各样的发展趋势,从而对他的风险评估之类的有不好的地方,还举了个计算机的例子。这里可能有我个人一点想法,就是我个人对于以上技术,或者是像还在开发的产品也好,或者什么东西也好,它的未知是等于 5,所以它的认知应该等于我对它有各种各样不停的设想,这就是为什么在 AI 的有关 AI 领域的定义,有那么多不一样的题,有的温和,有的很极端。这样才应该是对于未知的这么一个认识。而基于此,会发现反方对于未知这一点的判断可能有失偏颇了。
这是我梳理的三个论点,所以整体来看,考虑到辩论的结构和完备性,我倾向于正方,因为正方的拆解,包括我刚刚说的三个主要的战场,我觉得更有效,和我的观点以及前一位评委比较像。
接下来,我讲一下我的判断标准。考虑到辩论的结构跟完备性,如果我们的担忧为真,则是合理的,如果我们担忧比现实程度高就是高估。基于这个判准,正方的两个论点,第一个是说,AI 本身并没有我们想的那么智能,它有很多事情是做不到的,第二个判准是外部的,比如说,国家有很多的管控能力,人们低估了国家的防护能力,所以高估了 AI 所带来的危害。这两个论点,第一个论点我在场上没有听到正方如何论证,第二个论点,正方也没有直接论证,但是在和反方讨论法律这个问题上,正方对反方的反驳,我可以当做是推定了这个论点,所以我最终的决胜票挂在了正方这边。
再讲一下反方。反方隐隐约约有一个判准,但是没有把这个判准很清晰地摆出来,所以导致我觉得你们一辩稿的结构会有点问题。你们一辩稿是先先说了几个威胁,企图证明这些威胁很大,然后说因为我们现在准备不充分,所以这些威胁都被低估了,如果准备充分了,问题就会解决,怎么会有法律保护不到的地方出现呢?这是一种制度上的问题。包括正方,还有我个人的一些想法。首先,准备不充分和低估它没有必然的联系,准备不充分确实会导致低估,但是低估不一定只有准备不充分这个原因,有可能是没有能力去准备充分,或者是不想去准备充分。其次,说没有逼迫这些危害,没有准备,基本都可以导致准备不充分这个结果,所以这是有果及因,这个推论是不成立的。正方虽然没有像我这样说,但是正方用一些例子把准备不充分导致低估这种推论给打败了。比如正方在辩论的时候说,法律是有规定的,法律不是准备中断,而是准备正在充分的过程当中,所以不能算是低估,甚至可能算是高估。这个我不能跟你们争论什么,我只能说你们在反方这个战场上打平了。
还有一个问题,就是你们相当于以准备不充分推导出低估这一个基石,这个基石被打破了之后,你们的两个威胁,一个是人工智能问题,一个是社会差距问题,这两个威胁,我只能说你们的论述不论起来不重要,因为跟这个辩题没有什么关系,所以,我最后的票型应该是 3:0,我的最佳辩手是挂在正方四辩身上。
还想谈几个问题,一个是说正方,我们三位评委票型不一致的原因是因为正方全程是在反驳反方,反驳出什么不对,但是我和我身边这位评委,我们两个认为在反驳的过程中,可能是很巧合,或者是有意识地推进了自己的观点,所以我们把票挂在正方这边,另外一位评委就觉得你们没有推进论点,这是你们以后可以注意的。然后反方,像正方同学指出的那样,你们的重点有点偏,你们把更多论证的力放在了威胁上面,但是其实你们把这个威胁论,跟这个高中低估是没有强关联的。
哦,然后我还比较想说一下恐慌这方面,其实我们的恐慌这个点,反方是把至少在正方跟正方面,正方面抓住的,反方同学说媒体会夸大 AI 的什么,所以不会导致恐慌,所以这个恐慌其实是不能从这方面来论证的。
再说一下大家操作上的一些规范,在辩论的时候,我们是一问一答,就是你问一句我答一句,不是那种长篇大论感觉没有什么关系,然后在三辩盘问的时候,被盘问的一方不能主动对对方进行攻击,要按照规则进行操作。其他的我就说到这里。
那我们在这场辩论当中,这个案例的采信度是有一定依据的。既然在这种情况下,反方对正方提出的回应及拆解是有一定削减效力的。正方这边的推进,目前能力差等方面,正方一辩所给的提议较少,还有调节能力以及法律问题。法律问题方面,我至少记下一个有效点,即法律在完善,但这与原始论述存在一定差异。因此,正方的有效推进和按照反方的要求相比要少一些。所以,我会把过程票给反方,由于我的决胜票是按照过程票走的,所以我的决胜票也给到了反方,票形是正方比反方 1:2,最佳辩手给的是反方的四辩同学。因为我认为反方四辩同学在提出对正方的反冲以及关于所给论证方面,对之前一些关键的矛盾点有一定促进作用,这也是正方在某些环节中可以做到的,所以我会把这个荣誉给到反方。
首先,前面评委所说的计划不论,这场辩论中双方正方在论点的提出上有所欠缺。但是,我认为正方对于反方的拆解是有效且相当全面的。我大概理解几个关键点,场上大家首先比较有争议的是对于评估这件事情的定义。正方给的定义是,今天我认知这件事情与对待命定它本身的事实的关系,如果认知大于事实就是高估,认知小于事实就是低估。反方的定义是我们个人对风险评估这件事情是否到位,如果到位就是,如果不到位,就是另一端了。这两个定义引出了后面很多问题。
正方的判准,我觉得涉及了他们理论里的两个点,一个是 AI 自身的性质,一个是考虑到外界调控这件事情,即犯罪管控力,都能对这个所谓的认知水平与事实之间的对比建立联系。而反方的判决在我看来只保留了正方的第二个,就是外界的风险评估是否能够是一个完善的、有效的评估,说明一件事情。
大家辩论的几个比较关键的点,我尝试做以下的总结。一个是法律考虑,这是双方判决都要讨论的事情,就外部调控,这个口径是反方提出的,他们认为现在的法律和监管相对来说是无力的,并且没有一个统一的标准出现,甚至开发公司会根据自己公司的情况做一些规定,一系列事实说明法律监管并没有起到一个有效的作用。但这个点的推进到后续,其实与正方的第二个论点不谋而合。首先,正方对反方在法律上提出了一个表态,就是这件事情只要能证明它是可控的,或者说正在对这件事情的可控力度做改善的努力,那就能证明外界,也就是大家对于外界控制 AI 的认知水平其实是低于外界客观事实的。也就是说,你觉得外界不能管,其实外界能管,这个挑战我觉得是到位的,因为正方给了一个有效的例子,是武汉的最近的一件事情。反方没有回应好这个点,是因为反方的口径只停留在法律具有滞后性这一点,我认为这是不够的,因为正方的例子和他们的否定,让我看到即使在法律具有滞后性的条件下,政府部门和公司做出的努力其实是在推进这件事情的可控性上升。在法律管控和外界管控的这个层面上,我觉得正方已经完成了对反方的挑战,并且一定程度上进行了分析,当然正方的推进也不是非常有效,这是正方的缺点。
这是第一个法律条例上的事情,第二个事情是危害与评估之间的关系,这个也很重要。这个点的提出是基于正方的一个论点,反方向正方提出挑战,说那危害就等于高估或者低估吗?正方对反方的提问,他们询问了很多类似于危害的事情,那我证明一件事情很快,就等结果告诉我们低估的这件事情。在基于反方刚刚那个所谓的外部调控风险评估这件事情被拆掉之后,这一点就很关键。因为其实它可以被解释成很多事情,他们理论不好的地方就在于列举了很多 AI 带来的危害和可能带来的危害,但是这不足以论证在今天整个赛场发展的情况之下,对于低估的判断,所以我觉得这一点,正方也完成了他们的拆解。
现在场上唯一没有解决的点就只有正方的论点,这是在正方判决前来参与讨论的论点上的问题,他们所讲的事情是,AI 本身有缺陷,情理不足,与现在外界无论是影视、小说或者之类的东西做的宣传来比的话,那些宣传是要高于现在 AI 的水平的,这是反方给的一个挑战,我在前场比较认可。他们说,如果一件事情的现有现状,只考虑一件事情的现有现状,那对于这件事情的认知,要不要考虑它未来可能的发展趋势,这种发展趋势只要有可能都应该在我们今天讨论的范畴之内,我觉得是,所以在 AI 到底是什么样子,要不要考虑现状,还是要考虑未来上,我认可反方的攻击,我把这个战场分成了两层,第一层叫做在现状之下,AI 是不是一个需要警惕或者需要被那么提防的事情,比如所谓弱人工智能,这一点反方用 Q,正方不太舒服,所以我把它放在这里了,这一点相当于正方为推反方行为中心,第二层叫做在反方的有效论点之下,我们认为需要考虑 AI 未来可能的发展趋势,那在这个层面上来说,双方给出了两种不同的口径,这个口径的核心观点是对于未知事情的考虑。正方的观点是,面对反方提出的关于 AI 的发展,包括冰箱或者汽车中的故障等类似的东西,会带来我们对于 AI 未来发展的未知,这种未知为什么更可能被解读成一种过度的恐慌呢?我觉得这个是有效的,恰恰是人类天然的对于未知事物的恐惧更可能导致正方所说的高估。而反方的说法是,因为 AI 的发展是未知的,在这样一个未知的情况之下,大家可能就忽略了他各种各样的发展趋势,从而对他的风险评估之类的有不好的地方,还举了个计算机的例子。这里可能有我个人一点想法,就是我个人对于以上技术,或者是像还在开发的产品也好,或者什么东西也好,它的未知是等于 5,所以它的认知应该等于我对它有各种各样不停的设想,这就是为什么在 AI 的有关 AI 领域的定义,有那么多不一样的题,有的温和,有的很极端。这样才应该是对于未知的这么一个认识。而基于此,会发现反方对于未知这一点的判断可能有失偏颇了。
这是我梳理的三个论点,所以整体来看,考虑到辩论的结构和完备性,我倾向于正方,因为正方的拆解,包括我刚刚说的三个主要的战场,我觉得更有效,和我的观点以及前一位评委比较像。
接下来,我讲一下我的判断标准。考虑到辩论的结构跟完备性,如果我们的担忧为真,则是合理的,如果我们担忧比现实程度高就是高估。基于这个判准,正方的两个论点,第一个是说,AI 本身并没有我们想的那么智能,它有很多事情是做不到的,第二个判准是外部的,比如说,国家有很多的管控能力,人们低估了国家的防护能力,所以高估了 AI 所带来的危害。这两个论点,第一个论点我在场上没有听到正方如何论证,第二个论点,正方也没有直接论证,但是在和反方讨论法律这个问题上,正方对反方的反驳,我可以当做是推定了这个论点,所以我最终的决胜票挂在了正方这边。
再讲一下反方。反方隐隐约约有一个判准,但是没有把这个判准很清晰地摆出来,所以导致我觉得你们一辩稿的结构会有点问题。你们一辩稿是先先说了几个威胁,企图证明这些威胁很大,然后说因为我们现在准备不充分,所以这些威胁都被低估了,如果准备充分了,问题就会解决,怎么会有法律保护不到的地方出现呢?这是一种制度上的问题。包括正方,还有我个人的一些想法。首先,准备不充分和低估它没有必然的联系,准备不充分确实会导致低估,但是低估不一定只有准备不充分这个原因,有可能是没有能力去准备充分,或者是不想去准备充分。其次,说没有逼迫这些危害,没有准备,基本都可以导致准备不充分这个结果,所以这是有果及因,这个推论是不成立的。正方虽然没有像我这样说,但是正方用一些例子把准备不充分导致低估这种推论给打败了。比如正方在辩论的时候说,法律是有规定的,法律不是准备中断,而是准备正在充分的过程当中,所以不能算是低估,甚至可能算是高估。这个我不能跟你们争论什么,我只能说你们在反方这个战场上打平了。
还有一个问题,就是你们相当于以准备不充分推导出低估这一个基石,这个基石被打破了之后,你们的两个威胁,一个是人工智能问题,一个是社会差距问题,这两个威胁,我只能说你们的论述不论起来不重要,因为跟这个辩题没有什么关系,所以,我最后的票型应该是 3:0,我的最佳辩手是挂在正方四辩身上。
还想谈几个问题,一个是说正方,我们三位评委票型不一致的原因是因为正方全程是在反驳反方,反驳出什么不对,但是我和我身边这位评委,我们两个认为在反驳的过程中,可能是很巧合,或者是有意识地推进了自己的观点,所以我们把票挂在正方这边,另外一位评委就觉得你们没有推进论点,这是你们以后可以注意的。然后反方,像正方同学指出的那样,你们的重点有点偏,你们把更多论证的力放在了威胁上面,但是其实你们把这个威胁论,跟这个高中低估是没有强关联的。
哦,然后我还比较想说一下恐慌这方面,其实我们的恐慌这个点,反方是把至少在正方跟正方面,正方面抓住的,反方同学说媒体会夸大 AI 的什么,所以不会导致恐慌,所以这个恐慌其实是不能从这方面来论证的。
再说一下大家操作上的一些规范,在辩论的时候,我们是一问一答,就是你问一句我答一句,不是那种长篇大论感觉没有什么关系,然后在三辩盘问的时候,被盘问的一方不能主动对对方进行攻击,要按照规则进行操作。其他的我就说到这里。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)