这段文本存在较多与介绍双方环节不相关的内容,且表述较为混乱。经过整理,该环节的相关内容如下:
本场比赛即将开始,欢迎大家来到此次练习赛。首先有请双方进行自我介绍,首先有请正方。然而,文本中关于正方的自我介绍仅提到“我大学意见反对”,表述不明且存在错误,可能是语音转文字的误差。关于反方的介绍,文本中未提及。
这段文本存在较多与介绍双方环节不相关的内容,且表述较为混乱。经过整理,该环节的相关内容如下:
本场比赛即将开始,欢迎大家来到此次练习赛。首先有请双方进行自我介绍,首先有请正方。然而,文本中关于正方的自我介绍仅提到“我大学意见反对”,表述不明且存在错误,可能是语音转文字的误差。关于反方的介绍,文本中未提及。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
本场比赛双方介绍环节存在问题,正方介绍表述不明且有错误,反方介绍缺失,均未达到清晰准确介绍双方的要求。
好,感谢主席,大家好。
纵观历史,民众对于技术常常存在着迷思,无论是被称作“蒸汽能魔鬼”的蒸汽机,还是被宣扬影响国运的铁路,都存在着学界共识与群众认知之间的错位。这种错位往往产生于或是双方之间的知识同构,或是媒体在其中的议程设置,表现为对于技术的高估或者低估。
可今天判断人工智能威胁人类的可能性是否正在被高估或低估,关键是要看这一命题中群众认知与现实之间的差异。我方论证如下:
首先,群众对于人工智能过分恐惧。一方面,人类对于人工智能“似人非人”有着天然的恐惧。根据武汉大学裕峰教授的研究,人类倾向于拟人化机械,大多数人无法理解为什么在看似与人交流的 APP 中,其不具有独立人格,而对于机械的拟人性呈现出了高度类似于恐怖谷效应的体现,即随着拟人化提高,人对其亲和程度不断提高,而当拟人化到一定程度时,亲和度则会骤降。正如 2023 年米克尔哈里斯关于人工智能趋势的民意调查中,78%的受访者不信任人工智能,担心被恶意使用。另一方面,对于技术的恐惧放大了可能的风险,掩盖了实际的好处。调查显示,大部分人明知信息披露的风险,仍会选择信息披露。有关人工智能恐惧的主流观点集中在失业、技术失控两方面。而安麦肯锡全球研究院对于 800 多个职业、2000 多项工作内容进行分级,发现只有 5%不到的职业可以实现全面自动化,而大多数职业因自动化产生的是性质转变而非消失。对于那些容易受影响的职业,今年 11 月理工志愿队发现,大多数工作在当时对于雇主的自动化在经济层面并不有利。而基于历史上两次劳动力结构改变的分析,每次结构改变都伴随着新工作的大量出现,同时生产力结构的转变也会带来效益的增长。
其次,对于人工智能的恐惧是对于人定胜天的反面。无论是从对核工业的抵触,到钱学森研制出核弹,证明了人类可以掌控;还是在长征期间,看似无法征服的雪山,却在人类的努力下得以征服,都证明在人类历史上就是不断地发现问题并解决问题。而发现解决问题的过程中,可能不会产生我们对于问题本身的高估,而解决问题的过程,正是人之所以为人的闪耀之处的体现。
感谢朱芳同学精彩立论。
好,感谢主席,大家好。
纵观历史,民众对于技术常常存在着迷思,无论是被称作“蒸汽能魔鬼”的蒸汽机,还是被宣扬影响国运的铁路,都存在着学界共识与群众认知之间的错位。这种错位往往产生于或是双方之间的知识同构,或是媒体在其中的议程设置,表现为对于技术的高估或者低估。
可今天判断人工智能威胁人类的可能性是否正在被高估或低估,关键是要看这一命题中群众认知与现实之间的差异。我方论证如下:
首先,群众对于人工智能过分恐惧。一方面,人类对于人工智能“似人非人”有着天然的恐惧。根据武汉大学裕峰教授的研究,人类倾向于拟人化机械,大多数人无法理解为什么在看似与人交流的 APP 中,其不具有独立人格,而对于机械的拟人性呈现出了高度类似于恐怖谷效应的体现,即随着拟人化提高,人对其亲和程度不断提高,而当拟人化到一定程度时,亲和度则会骤降。正如 2023 年米克尔哈里斯关于人工智能趋势的民意调查中,78%的受访者不信任人工智能,担心被恶意使用。另一方面,对于技术的恐惧放大了可能的风险,掩盖了实际的好处。调查显示,大部分人明知信息披露的风险,仍会选择信息披露。有关人工智能恐惧的主流观点集中在失业、技术失控两方面。而安麦肯锡全球研究院对于 800 多个职业、2000 多项工作内容进行分级,发现只有 5%不到的职业可以实现全面自动化,而大多数职业因自动化产生的是性质转变而非消失。对于那些容易受影响的职业,今年 11 月理工志愿队发现,大多数工作在当时对于雇主的自动化在经济层面并不有利。而基于历史上两次劳动力结构改变的分析,每次结构改变都伴随着新工作的大量出现,同时生产力结构的转变也会带来效益的增长。
其次,对于人工智能的恐惧是对于人定胜天的反面。无论是从对核工业的抵触,到钱学森研制出核弹,证明了人类可以掌控;还是在长征期间,看似无法征服的雪山,却在人类的努力下得以征服,都证明在人类历史上就是不断地发现问题并解决问题。而发现解决问题的过程中,可能不会产生我们对于问题本身的高估,而解决问题的过程,正是人之所以为人的闪耀之处的体现。
感谢朱芳同学精彩立论。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
判断人工智能威胁人类的可能性是否正在被高估或低估,关键是看这一命题中群众认知与现实之间的差异。
综上所述,正方认为人工智能威胁人类的可能性正在被高估,通过分析群众对人工智能的过分恐惧以及人类在历史上解决问题的能力,论证了判断标准中群众认知与现实之间的差异。
请反方二辩对正方一辩进行质询,时间为一分半,单方计时,有请,谢谢主持。
反方二辩:对方辩友好,我首先想确认一个事实,就是我们今天要比较群众的观点和现实之间的差异,可以这样理解吗? 正方一辩:可以。 反方二辩:那么我们的共识已经达成了。接下来我问您,您方的第二个点说恐惧是“人定胜天”的反面,也就是说您认为人恐惧人就无法成功,这是历史潮流中经常出现的情况。比如说在长征之前,我们觉得无法征服雪山,在两弹一星出现之前,我们觉得根本无法克服困难。人类倾向于把自己的问题扩大化,高估自己遇到的问题。所以恐惧和成功是矛盾的。您产生了恐惧,就不敢去做,而恰恰是去征服它,才证明了人的价值本身,证明了人可以战胜一切外力。比如当时人们对于月背是否存在外星人有诸多恐惧的猜测,甚至有很多阴谋论。但是今年,中国的探测器登上了月球背面。请问,这样的恐惧是不是我们一开始对于月球威胁的高估呢?当我们通过人类的手段征服这一过程,发现月球并不可怕时,是不是说明我们一开始对于月球的威胁估量过高呢?所以,恐惧和征服并不矛盾呀。我不是说这两者之间矛盾,我是说您认为它恐怖的过程,就是您把它高度估计的过程,而这一过程经常在历史的潮流中演变,人工智能也是其中的一部分。
好,那么接下来我方继续问您。您方说人对于新兴的东西会有天然的恐惧,我方有武汉大学的一峰教授关于机械文化的研究。您方认为这样的恐惧会放大风险,对吗?民众在根本不了解 ChatGPT 只是一个人工智能的前提下,觉得 ChatGPT 是一个有邪念的恶人,错误地理解了 ChatGPT,把它拟人化,而这个拟人化的过程会让民众感觉到恐惧,让他们高估人工智能带来的风险。
那您怎么解释“明知山有虎,偏向虎山行”这种探险和探索精神呢?那是因为我知道它是虎,当我把那个虎当作是一个恶人,觉得这个恶人会布下千百个陷阱让我陷入的时候,就像我们今天面对人工智能,他们明明只是一个机器人,我觉得它会给我布下陷阱,当然我高估了它的风险呀。所以,天然恐惧并不能够阻挡人类去探索,您方所说的高估风险,并不意味着人类就会停止探索。
请反方二辩对正方一辩进行质询,时间为一分半,单方计时,有请,谢谢主持。
反方二辩:对方辩友好,我首先想确认一个事实,就是我们今天要比较群众的观点和现实之间的差异,可以这样理解吗? 正方一辩:可以。 反方二辩:那么我们的共识已经达成了。接下来我问您,您方的第二个点说恐惧是“人定胜天”的反面,也就是说您认为人恐惧人就无法成功,这是历史潮流中经常出现的情况。比如说在长征之前,我们觉得无法征服雪山,在两弹一星出现之前,我们觉得根本无法克服困难。人类倾向于把自己的问题扩大化,高估自己遇到的问题。所以恐惧和成功是矛盾的。您产生了恐惧,就不敢去做,而恰恰是去征服它,才证明了人的价值本身,证明了人可以战胜一切外力。比如当时人们对于月背是否存在外星人有诸多恐惧的猜测,甚至有很多阴谋论。但是今年,中国的探测器登上了月球背面。请问,这样的恐惧是不是我们一开始对于月球威胁的高估呢?当我们通过人类的手段征服这一过程,发现月球并不可怕时,是不是说明我们一开始对于月球的威胁估量过高呢?所以,恐惧和征服并不矛盾呀。我不是说这两者之间矛盾,我是说您认为它恐怖的过程,就是您把它高度估计的过程,而这一过程经常在历史的潮流中演变,人工智能也是其中的一部分。
好,那么接下来我方继续问您。您方说人对于新兴的东西会有天然的恐惧,我方有武汉大学的一峰教授关于机械文化的研究。您方认为这样的恐惧会放大风险,对吗?民众在根本不了解 ChatGPT 只是一个人工智能的前提下,觉得 ChatGPT 是一个有邪念的恶人,错误地理解了 ChatGPT,把它拟人化,而这个拟人化的过程会让民众感觉到恐惧,让他们高估人工智能带来的风险。
那您怎么解释“明知山有虎,偏向虎山行”这种探险和探索精神呢?那是因为我知道它是虎,当我把那个虎当作是一个恶人,觉得这个恶人会布下千百个陷阱让我陷入的时候,就像我们今天面对人工智能,他们明明只是一个机器人,我觉得它会给我布下陷阱,当然我高估了它的风险呀。所以,天然恐惧并不能够阻挡人类去探索,您方所说的高估风险,并不意味着人类就会停止探索。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
在有请反方一辩进行开篇陈词,时间同样为 3 分钟,计时开始。
人工智能是研究开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学。其主要特征是具有仿人的学习、分析和思考能力。
威胁是指用武力、权势胁迫。在此,人工智能威胁人类这种情况,判断其是被高估、被低估还是被正确评估,要看与人工智能发展现状相比,人类对其危险性的现实情况和未来趋势的认知是偏高还是偏低。
在此,我观点如下: 第一,从人工智能发展历程及现状来看,人工智能的发展已经对我们的能力发展和生存安全产生威胁,目前这种威胁具有隐蔽性和不可逆性。人工智能是一把双刃剑,其看似优于人类的高效率且超理性下隐藏着深层破坏。比如,大学关于 AI 对于人类创造力影响的实验研究证明,使用某些 AI 类软件会导致知识的同质化。长此以往,人类在未来的创造性活动中也倾向于产生类似 AI 的响应,影响科学研究的创新和创造性。可见,在便捷、快速的包装下,AI 看似让我们的生活越来越快捷,实际上人类引以为傲的分析思考和创造能力将在依赖下不断退化,逐渐成为人工智能的寄生虫。其次,AI 的使用也给生存安全带来难题。随着人工智能的广泛应用,AI 伦理难题层出不穷。英国语音助手以人为活着会加剧人口过剩为由,劝主人自杀。浙江学生头戴智能头环,监控学生专注度,侵犯学生隐私,其背后是道德感的缺失。专家一旦认为人类价值不敌其从事事业,价值就会毁灭,人类的判断并非空穴来风。此外,AI 时代带来的劳动性工作失业压力问题、人工智能数据泄露风险问题也日益显著。
第二,从现实情况来看,受人工智能发展繁荣的表象与媒体宣传影响,大部分人对于人工智能的发展威胁停留在认知潜伏阶段或持漠视态度。根据 Media 的分析,媒体在报道 AI 时,倾向于强调积极影响,如改善医疗、提高生产效率等,而对于潜在的负面后果则报道较少。同时,心理学中的心理偏好告诉我们,人在接触新兴事物时总会给予较好的预期。因此,从客观来源和主观偏好来讲,大多数人对于 AI 的印象往往是正向的,而缺乏对于 AI 的危险意识。此外,相较于相关领域的专家结论,更多人对于人工智能的威胁持保守态度。据五大媒体平台用户研究报告,科技类用户在实名用户总量中占比小于 3%,仅在知识博主中,科技类博主占比就不到 2%。即使部分 AI 话题热度较高,如美图秀秀 AI 产品跻身前十,某些相机特效及社交平台 AI 发展技术较受关注,但总体而言,人工智能威胁的可能性更易被低估。
谢谢大家,感谢反方一辩的精彩陈词。接下来……
在有请反方一辩进行开篇陈词,时间同样为 3 分钟,计时开始。
人工智能是研究开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学。其主要特征是具有仿人的学习、分析和思考能力。
威胁是指用武力、权势胁迫。在此,人工智能威胁人类这种情况,判断其是被高估、被低估还是被正确评估,要看与人工智能发展现状相比,人类对其危险性的现实情况和未来趋势的认知是偏高还是偏低。
在此,我观点如下: 第一,从人工智能发展历程及现状来看,人工智能的发展已经对我们的能力发展和生存安全产生威胁,目前这种威胁具有隐蔽性和不可逆性。人工智能是一把双刃剑,其看似优于人类的高效率且超理性下隐藏着深层破坏。比如,大学关于 AI 对于人类创造力影响的实验研究证明,使用某些 AI 类软件会导致知识的同质化。长此以往,人类在未来的创造性活动中也倾向于产生类似 AI 的响应,影响科学研究的创新和创造性。可见,在便捷、快速的包装下,AI 看似让我们的生活越来越快捷,实际上人类引以为傲的分析思考和创造能力将在依赖下不断退化,逐渐成为人工智能的寄生虫。其次,AI 的使用也给生存安全带来难题。随着人工智能的广泛应用,AI 伦理难题层出不穷。英国语音助手以人为活着会加剧人口过剩为由,劝主人自杀。浙江学生头戴智能头环,监控学生专注度,侵犯学生隐私,其背后是道德感的缺失。专家一旦认为人类价值不敌其从事事业,价值就会毁灭,人类的判断并非空穴来风。此外,AI 时代带来的劳动性工作失业压力问题、人工智能数据泄露风险问题也日益显著。
第二,从现实情况来看,受人工智能发展繁荣的表象与媒体宣传影响,大部分人对于人工智能的发展威胁停留在认知潜伏阶段或持漠视态度。根据 Media 的分析,媒体在报道 AI 时,倾向于强调积极影响,如改善医疗、提高生产效率等,而对于潜在的负面后果则报道较少。同时,心理学中的心理偏好告诉我们,人在接触新兴事物时总会给予较好的预期。因此,从客观来源和主观偏好来讲,大多数人对于 AI 的印象往往是正向的,而缺乏对于 AI 的危险意识。此外,相较于相关领域的专家结论,更多人对于人工智能的威胁持保守态度。据五大媒体平台用户研究报告,科技类用户在实名用户总量中占比小于 3%,仅在知识博主中,科技类博主占比就不到 2%。即使部分 AI 话题热度较高,如美图秀秀 AI 产品跻身前十,某些相机特效及社交平台 AI 发展技术较受关注,但总体而言,人工智能威胁的可能性更易被低估。
谢谢大家,感谢反方一辩的精彩陈词。接下来……
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
判断人工智能威胁人类这种情况是被高估、被低估还是被正确评估,要看与人工智能发展现状相比,人类对其危险性的现实情况和未来趋势的认知是偏高还是偏低。
综上所述,反方认为人工智能对人类的威胁被低估了。
正方二辩对反方一辩进行质询,时间为 1 分半。
正方二辩:警方告诉我 AI 可能有多种风险,那你方有没有证明告诉大家没有认识到这种风险?今天我第一个问题是告诉您 AI 有什么风险,而我的第二个问题是,人们对这种风险进行了过多谨慎是否真的没有。北京大学不是研究出来并发表论文,且该论文被广泛传播了吗?知识的同质化不是被北京大学研究出来并且广泛传播了吗?这个风险被充分认识了。我们提到这个案例,是想说明目前 AI 应用会给人类思维能力带来非常大的影响,所以这个影响被认识到,并且被研究到了。那我再接着问您,哪怕是您方所担心的这种心态,您说的问题没有法律去规范它吗?您方首先回答一下,回应一下您方善意问题。今天我们告诉对方辩友的是,目前在很多专家视角下,这种现状被认识到了,而我方第二个辩点充分告诉您了,普通人对于这种风险的认知性是相对较弱的,被充分认识到的就是没有被低估嘛。但是对方辩友,这个低量数据是不一样的,专家相对于全球所有人来说,可能仅占 1%,但是对于普通人,普通大众来说,可能 80%到现在根本就没有意识到我使用 AI 来写论文,可能会导致我的学术分析能力下降,因为证明到大家在使用 AI 来写论文的时候没有被发现,老师会查重,会发现这个同质化,会发现被判定论文抄袭。这个证明就是在实践,就是在北京大学实验数据中告诉我们的。您只是告诉了大家,这些同质化问题存在,我方觉得也存在,当然有危险,可是我方也发现它被充分认识到,不管是专家还是大家,平时在使用 AI 的时候会被查重,会通过这些规则的手段让大家认识到,大家都认识到我在这里要强调它有这种问题,像欧盟就出台了人工智能安全框架这样的问题来应对这些甚至没有成为现实的威胁,为什么这不是已经充分认识到并且规制它?可是对方辩友,什么叫充分认识,什么叫充分规制?我方在辩论中也跟您提到,目前出现了很多智能助手,智能助手告诉主人有心跳的人,因为人有心跳的人是活着的,活着的人应该因为人口过剩而自杀,这种现象到目前也没有规避,都被安置在了欧盟市场的人工性的框架之下,所以您方有没有继续论证到有任何没有被发现,没有被规制的风险啊?好,最后一个问题,您方告诉我,群众会倾向于积极认识这些心理,那您知道有一个心理叫负面偏好,最后大家会过分地在好的消息和坏的消息里面,会更加倾向于相信并且夸大那个坏的消息,这是人的负面偏好。可是对方辩友,同样我也看到了阿玛拉定律告诉我们,人们总是高估一项科技所带来的短期效益,却又低估它的长期影响力。对啊,您这是短期和长期的比较,是好的比较和坏的比较,人们更倾向于相信那个坏的结果。谢谢。
正方二辩对反方一辩进行质询,时间为 1 分半。
正方二辩:警方告诉我 AI 可能有多种风险,那你方有没有证明告诉大家没有认识到这种风险?今天我第一个问题是告诉您 AI 有什么风险,而我的第二个问题是,人们对这种风险进行了过多谨慎是否真的没有。北京大学不是研究出来并发表论文,且该论文被广泛传播了吗?知识的同质化不是被北京大学研究出来并且广泛传播了吗?这个风险被充分认识了。我们提到这个案例,是想说明目前 AI 应用会给人类思维能力带来非常大的影响,所以这个影响被认识到,并且被研究到了。那我再接着问您,哪怕是您方所担心的这种心态,您说的问题没有法律去规范它吗?您方首先回答一下,回应一下您方善意问题。今天我们告诉对方辩友的是,目前在很多专家视角下,这种现状被认识到了,而我方第二个辩点充分告诉您了,普通人对于这种风险的认知性是相对较弱的,被充分认识到的就是没有被低估嘛。但是对方辩友,这个低量数据是不一样的,专家相对于全球所有人来说,可能仅占 1%,但是对于普通人,普通大众来说,可能 80%到现在根本就没有意识到我使用 AI 来写论文,可能会导致我的学术分析能力下降,因为证明到大家在使用 AI 来写论文的时候没有被发现,老师会查重,会发现这个同质化,会发现被判定论文抄袭。这个证明就是在实践,就是在北京大学实验数据中告诉我们的。您只是告诉了大家,这些同质化问题存在,我方觉得也存在,当然有危险,可是我方也发现它被充分认识到,不管是专家还是大家,平时在使用 AI 的时候会被查重,会通过这些规则的手段让大家认识到,大家都认识到我在这里要强调它有这种问题,像欧盟就出台了人工智能安全框架这样的问题来应对这些甚至没有成为现实的威胁,为什么这不是已经充分认识到并且规制它?可是对方辩友,什么叫充分认识,什么叫充分规制?我方在辩论中也跟您提到,目前出现了很多智能助手,智能助手告诉主人有心跳的人,因为人有心跳的人是活着的,活着的人应该因为人口过剩而自杀,这种现象到目前也没有规避,都被安置在了欧盟市场的人工性的框架之下,所以您方有没有继续论证到有任何没有被发现,没有被规制的风险啊?好,最后一个问题,您方告诉我,群众会倾向于积极认识这些心理,那您知道有一个心理叫负面偏好,最后大家会过分地在好的消息和坏的消息里面,会更加倾向于相信并且夸大那个坏的消息,这是人的负面偏好。可是对方辩友,同样我也看到了阿玛拉定律告诉我们,人们总是高估一项科技所带来的短期效益,却又低估它的长期影响力。对啊,您这是短期和长期的比较,是好的比较和坏的比较,人们更倾向于相信那个坏的结果。谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方二辩的质询内容主要围绕AI风险是否被充分认识和规制展开。正方提出了一系列问题和观点来支持自己的立场,包括:
谢谢主席。首先,您方第一个点说人会天然恐惧不人性的 AI,但是您方有数据直接论证大部分群众都会天然恐惧 AI 吗?我期待您方后续的数据。现在甚至网络上还有不少人喜欢人外恋,难道这能够说明所有人都在恐惧或者大部分人都在恐惧 AI 吗?
其次,您方说的负面偏好,我方有数据。超八成受访大学生使用 AI 工具中,有 77%到 71.75%的受访者看好 AI 工具的提升,请问您方应如何回应我方的这个具体数据呢?
那么第二个论点,您方说恐惧与顺天是矛盾。您方的逻辑莫不是在告诉我,成功只能够以错误的高估为前提。我方想跟您说的是,月球背面估计有外星人,不是说高估了,而是因为错误估计了月球背面存在的危险,可能是气压问题,可能是材料不耐受的问题,而不是外星人的问题,这不叫高估,这叫错估。
接下来我们说说我方的观点。我方第一个论点是,现在人工智能的发展已经对我们的能力发展和生存安全存在威胁,也就是说 TGPT 会导致知识的同质化,长期使用人类也会产生类似于 AI 的响应,从而影响我们的创新。
第二点,当下大部分人对于人工智能发展仍然停留在认识浅薄或者漠视的态度阶段。有人因为不重视 AI 的深度伪造功能,而在 10 分钟之内被 AI 伪造视频骗走了 430 万,这难道还不能说明人们的认识情况处于浅薄阶段吗?谢谢。
谢谢主席。首先,您方第一个点说人会天然恐惧不人性的 AI,但是您方有数据直接论证大部分群众都会天然恐惧 AI 吗?我期待您方后续的数据。现在甚至网络上还有不少人喜欢人外恋,难道这能够说明所有人都在恐惧或者大部分人都在恐惧 AI 吗?
其次,您方说的负面偏好,我方有数据。超八成受访大学生使用 AI 工具中,有 77%到 71.75%的受访者看好 AI 工具的提升,请问您方应如何回应我方的这个具体数据呢?
那么第二个论点,您方说恐惧与顺天是矛盾。您方的逻辑莫不是在告诉我,成功只能够以错误的高估为前提。我方想跟您说的是,月球背面估计有外星人,不是说高估了,而是因为错误估计了月球背面存在的危险,可能是气压问题,可能是材料不耐受的问题,而不是外星人的问题,这不叫高估,这叫错估。
接下来我们说说我方的观点。我方第一个论点是,现在人工智能的发展已经对我们的能力发展和生存安全存在威胁,也就是说 TGPT 会导致知识的同质化,长期使用人类也会产生类似于 AI 的响应,从而影响我们的创新。
第二点,当下大部分人对于人工智能发展仍然停留在认识浅薄或者漠视的态度阶段。有人因为不重视 AI 的深度伪造功能,而在 10 分钟之内被 AI 伪造视频骗走了 430 万,这难道还不能说明人们的认识情况处于浅薄阶段吗?谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
好,现需明确谁在评估 AI 威胁的可能性,对方仅打算讨论大部分无知的人,然而我方质疑的是,为何这些专家学者、政策制定者,他们并非是当下评估 AI 威胁人类可能性的主体,因为他们决定了社会将如何对待 AI,他们的观点决定了大多数人将如何追随。我方认为所有这些人群都必须加以讨论。我先提及一些无知的人群,对方告知我方,因无知所以第一步,然而是否存在这样的可能,即因为无知反而会倾向于夸大。就如慈禧第一次见到蒸汽火车时,因其不知那是什么,周围人告知其此物很恐怖,她便认为那是个喷气的魔鬼。如同现今大家不知 AI 为何物时,也会听信一些微信公众号的耸人听闻之言,只因这样最能吸引大家,最能激发大家的恐惧心理以获得关注,甚至会告知大家 AI 会毁灭人类的可能性是 99%,此类传播难道不是无知导致高估的可能性更大吗?
第二件事,对方无非提及 AI 可能威胁人类的种种可能性,我方也知晓存在此可能性,然而问题在于我方已为对方举证,对方所提出的这些风险,在其举证之时,就意味着这些风险已被充分认识到。不论是北京大学的专家学者,还是一些政策制定者,这是其一。其二,在对方提出风险的同时,也就意味着像欧盟或中国等的 AI 安全框架已将其纳入其中。校内的某个数据库收集了 700 多种,对,华盛顿数据库收集了 700 多种,此已成为号称人类目前对 AI 风险认知最深的一个数据库。我方坚信,我方举出的任何风险都已被容纳在这 700 多种之中。退一步讲,对方今日之所以认为 AI 的风险处于被低估的状态,无非是因为对方低估了人类解决这些风险的可能性。然而我方发现,无论是政策的制定,还是科技的发展,人类足够强大,人类也有足够的能力解决这些危险,所以现今不存在风险被高估的情况。
好,现需明确谁在评估 AI 威胁的可能性,对方仅打算讨论大部分无知的人,然而我方质疑的是,为何这些专家学者、政策制定者,他们并非是当下评估 AI 威胁人类可能性的主体,因为他们决定了社会将如何对待 AI,他们的观点决定了大多数人将如何追随。我方认为所有这些人群都必须加以讨论。我先提及一些无知的人群,对方告知我方,因无知所以第一步,然而是否存在这样的可能,即因为无知反而会倾向于夸大。就如慈禧第一次见到蒸汽火车时,因其不知那是什么,周围人告知其此物很恐怖,她便认为那是个喷气的魔鬼。如同现今大家不知 AI 为何物时,也会听信一些微信公众号的耸人听闻之言,只因这样最能吸引大家,最能激发大家的恐惧心理以获得关注,甚至会告知大家 AI 会毁灭人类的可能性是 99%,此类传播难道不是无知导致高估的可能性更大吗?
第二件事,对方无非提及 AI 可能威胁人类的种种可能性,我方也知晓存在此可能性,然而问题在于我方已为对方举证,对方所提出的这些风险,在其举证之时,就意味着这些风险已被充分认识到。不论是北京大学的专家学者,还是一些政策制定者,这是其一。其二,在对方提出风险的同时,也就意味着像欧盟或中国等的 AI 安全框架已将其纳入其中。校内的某个数据库收集了 700 多种,对,华盛顿数据库收集了 700 多种,此已成为号称人类目前对 AI 风险认知最深的一个数据库。我方坚信,我方举出的任何风险都已被容纳在这 700 多种之中。退一步讲,对方今日之所以认为 AI 的风险处于被低估的状态,无非是因为对方低估了人类解决这些风险的可能性。然而我方发现,无论是政策的制定,还是科技的发展,人类足够强大,人类也有足够的能力解决这些危险,所以现今不存在风险被高估的情况。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
进入双方四辩对辩环节,首先由正方发起,各一分半。
正方:对未知可能低估,也可能高估。比如对于学术造假的风险,如果我们倾向于低估,那为何一开始的态度是全面禁止?我们不光要看到学术方面,还要看到大众方面。我方想问,是不是只要看到有这样一个数据,有这样一个研究,就可以认为是正确的东西,而不能过于自信。起码要有对最大风险的科学认识,起码得有进步。回过头来看,PPT 的历史是允许的,可后来我们发现在全面禁止过后,其实没那么可怕,所以在二三年的时候逐步放开,甚至在澳洲允许学生用 GDP 写论文。这时我们发现,以前对风险高度估计,后来是对高度的纠偏。您方现在提到自己只能跟来聊一点,自己就心就好了,领导也提到过监管的问题,那我现在问您,996 尚且不能被监管,这些以前已经提过好多遍的问题,现在仍然存在,您方又如何能将所有风险一概监管?监管的措施是欧盟的法案,如果接收到的某一个模型有威胁人力的较高风险,它甚至会被禁止进入。所以回过头来看刚才所举的例子,如果对未知带来的是第一步,那我们最开始的态度不应该是全面禁止,而应该是全面开放。所以起码在这个例子里,我方证明对未知大家倾向于是高估的。
第二个例子,可解释的 AI,在 2018 年,我们认为 AI 本身有一个黑箱,这个问题不可解决,但到了 2021 年,已有可解释的 AI 出现。为何在您看来人类如此不行?回到您方刚才的问题,您方说过这个东西它可以解决,有的东西可以被禁止。我方现在发现,工作加班给加班费就好了,但是还是有很多人不给加班费,这样稍微软性的东西都不能禁止,那您是否认为它不会干扰人,不会与人竞争,产生这个机会?这难道不是一种威胁吗?所以您需要看它产生的威胁,也要看人类解决它的能力。
第三个部分的问题是 AI 解决就业岗位的问题。您说 AI 创造了很多新的就业岗位,可我方根据 2024 年的报道,AI 在解决就业岗位的过程中,最终一加一减,减少的就业岗位不超过现在的 2%。为何在您方看来,AI 就这么可怕,会取代那么多就业岗位?我觉得这一部分是这样,因为我的公司里 AI 也可以干我的工作,所以我被开了。AI 这样的情况发生在各行各业、各个领域,而您刚所说到的一个就业中间的问题开始出现在 IT 行业,没有程序员它也可以干这个事情。所以您刚提到了,这个部分对 VI 提出了更高的要求,这时需要您去做转型,这本身对人类是一个新的机遇,而不是挑战。
进入双方四辩对辩环节,首先由正方发起,各一分半。
正方:对未知可能低估,也可能高估。比如对于学术造假的风险,如果我们倾向于低估,那为何一开始的态度是全面禁止?我们不光要看到学术方面,还要看到大众方面。我方想问,是不是只要看到有这样一个数据,有这样一个研究,就可以认为是正确的东西,而不能过于自信。起码要有对最大风险的科学认识,起码得有进步。回过头来看,PPT 的历史是允许的,可后来我们发现在全面禁止过后,其实没那么可怕,所以在二三年的时候逐步放开,甚至在澳洲允许学生用 GDP 写论文。这时我们发现,以前对风险高度估计,后来是对高度的纠偏。您方现在提到自己只能跟来聊一点,自己就心就好了,领导也提到过监管的问题,那我现在问您,996 尚且不能被监管,这些以前已经提过好多遍的问题,现在仍然存在,您方又如何能将所有风险一概监管?监管的措施是欧盟的法案,如果接收到的某一个模型有威胁人力的较高风险,它甚至会被禁止进入。所以回过头来看刚才所举的例子,如果对未知带来的是第一步,那我们最开始的态度不应该是全面禁止,而应该是全面开放。所以起码在这个例子里,我方证明对未知大家倾向于是高估的。
第二个例子,可解释的 AI,在 2018 年,我们认为 AI 本身有一个黑箱,这个问题不可解决,但到了 2021 年,已有可解释的 AI 出现。为何在您看来人类如此不行?回到您方刚才的问题,您方说过这个东西它可以解决,有的东西可以被禁止。我方现在发现,工作加班给加班费就好了,但是还是有很多人不给加班费,这样稍微软性的东西都不能禁止,那您是否认为它不会干扰人,不会与人竞争,产生这个机会?这难道不是一种威胁吗?所以您需要看它产生的威胁,也要看人类解决它的能力。
第三个部分的问题是 AI 解决就业岗位的问题。您说 AI 创造了很多新的就业岗位,可我方根据 2024 年的报道,AI 在解决就业岗位的过程中,最终一加一减,减少的就业岗位不超过现在的 2%。为何在您方看来,AI 就这么可怕,会取代那么多就业岗位?我觉得这一部分是这样,因为我的公司里 AI 也可以干我的工作,所以我被开了。AI 这样的情况发生在各行各业、各个领域,而您刚所说到的一个就业中间的问题开始出现在 IT 行业,没有程序员它也可以干这个事情。所以您刚提到了,这个部分对 VI 提出了更高的要求,这时需要您去做转型,这本身对人类是一个新的机遇,而不是挑战。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方观点及论证过程:
反方观点及回应:未在正方发言中明确提及。
感谢双方的精彩发言,接下来有请正方三辩进行盘问,时间为 1 分 30 秒。
正方三辩:第一个问题,我想跟您确认一下,你们应该不打算通过论证 AI 存在的风险很厉害,而是要说 AI 目前不仅存在风险,还要说人类目前完全低估了这些风险,关键在于低估,而不在于是否存在风险,对吗?
反方:(未明确回应)
正方三辩:第二个问题,您说 AI 存在的最大问题,是因为所谓通过 AI 的发展都要遵循对人类有益的原则,并禁止反对的 AI 出现。在您看来,在认知层面是没有任何认知的。可是对方辩友,我们现在也看到了目前最新的关于 AI 治理的确切法案,在二月就已经出现了。所以您说在 2 月份已经认识到了,那这个法案的特别之处在哪里呢?我们想说的是对于 AI 的认知,是对 AI 双重性的认知,即要同时评估并保证其风险。这跟其他因素有什么关系呢?不好意思,今天我们要向您强调的是,目前大家只关注到了 AI 好的那面,而否认了它不好的那一面,大部分人都存在这种情况。
反方:(未明确回应)
正方三辩:那我再跟您提,比如说您说媒体今天报道 AI 的正面形象,也会报道负面形象,不是有媒体报道 AI 有毁灭灭绝的风险吗?为什么没有重视这个报道呢?可是,美方三大媒体至少也有媒体说 AI 存在风险,因为 AI 是把双刃剑,所以既有报道好的,也有报道不好的,怎么会得出那样的结论呢?
反方:(未明确回应)
正方三辩:可是我方在论述中已经提到了,目前大部分人对 AI 的认知。我问您,如果今天大家没有认识到 AI 的风险,为什么欧盟要出台最严格的限制 AI 的法案呢?这不是说明没有认知到风险吗?都要严格限制了。
反方:(未明确回应)
正方三辩:所以您也发现了,在这个情况之下,您一直说这些风险没有被认知到。我再跟您比较,根据对中国城镇进行的调查,近三年以来,中国城镇中认为 AI 的风险不会显现的人数提高了 33%,为什么在您看来这是没有认知呢?我提高 33%不等于没有低估吗?即使这个您只是在拆解您的论证,您的论证叫做没有认知到,而我认为您在反驳的认知是在不断提升的,所以您的第一层论证到底是什么呢?
反方:对方辩友,我告诉您了,部分人没有认知,部分人认知浅了,这提升的 33%不能等于所有人的认知都达到了。
正方三辩:我听明白了,所以您是寄希望于有一些无知的人没有认知到。那我问您,有任何一个技术可能不被引用了,因为总有无知的人存在,可是我后来发现也存在某些部分悲观的人,他们是怎么比较的呢?对方辩友,对于这个数据问题,我们想说的是,目前只有 2%的人在做这部分的科普,也只有 30%的人能接触到这方面的知识。那么实际上在总量上来说,是不是普通人对 AI 的认知还存在不足呢?
感谢双方的精彩发言,接下来有请正方三辩进行盘问,时间为 1 分 30 秒。
正方三辩:第一个问题,我想跟您确认一下,你们应该不打算通过论证 AI 存在的风险很厉害,而是要说 AI 目前不仅存在风险,还要说人类目前完全低估了这些风险,关键在于低估,而不在于是否存在风险,对吗?
反方:(未明确回应)
正方三辩:第二个问题,您说 AI 存在的最大问题,是因为所谓通过 AI 的发展都要遵循对人类有益的原则,并禁止反对的 AI 出现。在您看来,在认知层面是没有任何认知的。可是对方辩友,我们现在也看到了目前最新的关于 AI 治理的确切法案,在二月就已经出现了。所以您说在 2 月份已经认识到了,那这个法案的特别之处在哪里呢?我们想说的是对于 AI 的认知,是对 AI 双重性的认知,即要同时评估并保证其风险。这跟其他因素有什么关系呢?不好意思,今天我们要向您强调的是,目前大家只关注到了 AI 好的那面,而否认了它不好的那一面,大部分人都存在这种情况。
反方:(未明确回应)
正方三辩:那我再跟您提,比如说您说媒体今天报道 AI 的正面形象,也会报道负面形象,不是有媒体报道 AI 有毁灭灭绝的风险吗?为什么没有重视这个报道呢?可是,美方三大媒体至少也有媒体说 AI 存在风险,因为 AI 是把双刃剑,所以既有报道好的,也有报道不好的,怎么会得出那样的结论呢?
反方:(未明确回应)
正方三辩:可是我方在论述中已经提到了,目前大部分人对 AI 的认知。我问您,如果今天大家没有认识到 AI 的风险,为什么欧盟要出台最严格的限制 AI 的法案呢?这不是说明没有认知到风险吗?都要严格限制了。
反方:(未明确回应)
正方三辩:所以您也发现了,在这个情况之下,您一直说这些风险没有被认知到。我再跟您比较,根据对中国城镇进行的调查,近三年以来,中国城镇中认为 AI 的风险不会显现的人数提高了 33%,为什么在您看来这是没有认知呢?我提高 33%不等于没有低估吗?即使这个您只是在拆解您的论证,您的论证叫做没有认知到,而我认为您在反驳的认知是在不断提升的,所以您的第一层论证到底是什么呢?
反方:对方辩友,我告诉您了,部分人没有认知,部分人认知浅了,这提升的 33%不能等于所有人的认知都达到了。
正方三辩:我听明白了,所以您是寄希望于有一些无知的人没有认知到。那我问您,有任何一个技术可能不被引用了,因为总有无知的人存在,可是我后来发现也存在某些部分悲观的人,他们是怎么比较的呢?对方辩友,对于这个数据问题,我们想说的是,目前只有 2%的人在做这部分的科普,也只有 30%的人能接触到这方面的知识。那么实际上在总量上来说,是不是普通人对 AI 的认知还存在不足呢?
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
接下来有请反方三辩进行盘问,时间同样为 1 分 30 秒,有请。首先,第一个问题,您方所写的学界认知跟群众认知是有区别的吗?至少我颁布的政策,比如说我颁布了欧盟的政策,大家都会看到,而且学界也是学生的部分,先来看这一点,所以首先您也承认学界认知并不能完全代表所有学生的认知,对吧?学界认知并不代表各位群众都认识。对对,好,现在希望您后续能给出更多群众真正接触到的政策,接触到的这些学习的观点认知来,表明群众能够有这样的认知。
再说因为比较框架,您方今天跟我比较的框架是群众认知与现实的差距,那是不是我们双方需要探讨的是一大部分群众的认知情况是什么样的?我方一直在给您举趋势上的数据,您方在给我举个例子。听不明白您方的质疑在哪里,我想知道您方写出的内容。好,那就接着往下。
您方今天跟我说,您方说有政策说明就有认知,可是我方有两点质疑,第一点是您方只指出了欧盟这几个地方的情况,世界上有 60 亿人,欧盟才多少人啊,那您看能不能告诉我剩下的人,他们对于这个危险的认知在哪里呢?欧盟您至少承认了,往下说,中国,比如说像中国在前段时间就有像北京合约那样要一起绿色合规地发展,发展 AI,在各国都在进行 AI 尝试的时候,至少在政策层面各个国家都达成了共识,叫做我们要合规合法合理地发展。可是我们看到的是,大部分群众,他们的知识来源好像更多的是他们所接触的媒体,可是我方有数据告诉你,现在媒体上市场更流行的新闻聚合平台上,60%关于 AI 的报道都是倾向于娱乐化的,请问作为一个普通的群众,我要怎么接受到您方说的关于 AI 的威胁性的认识?对呀,接受到的是娱乐化的信息,就是马斯克说我们要停止 AI 的研究,而实际上马斯克说的是我们要合规地发展 AI,介绍的信息就是大家危言耸听地说 AI 会毁掉我们,AI 会变成一个有谋略的坏人,危害我们的生命安全。我们指出了娱乐化数据指的是在大众中更流行的关于 AI 的一些娱乐化的东西,包括老是说换脸会毁了自己,换脸会给自己带来多大危害的时候,也不一定能看到您方所说的那些信息,看到的就是一些不靠谱的信息吧,谢谢。
接下来有请反方三辩进行盘问,时间同样为 1 分 30 秒,有请。首先,第一个问题,您方所写的学界认知跟群众认知是有区别的吗?至少我颁布的政策,比如说我颁布了欧盟的政策,大家都会看到,而且学界也是学生的部分,先来看这一点,所以首先您也承认学界认知并不能完全代表所有学生的认知,对吧?学界认知并不代表各位群众都认识。对对,好,现在希望您后续能给出更多群众真正接触到的政策,接触到的这些学习的观点认知来,表明群众能够有这样的认知。
再说因为比较框架,您方今天跟我比较的框架是群众认知与现实的差距,那是不是我们双方需要探讨的是一大部分群众的认知情况是什么样的?我方一直在给您举趋势上的数据,您方在给我举个例子。听不明白您方的质疑在哪里,我想知道您方写出的内容。好,那就接着往下。
您方今天跟我说,您方说有政策说明就有认知,可是我方有两点质疑,第一点是您方只指出了欧盟这几个地方的情况,世界上有 60 亿人,欧盟才多少人啊,那您看能不能告诉我剩下的人,他们对于这个危险的认知在哪里呢?欧盟您至少承认了,往下说,中国,比如说像中国在前段时间就有像北京合约那样要一起绿色合规地发展,发展 AI,在各国都在进行 AI 尝试的时候,至少在政策层面各个国家都达成了共识,叫做我们要合规合法合理地发展。可是我们看到的是,大部分群众,他们的知识来源好像更多的是他们所接触的媒体,可是我方有数据告诉你,现在媒体上市场更流行的新闻聚合平台上,60%关于 AI 的报道都是倾向于娱乐化的,请问作为一个普通的群众,我要怎么接受到您方说的关于 AI 的威胁性的认识?对呀,接受到的是娱乐化的信息,就是马斯克说我们要停止 AI 的研究,而实际上马斯克说的是我们要合规地发展 AI,介绍的信息就是大家危言耸听地说 AI 会毁掉我们,AI 会变成一个有谋略的坏人,危害我们的生命安全。我们指出了娱乐化数据指的是在大众中更流行的关于 AI 的一些娱乐化的东西,包括老是说换脸会毁了自己,换脸会给自己带来多大危害的时候,也不一定能看到您方所说的那些信息,看到的就是一些不靠谱的信息吧,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
接下来有请正方三辩进行质询小结,时间为 2 分钟。
对方论点认为部分人是无知的,其论证已然破碎。在这里,对方的回应称,当一个人越无知,就越容易被风险所误导。那么就这个问题而言,哪些人最容易轻信呢?就是那些最无知的人最易受迷惑。但有人认为,如果作为一个对深度学习有所了解的人,应该知道深度学习的算法远不及人类的神经网络那么强大,就不太会被这边的 AI 毁灭论所误导。那今天,如果是一个无知的人,被告知今天的 AI 毁灭论的存在,不管是在科幻电影的渲染之下,还是在那些宣扬 AI 只有毁灭等风险的报道之下,就会更加倾向于相信。所以,如果对方的论证是人类是无知的,那么无知的人似乎更有可能被这种危险性、诱导性、煽动性的言论所误导。在这个层面上,如果对方没有论证再认可,这是第一件事情。
第二件事情,我方指出,实际上有很多实例可以充分证明人们对 AI 的风险是有认知的。例如,我方举证 78%的美国民众并不担心 AI 被政府恶意利用。所以在这种情况下,对方也无法论证大家对 AI 是毫无了解的。因此,我方认为今天一定会存在对 AI 的高估,这是来自于人类对 AI 的恐惧,而这个恐惧来自于什么?来自于 AI 与人的竞争,来自于害怕被时代淘汰的恐惧。换言之,当看到 AI 越来越能够完成曾经人类能够完成的一切工作时,有那么多的科幻片和媒体去宣传 AI 毁灭论、AI 烂理论等论调,人们会深深地被这种氛围影响,认为可能有一天会被 AI 所取代。这就是我方所论证的,为什么 AI 的风险永远存在。所以,AI 带来的这部分恐惧,我方认为其产生的原因在于人类能力的提升。曾经以为 AI 是一个算法,不可能被解释,可是后来随着人类的努力和进步,在 2021 年,AI 已经变成了可解释的算法原理。换言之,当人们能够越来越充分地认识到人类的能力可以不断提升的情况下,就不会那么轻易地被恐惧所支配,而当人们之前没有认识到人类的能力并不强大时,才会被恐惧所支配。在我方所论证的高度,本届正方三辩的陈述完毕。
接下来有请正方三辩进行质询小结,时间为 2 分钟。
对方论点认为部分人是无知的,其论证已然破碎。在这里,对方的回应称,当一个人越无知,就越容易被风险所误导。那么就这个问题而言,哪些人最容易轻信呢?就是那些最无知的人最易受迷惑。但有人认为,如果作为一个对深度学习有所了解的人,应该知道深度学习的算法远不及人类的神经网络那么强大,就不太会被这边的 AI 毁灭论所误导。那今天,如果是一个无知的人,被告知今天的 AI 毁灭论的存在,不管是在科幻电影的渲染之下,还是在那些宣扬 AI 只有毁灭等风险的报道之下,就会更加倾向于相信。所以,如果对方的论证是人类是无知的,那么无知的人似乎更有可能被这种危险性、诱导性、煽动性的言论所误导。在这个层面上,如果对方没有论证再认可,这是第一件事情。
第二件事情,我方指出,实际上有很多实例可以充分证明人们对 AI 的风险是有认知的。例如,我方举证 78%的美国民众并不担心 AI 被政府恶意利用。所以在这种情况下,对方也无法论证大家对 AI 是毫无了解的。因此,我方认为今天一定会存在对 AI 的高估,这是来自于人类对 AI 的恐惧,而这个恐惧来自于什么?来自于 AI 与人的竞争,来自于害怕被时代淘汰的恐惧。换言之,当看到 AI 越来越能够完成曾经人类能够完成的一切工作时,有那么多的科幻片和媒体去宣传 AI 毁灭论、AI 烂理论等论调,人们会深深地被这种氛围影响,认为可能有一天会被 AI 所取代。这就是我方所论证的,为什么 AI 的风险永远存在。所以,AI 带来的这部分恐惧,我方认为其产生的原因在于人类能力的提升。曾经以为 AI 是一个算法,不可能被解释,可是后来随着人类的努力和进步,在 2021 年,AI 已经变成了可解释的算法原理。换言之,当人们能够越来越充分地认识到人类的能力可以不断提升的情况下,就不会那么轻易地被恐惧所支配,而当人们之前没有认识到人类的能力并不强大时,才会被恐惧所支配。在我方所论证的高度,本届正方三辩的陈述完毕。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
接下来请反方三辩进行质询小结,时间为 2 分钟。
对方的第一个论点告诉我说,人们对 AI 有认识,是因为人们害怕这些拟人而非人的东西。可是我方认为,您方说的恐怖谷效应是针对实体,是智能实体吓人,然而我方发现,现在我们讨论的人工智能,AI 它们现在是没有实体的,只是网络上的一个链接,似乎并不像您方所说的真正具有人的那些外表特征。所以,您们所说的恐怖谷效应好像根本不能在人工智能上完全实现。
好,再来看您方说的第二个点。您方说人在使用 AI 的时候,只担心人们会被 AI 取代。可是您方真正好好想一想,像你我这样的大学生在用 AI 帮助自己完成作业,完成一些机械化的工作时,您在担心的真的是自己被 AI 取代吗?您好像只会感到沾沾自喜,哎,我今天用 AI 帮我解决了一个作业,原本我需要花 2 个小时完成,现在我只有 5 分钟就搞定了。可见,原本并没有产生您方说的这样被取代的恐慌,没有这样被取代的害怕。真正被取代好像是看不见的害怕。
为什么呢?您方说今天 AI 与教师工作的同时,会带来很多新工作,可是我方要问,这些新工作的门槛是不是变高了?以前我做螺丝钉也是工作,可现在 AI 出现后,您给我的新工作可能是让我去监视机器人拧螺丝钉。那么,这样的工作是不是有一定技术上的提升?我真的还能胜任这些新工作吗?好像不一定。
对于您方辩论的第二个问题,您方告诉我在历史潮流中,长久以来人类倾向于高估风险。可是我方今天看到的是,在切尔诺贝利事件一开始之初,人们好像现在是低估了自己所未知的风险,才导致了之后一系列的争议。这是不是说明历史上同样有很多事情,人类是倾向于低估自己看不到的风险呢?您方那边告诉我说,人类对未知的东西更容易高估,可是为什么古话说初生牛犊不怕虎,因为他无知,所以他无畏。人们在看到自己所不知道的东西的时候,他恰恰现在是最没有畏惧感的,他不知道这个东西究竟有多难多可怕,所以他对其没有丝毫的畏惧之心。
以上,感谢反方三辩的精彩陈述。
接下来请反方三辩进行质询小结,时间为 2 分钟。
对方的第一个论点告诉我说,人们对 AI 有认识,是因为人们害怕这些拟人而非人的东西。可是我方认为,您方说的恐怖谷效应是针对实体,是智能实体吓人,然而我方发现,现在我们讨论的人工智能,AI 它们现在是没有实体的,只是网络上的一个链接,似乎并不像您方所说的真正具有人的那些外表特征。所以,您们所说的恐怖谷效应好像根本不能在人工智能上完全实现。
好,再来看您方说的第二个点。您方说人在使用 AI 的时候,只担心人们会被 AI 取代。可是您方真正好好想一想,像你我这样的大学生在用 AI 帮助自己完成作业,完成一些机械化的工作时,您在担心的真的是自己被 AI 取代吗?您好像只会感到沾沾自喜,哎,我今天用 AI 帮我解决了一个作业,原本我需要花 2 个小时完成,现在我只有 5 分钟就搞定了。可见,原本并没有产生您方说的这样被取代的恐慌,没有这样被取代的害怕。真正被取代好像是看不见的害怕。
为什么呢?您方说今天 AI 与教师工作的同时,会带来很多新工作,可是我方要问,这些新工作的门槛是不是变高了?以前我做螺丝钉也是工作,可现在 AI 出现后,您给我的新工作可能是让我去监视机器人拧螺丝钉。那么,这样的工作是不是有一定技术上的提升?我真的还能胜任这些新工作吗?好像不一定。
对于您方辩论的第二个问题,您方告诉我在历史潮流中,长久以来人类倾向于高估风险。可是我方今天看到的是,在切尔诺贝利事件一开始之初,人们好像现在是低估了自己所未知的风险,才导致了之后一系列的争议。这是不是说明历史上同样有很多事情,人类是倾向于低估自己看不到的风险呢?您方那边告诉我说,人类对未知的东西更容易高估,可是为什么古话说初生牛犊不怕虎,因为他无知,所以他无畏。人们在看到自己所不知道的东西的时候,他恰恰现在是最没有畏惧感的,他不知道这个东西究竟有多难多可怕,所以他对其没有丝毫的畏惧之心。
以上,感谢反方三辩的精彩陈述。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方:现在不仅有我方讲的那些所谓的 AI 好像没什么大不了,我方也看到有很多言论在渲染 AI 的危害,甚至美国 BBC 有报道说 AI 将在 30 年之内毁灭人类、全面取代人类。在您方看来,这样的理论是低波还是高呼?这样的理论当然不太科学。但是这个系列工具使得人们撰写文献、写作等关键能力在退化,大家为了防止查重,只是去改几个字,更不在乎自己能力是否有退化,这样的东西都不算是威胁人类的能力,为啥?因为他们可能认识到自己的坏处在某些方面是不可为的,这跟认知有什么关系?所以往下问的就是根据 36 课的调查,40%人都认同 AI 作用,所以您认为 AI 作用是高患,是肌肤的表现,您方为什么觉得这个是高科的表现呢?那您方是不是要跟我论证,AI 一定不会毁灭人类啊?所以,在欧盟出台了最严格的人工智能控制法案的情况之下,如果对人类有清晰的认知,就会知道人类不可能允许如此之强的力量出现,可您现在没有认知到,您对人类的能力产生了如此的低估,却又对这功能产生如此的高估。为什么?所以您方意思是媒体说什么就是什么?
正方:接下来我问您,今天我通过人工智能查询信息,它给出的是一个不真实的数据,这互相威胁了我们的认知,所以您要看大家有没有认识到这个风险。我方的举证是在 2024 年的时候,欧洲和香港已经全面禁止了产品 GDT,可是在 2023 年又允许大家使用,这不就证明我们以前从高估变成了回归到理性了吗?所以回过头来,刚刚 AI 回归论的例子不都证明了人类应该对 AI 有信心,所以您不要害怕 AI 的发展。可是对方辩友发现,今天您告诉我们要讨论群众对 AI 的认知,可是您全方面都在说一些媒体,一些比较高大上的组织对于 AI 是怎么样的认知,我们想回到群众方面的认知,我想知道到底有多少人知道那个华盛顿出现了 700 个人类可能被替代的职位呢?如果您讲的是群众认知的话,大家对一些无知的群众,不是更容易被您所谓的那些负面信息跟谣言信息所误导。所以,我们可以看到市面上更多的消息就是一些娱乐化不涉及风险相关的信息啊,您方一直说这一部分信息是有关风险,可是我们看到数据显示的是无关风险的,我方刚刚阐释过这个娱乐话题,我方说的很清楚。马克龙和马斯克,马斯克本来说的是我们要维持人工智能的发展,可是被营销消耗娱乐化地宣传成我们要禁止人工智能的发展,那您看这是高扩程中的什么呢?我方告诉您的不是娱乐化的这种消息转达,而是说它的内容是娱乐化的。比如说今天我跟我朋友聊到 AI 外语,但是人们只是关注到了它的趣味性,而丝毫没有去宣传它的威胁性,我方告诉您的是这样的,宣传它趣味性的报道占 60%,所以趣味性是一个概念,根本证不成任何双方的立场,所以回过头来,刚才我方也用 AI 本身的例子告诉您,其实人类本身是有高估的风险的。
正方:最后一个,我来跟您比较,人类是不是有可能看到 AI 的收益,就像您方讲的 AI 本身,人类只基于自己的视角看到自己的岗位可能被 AI 取代,可是看不到 AI 同样创造了 6000 余万新的岗位,为什么在人类的视角下,AI 这个就业岗位的取代是威胁人类的风险,可是对方辩友,今天我告诉您,所有产生的新岗位都是一些高精尖的岗位,是一些只有像华为最顶尖工程师才能胜任的岗位。我作为一个小小的工厂拧螺丝的人,我想知道这些优化出来的岗位怎么惠及到我自己呢?可是您讲的是事实,我刚给您讲的是认知,换言之,他们媒体都只报道会有多少多少失业,而掩饰后半段会创造多少就业的时候,它引导出的舆论到底是包括了什么?可是我们问题就是媒体现在引导的舆论恰恰是,恰恰是他们在说 AI 的好处,AI 的娱乐化的东西,这难道不是低俗的表现吗?我有一个很根本的疑惑,AI 有没有好处?我可以说,可是我们看到是 60%的都在说,而剩下的 40%的报道也不全是关于风险性的报道。您方请问,我作为一个普通民众,如何接收到您方说的那些关于 AI 风险性的正确认知的理论?您方跟我说了那么多政策,可是那么多政策,那么多风险,可是我想问您方,您方在自己亲自打这个辩题之前,有多少人知道您方说的那些东西啊?可是我方讲的是它夸大了后面的事实。换言之,刚才讲出 AI 毁灭论题及刚报道失业问题的时候,只报道失业,不报道创造就业,他到底是夸大事实,还是您方所在的几乎事实?您方对于这样的报道的论证,在我方有 60%的数据告诉您,我方举的证说不管是美联社还是欧盟,还是我方提的澳大利亚都肯定地发布了最严格的建设安全的法案,论证是因为您发出来的都是一些高高在上的东西,我觉得您方自己在打击这个辩题,现在都不一定知道这些东西,何况更普通的人呢?我方告诉您 60%的数据是想告诉您大众能接触到更多的信息,就是这样娱乐化的信息,请问站在您方角度,大众让您接触到这样的认知,怎么知道大众传媒上更有传播力的就是那些科幻电影和科幻作品呢?可是对方辩友今天我告诉您,根本大家根本就没有看到这些东西,60%也是没有看到这些,60%根本没有思考过大家看您对我的无心有没有影响,是不是他们有没有看到您方就是看到了夸大世界的科幻电影,不是论证出了各种片还的高空的立场。
时间到,正方还有 13 秒。
哦,所以一边 AI 威胁人类的现实可能性被这些政策很好地追溯到了一个极低的状态,可是一边大众娱乐就面向是 AI 毁灭论这样极端的理论,无法统一。
正方:现在不仅有我方讲的那些所谓的 AI 好像没什么大不了,我方也看到有很多言论在渲染 AI 的危害,甚至美国 BBC 有报道说 AI 将在 30 年之内毁灭人类、全面取代人类。在您方看来,这样的理论是低波还是高呼?这样的理论当然不太科学。但是这个系列工具使得人们撰写文献、写作等关键能力在退化,大家为了防止查重,只是去改几个字,更不在乎自己能力是否有退化,这样的东西都不算是威胁人类的能力,为啥?因为他们可能认识到自己的坏处在某些方面是不可为的,这跟认知有什么关系?所以往下问的就是根据 36 课的调查,40%人都认同 AI 作用,所以您认为 AI 作用是高患,是肌肤的表现,您方为什么觉得这个是高科的表现呢?那您方是不是要跟我论证,AI 一定不会毁灭人类啊?所以,在欧盟出台了最严格的人工智能控制法案的情况之下,如果对人类有清晰的认知,就会知道人类不可能允许如此之强的力量出现,可您现在没有认知到,您对人类的能力产生了如此的低估,却又对这功能产生如此的高估。为什么?所以您方意思是媒体说什么就是什么?
正方:接下来我问您,今天我通过人工智能查询信息,它给出的是一个不真实的数据,这互相威胁了我们的认知,所以您要看大家有没有认识到这个风险。我方的举证是在 2024 年的时候,欧洲和香港已经全面禁止了产品 GDT,可是在 2023 年又允许大家使用,这不就证明我们以前从高估变成了回归到理性了吗?所以回过头来,刚刚 AI 回归论的例子不都证明了人类应该对 AI 有信心,所以您不要害怕 AI 的发展。可是对方辩友发现,今天您告诉我们要讨论群众对 AI 的认知,可是您全方面都在说一些媒体,一些比较高大上的组织对于 AI 是怎么样的认知,我们想回到群众方面的认知,我想知道到底有多少人知道那个华盛顿出现了 700 个人类可能被替代的职位呢?如果您讲的是群众认知的话,大家对一些无知的群众,不是更容易被您所谓的那些负面信息跟谣言信息所误导。所以,我们可以看到市面上更多的消息就是一些娱乐化不涉及风险相关的信息啊,您方一直说这一部分信息是有关风险,可是我们看到数据显示的是无关风险的,我方刚刚阐释过这个娱乐话题,我方说的很清楚。马克龙和马斯克,马斯克本来说的是我们要维持人工智能的发展,可是被营销消耗娱乐化地宣传成我们要禁止人工智能的发展,那您看这是高扩程中的什么呢?我方告诉您的不是娱乐化的这种消息转达,而是说它的内容是娱乐化的。比如说今天我跟我朋友聊到 AI 外语,但是人们只是关注到了它的趣味性,而丝毫没有去宣传它的威胁性,我方告诉您的是这样的,宣传它趣味性的报道占 60%,所以趣味性是一个概念,根本证不成任何双方的立场,所以回过头来,刚才我方也用 AI 本身的例子告诉您,其实人类本身是有高估的风险的。
正方:最后一个,我来跟您比较,人类是不是有可能看到 AI 的收益,就像您方讲的 AI 本身,人类只基于自己的视角看到自己的岗位可能被 AI 取代,可是看不到 AI 同样创造了 6000 余万新的岗位,为什么在人类的视角下,AI 这个就业岗位的取代是威胁人类的风险,可是对方辩友,今天我告诉您,所有产生的新岗位都是一些高精尖的岗位,是一些只有像华为最顶尖工程师才能胜任的岗位。我作为一个小小的工厂拧螺丝的人,我想知道这些优化出来的岗位怎么惠及到我自己呢?可是您讲的是事实,我刚给您讲的是认知,换言之,他们媒体都只报道会有多少多少失业,而掩饰后半段会创造多少就业的时候,它引导出的舆论到底是包括了什么?可是我们问题就是媒体现在引导的舆论恰恰是,恰恰是他们在说 AI 的好处,AI 的娱乐化的东西,这难道不是低俗的表现吗?我有一个很根本的疑惑,AI 有没有好处?我可以说,可是我们看到是 60%的都在说,而剩下的 40%的报道也不全是关于风险性的报道。您方请问,我作为一个普通民众,如何接收到您方说的那些关于 AI 风险性的正确认知的理论?您方跟我说了那么多政策,可是那么多政策,那么多风险,可是我想问您方,您方在自己亲自打这个辩题之前,有多少人知道您方说的那些东西啊?可是我方讲的是它夸大了后面的事实。换言之,刚才讲出 AI 毁灭论题及刚报道失业问题的时候,只报道失业,不报道创造就业,他到底是夸大事实,还是您方所在的几乎事实?您方对于这样的报道的论证,在我方有 60%的数据告诉您,我方举的证说不管是美联社还是欧盟,还是我方提的澳大利亚都肯定地发布了最严格的建设安全的法案,论证是因为您发出来的都是一些高高在上的东西,我觉得您方自己在打击这个辩题,现在都不一定知道这些东西,何况更普通的人呢?我方告诉您 60%的数据是想告诉您大众能接触到更多的信息,就是这样娱乐化的信息,请问站在您方角度,大众让您接触到这样的认知,怎么知道大众传媒上更有传播力的就是那些科幻电影和科幻作品呢?可是对方辩友今天我告诉您,根本大家根本就没有看到这些东西,60%也是没有看到这些,60%根本没有思考过大家看您对我的无心有没有影响,是不是他们有没有看到您方就是看到了夸大世界的科幻电影,不是论证出了各种片还的高空的立场。
时间到,正方还有 13 秒。
哦,所以一边 AI 威胁人类的现实可能性被这些政策很好地追溯到了一个极低的状态,可是一边大众娱乐就面向是 AI 毁灭论这样极端的理论,无法统一。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
好,感谢主席。对方辩友,今天您方告诉我两个问题。第一个是在大众渲染下,这个恐惧是过度的,然后您方提出的理由首先是有这个拟人性,但我方刚才也说过,这个拟人性实际上并不存在于 AI 这一方面。我们从大量理论上,关于意识和关于 AI 是否有这种人性的统计,并没有实际指向个人的 AI。您方刚刚又告诉我说,我方今天举的一切资料都是我们已经认识到了符号文字的结果。换言之,我们今天所说的所有的所谓危害,都可以被您方认为,都可以归为您方高估的立场预设。我们也提到了学界认知到了,但并未到达群众的认知。我们学界当然可以有很多的理论,但是这些东西真的能够有多少能够传递到群众当中呢?我方对此表示怀疑。您方又提到可以通过控制方案来减少对 AI 的威胁,可是这些好像都是在论证,多么强大的人工智能个体可以被约束,可是普遍的、基础的 AI 工具它已经进入到人类的生活。我今天作为一个普通大众,我一生所学的东西只够支撑我做一些基础性的工作,那现在占更多比例的大众是否会被 AI 取代呢?您方所说的这些反而根本没有办法去控制,而这些控制措施反而是在针对那些看起来好像很强大、威胁到更加宏观层面的东西,而不能真正进入到我们细微的生活当中。
当您方又提出第二个论点,就是这些恐惧中我们应该看到的价值是人定胜天,但这正是我方所反驳的。你们无异于在告诉我们,成功只能以错误的高估为前提。我方想说的是,我方其实承认 AI 是一个好东西,但是就像工业革命当中忽略了环境保护一样,在发展之初,往往是对威胁的第一步忽视。面对这样可能的威胁,我们当然应该抱有足够的警惕,而不是将其完全交给监管,天真地以为只要有人去做这么重要的事,就可以高枕无忧地享受到原本的便利。所以我方今天告诉您,人工智能的发展已经对我们的能力和生存产生了影响,对于我们的阅读理解能力、写作能力这样细微的小能力,我们似乎有些过于自信,我们认为我们可以轻松地将其忽略掉,但实际上它们对我们的大脑的影响是非常大的。
好,感谢主席。对方辩友,今天您方告诉我两个问题。第一个是在大众渲染下,这个恐惧是过度的,然后您方提出的理由首先是有这个拟人性,但我方刚才也说过,这个拟人性实际上并不存在于 AI 这一方面。我们从大量理论上,关于意识和关于 AI 是否有这种人性的统计,并没有实际指向个人的 AI。您方刚刚又告诉我说,我方今天举的一切资料都是我们已经认识到了符号文字的结果。换言之,我们今天所说的所有的所谓危害,都可以被您方认为,都可以归为您方高估的立场预设。我们也提到了学界认知到了,但并未到达群众的认知。我们学界当然可以有很多的理论,但是这些东西真的能够有多少能够传递到群众当中呢?我方对此表示怀疑。您方又提到可以通过控制方案来减少对 AI 的威胁,可是这些好像都是在论证,多么强大的人工智能个体可以被约束,可是普遍的、基础的 AI 工具它已经进入到人类的生活。我今天作为一个普通大众,我一生所学的东西只够支撑我做一些基础性的工作,那现在占更多比例的大众是否会被 AI 取代呢?您方所说的这些反而根本没有办法去控制,而这些控制措施反而是在针对那些看起来好像很强大、威胁到更加宏观层面的东西,而不能真正进入到我们细微的生活当中。
当您方又提出第二个论点,就是这些恐惧中我们应该看到的价值是人定胜天,但这正是我方所反驳的。你们无异于在告诉我们,成功只能以错误的高估为前提。我方想说的是,我方其实承认 AI 是一个好东西,但是就像工业革命当中忽略了环境保护一样,在发展之初,往往是对威胁的第一步忽视。面对这样可能的威胁,我们当然应该抱有足够的警惕,而不是将其完全交给监管,天真地以为只要有人去做这么重要的事,就可以高枕无忧地享受到原本的便利。所以我方今天告诉您,人工智能的发展已经对我们的能力和生存产生了影响,对于我们的阅读理解能力、写作能力这样细微的小能力,我们似乎有些过于自信,我们认为我们可以轻松地将其忽略掉,但实际上它们对我们的大脑的影响是非常大的。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
人工智能的发展已经对人类的能力和生存产生了影响,人们对人工智能威胁的认识存在不足,现有的应对措施也存在问题,因此我们应该对人工智能的发展抱有足够的警惕,而不是盲目乐观。