好,谢谢大家。
现在,古今民众对于技术常常存在的问题,无论是被称作真实的、模糊的珍惜题,还是被宣扬理想中的结构,都存在着学界共识与群众认知之间的错位。也就是说,高估与低估本质上是由于双方之间的知识鸿沟产生的错位。而人工智能指的是通过计算机模拟人类智能,以达到类似于人类智能的表现和现实基础的理论。今天判断人工智能危险能力可能性存在被高估还是低估,关键是要看这一命题中群众认知与现实之间的差异是怎样的。
首先,当下的群众对于人工智能有过高的担忧。一方面,机械类比有机,这导致群众对于人工智能产生恐惧。武汉大学某位教授的研究发现,人类倾向于拟人化机械,大多数人无法理解为什么在看似与人交流的 APP 中既不具有独立人格,而对于机械的粘性呈现出了高度类似于恐怖效应的体现。2023 年米克尔关于人工智能趋势的民意调查中发现,78%的受访者信任人工智能,这基本上是由于人类以己度物的思维方式,推出自然万物都像人一样具有智能、具有灵魂,因此引发了人们的自然恐惧,恐惧自然具有智能,甚至其远远高于人类的智能。
另一方面,各种媒体的宣传加大了群众对人工智能的恐惧。从 1968 年的《太空奥德赛》到 2015 年的《超验骇客》时代,科幻小说写作、流行电影都在猜测人工智能超越了创作者的期望,逃出了他们的掌控。对于击败独立人类、不描述人类主体,再用各种夸张的文章标题,如“人工智能终将取代人类”“AI 威胁人类”等,用夸张的标题吸引人们点击查看内容,而这些非官方来源的小道消息并非真实消息,造成了误导的效果,网络平台轻易加深了人们对人工智能实际上的威胁的误解,然而人工智能的威胁远没有那么大。
并且,在某人工智能研究所发布的 2023 年人工智能技术报告中,某模型第一次训练的耗费量为 1。同时,研究所发布的 2023 年另一模型第三次训练的耗电量为 1287 兆瓦时,大约相当于 3000 辆特斯拉电动汽车每辆车跑 20 万公里的总耗电量。但据预测,到 2030 年,因 AI 训练消耗的电量将占全球 10%的电量,也就是说训练 AI 的成本对于资源的消耗是十分庞大的,这就导致了未来 AI 的发展根本不会像大多数群众所想的那样会威胁人类,而是会很快陷入瓶颈,难以发展。
而当下有关人工智能恐惧的主要观念其实在失业问题,根据安戴肯锡全球研究院对于发展中的职业 2000 多项工作内容进行分析发现,只有不到 5%的职业可以实现全面自动化,而大多数职业因自动化产生的是性质转变而非消失,也就是说人工智能在绝大多数领域只是改变了人们的工作方式,而不是导致岗位消失。同时,世界经济的发展中,2015 年 AI 创造了 5.999 万个新工作岗位。回顾人类历史,每次的技术革命,都带来了对于变革的恐惧和未来的担忧,但也因此带来了新工作的大量出现和有效增长,实际上并没有在效率上产生负面影响。
好,谢谢大家。
现在,古今民众对于技术常常存在的问题,无论是被称作真实的、模糊的珍惜题,还是被宣扬理想中的结构,都存在着学界共识与群众认知之间的错位。也就是说,高估与低估本质上是由于双方之间的知识鸿沟产生的错位。而人工智能指的是通过计算机模拟人类智能,以达到类似于人类智能的表现和现实基础的理论。今天判断人工智能危险能力可能性存在被高估还是低估,关键是要看这一命题中群众认知与现实之间的差异是怎样的。
首先,当下的群众对于人工智能有过高的担忧。一方面,机械类比有机,这导致群众对于人工智能产生恐惧。武汉大学某位教授的研究发现,人类倾向于拟人化机械,大多数人无法理解为什么在看似与人交流的 APP 中既不具有独立人格,而对于机械的粘性呈现出了高度类似于恐怖效应的体现。2023 年米克尔关于人工智能趋势的民意调查中发现,78%的受访者信任人工智能,这基本上是由于人类以己度物的思维方式,推出自然万物都像人一样具有智能、具有灵魂,因此引发了人们的自然恐惧,恐惧自然具有智能,甚至其远远高于人类的智能。
另一方面,各种媒体的宣传加大了群众对人工智能的恐惧。从 1968 年的《太空奥德赛》到 2015 年的《超验骇客》时代,科幻小说写作、流行电影都在猜测人工智能超越了创作者的期望,逃出了他们的掌控。对于击败独立人类、不描述人类主体,再用各种夸张的文章标题,如“人工智能终将取代人类”“AI 威胁人类”等,用夸张的标题吸引人们点击查看内容,而这些非官方来源的小道消息并非真实消息,造成了误导的效果,网络平台轻易加深了人们对人工智能实际上的威胁的误解,然而人工智能的威胁远没有那么大。
并且,在某人工智能研究所发布的 2023 年人工智能技术报告中,某模型第一次训练的耗费量为 1。同时,研究所发布的 2023 年另一模型第三次训练的耗电量为 1287 兆瓦时,大约相当于 3000 辆特斯拉电动汽车每辆车跑 20 万公里的总耗电量。但据预测,到 2030 年,因 AI 训练消耗的电量将占全球 10%的电量,也就是说训练 AI 的成本对于资源的消耗是十分庞大的,这就导致了未来 AI 的发展根本不会像大多数群众所想的那样会威胁人类,而是会很快陷入瓶颈,难以发展。
而当下有关人工智能恐惧的主要观念其实在失业问题,根据安戴肯锡全球研究院对于发展中的职业 2000 多项工作内容进行分析发现,只有不到 5%的职业可以实现全面自动化,而大多数职业因自动化产生的是性质转变而非消失,也就是说人工智能在绝大多数领域只是改变了人们的工作方式,而不是导致岗位消失。同时,世界经济的发展中,2015 年 AI 创造了 5.999 万个新工作岗位。回顾人类历史,每次的技术革命,都带来了对于变革的恐惧和未来的担忧,但也因此带来了新工作的大量出现和有效增长,实际上并没有在效率上产生负面影响。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
判断人工智能危险能力可能性存在被高估还是低估,关键是看群众认知与现实之间的差异是怎样的。
综上所述,正方认为群众对人工智能的危险能力存在高估,这种高估是由于群众认知与现实之间的差异所导致的,包括对人工智能的过高担忧、媒体宣传的影响、训练成本的限制以及对失业问题的错误认知等方面。
您方给出大量数据证明人们不信任人工智能,难道这就代表他们不使用人工智能吗?您方所描绘的高估的样态,是否仅仅停留在认知层面呢?人类可能会使用,就像当下有人在用核能,这并不代表大家不会恐惧其对未来可能造成的影响。请您方具体描述一下,您方认为的恐惧的样态是什么样的。我方认为,只有非常恐惧并且落实到行动上才是真正的恐惧样态。比如在新冠肺炎下,我们因为极度恐惧,会囤很多食物在家,会准备很多口罩和抗原,只有落实到行动上,才能反映出当下的恐慌。
还有一个问题,您方提出人工智能所带来的危害没有那么大,那这些危害难道就可以忽略吗?虽然行为上可能存在恐惧,比如有数据显示,AI 在骨科有 10 万多台手术案例,但像我及我身边的人,真的不敢把自己的生命安全交给 AI 做手术,这是恐惧在形式上的体现。
您方只是指出了您不敢把自己的手术交给 AI,请您方给出更多的数据。另外,您方认为人工智能没有那么大的危害,那像数据造假所引发的一系列后果等这些危害,您方认为可以忽略吗?我认为两件事,一是市场上有 78%的人对某些东西不敢去使用,二是使用数据代码,这件事至少要把归因导致人工智能带来的数据造假,而不是其他科学技术带来的数据造假,这两者的归因是不一样的。我方在后续的数据中会给到,我方给出的是人的认知要落实到行为上的观点。
您方给出大量数据证明人们不信任人工智能,难道这就代表他们不使用人工智能吗?您方所描绘的高估的样态,是否仅仅停留在认知层面呢?人类可能会使用,就像当下有人在用核能,这并不代表大家不会恐惧其对未来可能造成的影响。请您方具体描述一下,您方认为的恐惧的样态是什么样的。我方认为,只有非常恐惧并且落实到行动上才是真正的恐惧样态。比如在新冠肺炎下,我们因为极度恐惧,会囤很多食物在家,会准备很多口罩和抗原,只有落实到行动上,才能反映出当下的恐慌。
还有一个问题,您方提出人工智能所带来的危害没有那么大,那这些危害难道就可以忽略吗?虽然行为上可能存在恐惧,比如有数据显示,AI 在骨科有 10 万多台手术案例,但像我及我身边的人,真的不敢把自己的生命安全交给 AI 做手术,这是恐惧在形式上的体现。
您方只是指出了您不敢把自己的手术交给 AI,请您方给出更多的数据。另外,您方认为人工智能没有那么大的危害,那像数据造假所引发的一系列后果等这些危害,您方认为可以忽略吗?我认为两件事,一是市场上有 78%的人对某些东西不敢去使用,二是使用数据代码,这件事至少要把归因导致人工智能带来的数据造假,而不是其他科学技术带来的数据造假,这两者的归因是不一样的。我方在后续的数据中会给到,我方给出的是人的认知要落实到行为上的观点。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
人工智能是通过计算机算法、信息、模拟研究思维过程和智能行为的科学。现有人工智能技术和产品发展迅速,可为我们带来便利,同时也引发了不容忽视的风险。而面对风险,人们应该重视并对风险事项做出积极的防范。
综上,我方认为如果对所面临的风险持轻视态度,不做充足防备,会极为低估风险;相反,过度高估风险影响,造成群众恐慌并做出过度防备,也是不可取的。人类进入了一个需要重视此问题的阶段。
首先,现在人们对于人工智能威胁存在轻视态度。大众对 AI 的认知调研报告显示,多数大众对 AI 的认知处于一知半解的状态,只有 20%的大众对 AI 比较了解或非常了解。2024 年人工智能工动态预热塔报告显示,目前为止,有 65.7%的人觉得人工智能对自己的积极影响大于消极影响,只有 8%的人认为人工智能对自己有消极影响。人工智能已逐渐融入生活,但大部分人对其认识仍有待提高。在荷兰,大多数受过高等教育的人(61%)对人工智能持赞同态度,而在教育程度较低的人中,这一比例为 40%。在 11 个公众中,年龄是影响对人工智能看法的重要因素,年轻人通常比老年人对这项技术更有积极的看法。但我们发现,即使是受过高等教育的人群,仍存在滥用 AI 的现象,如人们滥用 AI 创作,对个人隐私侵犯毫不在意。写作业方面为 52.1%,视频处理为 52.1%,A32.5%(此处表述不太明确),信息检索图片生成率为 48.8%。
其次,顶级大国的安全条例建立存在问题。目前依靠企业自主,政府对 AI 的基本措施应对不足。2019 年哈国商业评论中,全球 AI 公司五强分别是谷歌、苹果、微软、百度和亚马逊。在我国,全国两会上张业提到,目前我国尚未设立统一的算法监管机构,当前相关管理规定主要为部门规章、规范性文件和推进性有效标准,法律效率较低,法律责任多为框架化、倡导性原则,导致算法治理内容与违法性行为未形成充分对应关系。而在美国,AI 领域也没有形成一部全面、统一的 AI 立法。权威性较高的 2020 年国家人工智能创新方案于 2021 年 1 月在第 116 届国会通过,其目的是强化和协调各联邦机构的人工智能研发活动,确保美国在全球人工智能技术领域保持领先地位。而在 2024 年 2 月提出的时代保监管的 Open AI、谷歌、mata 等主要全球 AI 企业加入的安全法案,却在 2024 年 9 月被否决。大部分的法案与政策仍是服务于成熟领域,且很多政策法案的效力不足。《纽约时报》专业文章指出,由于法案的执行要求 27 个学员(此处可能存在错误),考虑到需要在政府财政情况下增加这方面预算,其执行情况可能堪忧。此前我们同样有一些缺乏执行的人工智能安全方案的数据及立法,并因此饱受诟病。
综上所述,我方认为目前人类对 AI 的威胁认识不足,应呼吁人们深入了解 AI,通过发展自身来应对。
人工智能是通过计算机算法、信息、模拟研究思维过程和智能行为的科学。现有人工智能技术和产品发展迅速,可为我们带来便利,同时也引发了不容忽视的风险。而面对风险,人们应该重视并对风险事项做出积极的防范。
综上,我方认为如果对所面临的风险持轻视态度,不做充足防备,会极为低估风险;相反,过度高估风险影响,造成群众恐慌并做出过度防备,也是不可取的。人类进入了一个需要重视此问题的阶段。
首先,现在人们对于人工智能威胁存在轻视态度。大众对 AI 的认知调研报告显示,多数大众对 AI 的认知处于一知半解的状态,只有 20%的大众对 AI 比较了解或非常了解。2024 年人工智能工动态预热塔报告显示,目前为止,有 65.7%的人觉得人工智能对自己的积极影响大于消极影响,只有 8%的人认为人工智能对自己有消极影响。人工智能已逐渐融入生活,但大部分人对其认识仍有待提高。在荷兰,大多数受过高等教育的人(61%)对人工智能持赞同态度,而在教育程度较低的人中,这一比例为 40%。在 11 个公众中,年龄是影响对人工智能看法的重要因素,年轻人通常比老年人对这项技术更有积极的看法。但我们发现,即使是受过高等教育的人群,仍存在滥用 AI 的现象,如人们滥用 AI 创作,对个人隐私侵犯毫不在意。写作业方面为 52.1%,视频处理为 52.1%,A32.5%(此处表述不太明确),信息检索图片生成率为 48.8%。
其次,顶级大国的安全条例建立存在问题。目前依靠企业自主,政府对 AI 的基本措施应对不足。2019 年哈国商业评论中,全球 AI 公司五强分别是谷歌、苹果、微软、百度和亚马逊。在我国,全国两会上张业提到,目前我国尚未设立统一的算法监管机构,当前相关管理规定主要为部门规章、规范性文件和推进性有效标准,法律效率较低,法律责任多为框架化、倡导性原则,导致算法治理内容与违法性行为未形成充分对应关系。而在美国,AI 领域也没有形成一部全面、统一的 AI 立法。权威性较高的 2020 年国家人工智能创新方案于 2021 年 1 月在第 116 届国会通过,其目的是强化和协调各联邦机构的人工智能研发活动,确保美国在全球人工智能技术领域保持领先地位。而在 2024 年 2 月提出的时代保监管的 Open AI、谷歌、mata 等主要全球 AI 企业加入的安全法案,却在 2024 年 9 月被否决。大部分的法案与政策仍是服务于成熟领域,且很多政策法案的效力不足。《纽约时报》专业文章指出,由于法案的执行要求 27 个学员(此处可能存在错误),考虑到需要在政府财政情况下增加这方面预算,其执行情况可能堪忧。此前我们同样有一些缺乏执行的人工智能安全方案的数据及立法,并因此饱受诟病。
综上所述,我方认为目前人类对 AI 的威胁认识不足,应呼吁人们深入了解 AI,通过发展自身来应对。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
人类是否对 AI 风险有足够重视并做出积极防范。
综上所述,人类对 AI 的威胁认识不足,应呼吁人们深入了解 AI,通过发展自身来应对。
那我们直接开始。如果对所面临的风险持轻视态度,不做出防备的行为,那么大家面临的风险就会很大。人工智能发展存在一定问题,人工智能可能会加速人类理性下载势头的说法并不准确,李开复博士认为 AI 会取代很多就业岗位,且在前所未有的方面发展不够快。其次,院长表示 AI 发展到 2023 年需要 10%的电力,这表明在自然能源方面,其发展并非很快。再者,电池对于 AI 本身存在量子隧道效应,芯片缩小的问题难以改变,所以从 AI 本质来讲,其发展也存在困难。
接下来探讨如何才算不低估 AI。不低估意味着对其有充分的考虑,比如了解其可能带来的威胁,并主动学习相关知识,如了解 CPII 是如何影响自己的,或者将自己变成一个善于学习的个体。在政策监管方面,对于 AI 领先的全球行业,至少应设立相应的安全机构。然而,对方的态度似乎过于极端,认为只有所有 AI 监管问题都被解决,才算不低估,这种观点是不合理的。从 AI 监管的角度来看,这种监管要求过于完全,并非实际可行。
第二件事情是法律具有制度性,要求大家把所有事情都做到,这显然是不切实际的。
第三件事情,对方表示大家对 AI 的态度是积极的,但其论证依据不足。2024 年人工智能安全报告和公共态度调查报告显示,目前有 65.7%的人对人工智能持积极态度,但此前有数据表明仅有 20%的人了解 AI,这两个数据相互冲突。我方依据武汉大学的研究显示,很多人在 AI 中呈现出恐惧效应,包括在医疗和就业方面,人们对 AI 是恐惧的。此外,在选择产品时,如果产品标注了 AI 标签,大家可能会减少购买,这也反映了人们对 AI 的态度并非完全积极。
那我们直接开始。如果对所面临的风险持轻视态度,不做出防备的行为,那么大家面临的风险就会很大。人工智能发展存在一定问题,人工智能可能会加速人类理性下载势头的说法并不准确,李开复博士认为 AI 会取代很多就业岗位,且在前所未有的方面发展不够快。其次,院长表示 AI 发展到 2023 年需要 10%的电力,这表明在自然能源方面,其发展并非很快。再者,电池对于 AI 本身存在量子隧道效应,芯片缩小的问题难以改变,所以从 AI 本质来讲,其发展也存在困难。
接下来探讨如何才算不低估 AI。不低估意味着对其有充分的考虑,比如了解其可能带来的威胁,并主动学习相关知识,如了解 CPII 是如何影响自己的,或者将自己变成一个善于学习的个体。在政策监管方面,对于 AI 领先的全球行业,至少应设立相应的安全机构。然而,对方的态度似乎过于极端,认为只有所有 AI 监管问题都被解决,才算不低估,这种观点是不合理的。从 AI 监管的角度来看,这种监管要求过于完全,并非实际可行。
第二件事情是法律具有制度性,要求大家把所有事情都做到,这显然是不切实际的。
第三件事情,对方表示大家对 AI 的态度是积极的,但其论证依据不足。2024 年人工智能安全报告和公共态度调查报告显示,目前有 65.7%的人对人工智能持积极态度,但此前有数据表明仅有 20%的人了解 AI,这两个数据相互冲突。我方依据武汉大学的研究显示,很多人在 AI 中呈现出恐惧效应,包括在医疗和就业方面,人们对 AI 是恐惧的。此外,在选择产品时,如果产品标注了 AI 标签,大家可能会减少购买,这也反映了人们对 AI 的态度并非完全积极。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
好,首先我们一定要明确,今天要比的是哪两个点,即什么是高估,什么是低估。我方认为,其一,高估停留在思想上,其二,体现在行动上。高估是指引发了严重的群众恐慌,并落实到行为上,且有相关政策可将问题完全解决;而低估则是群众并未那么在意,且我们所推出的一些法案并未完全解决相关数据问题。如果我们今天只将高估低估的比较停留在思想层面,那么您方认为什么样是信任,什么样是不信任呢?希望您方后面能给出具体数据。所以,我方认为比较应落实到行为上。那什么样算是非常恐慌呢?比如我刚刚举出的新冠病毒的例子,以及我们对杀人事件,人们一定是非常恐慌的。所以我方提出的法律是一定可以完全解决现有的伤人问题,并防范未来的杀人问题。我方承认法律具有滞后性,所以我方认为您方认为不能解决所有问题是不现实的,因为我们对其恐慌程度并没有那么高,就如我之前所说的杀人及新冠病毒的例子。因此,一是在思想上,您方并没有那么恐慌;二是在行为上,也没有足够的力度去解决。
好,首先我们一定要明确,今天要比的是哪两个点,即什么是高估,什么是低估。我方认为,其一,高估停留在思想上,其二,体现在行动上。高估是指引发了严重的群众恐慌,并落实到行为上,且有相关政策可将问题完全解决;而低估则是群众并未那么在意,且我们所推出的一些法案并未完全解决相关数据问题。如果我们今天只将高估低估的比较停留在思想层面,那么您方认为什么样是信任,什么样是不信任呢?希望您方后面能给出具体数据。所以,我方认为比较应落实到行为上。那什么样算是非常恐慌呢?比如我刚刚举出的新冠病毒的例子,以及我们对杀人事件,人们一定是非常恐慌的。所以我方提出的法律是一定可以完全解决现有的伤人问题,并防范未来的杀人问题。我方承认法律具有滞后性,所以我方认为您方认为不能解决所有问题是不现实的,因为我们对其恐慌程度并没有那么高,就如我之前所说的杀人及新冠病毒的例子。因此,一是在思想上,您方并没有那么恐慌;二是在行为上,也没有足够的力度去解决。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
日日日新饿定义,此表述有误,根据上下文推测,可能是“日新月异的定义”。以下是修正后的内容:
日新月异的定义,只要今天大家面对风险是新的态度,不要畏缩,那相反我方认为今天的风险没有大定义,大家对于新情况是极其恐惧的,就以此告诉对方辩友以上的问题。
第一件事情,我方认为决议是存在的。无论是在《布莱克建立宣言》中发表的对于人类生存威胁方面的 AI 发展部分有了很深的监管,还是在 AI 诈骗向警方所提的备案这个方面也有了很多的监管。比如说,《深城市人工智能服务安全基本要求》在 2023 年建立起相关的秩序,使其在法律上提供信息的人得到应有的程序以外都有了很高的监管。
第二件事情是法律的必要性。如果光从态度中间要求,只要 AI 健康有一个地方没达到,就不让其发展,这就完全有些极端了。
第三件事情是。对方告诉我,今天大家面临风险的时候一知半解,但同时他对 AI 很了解,这是一个完全错误的数据。当一个对于 AI 一知半解,只有 20%的人自评了解 AI 的情况之下,却跟我说大家对它很信任,持一个积极的态度,这显然是不合理的。我方进一步的数据看到了,如武汉大学的研究表示,在 AI 这种交流的 APP 中,大家呈现出一种恐惧且不信任的效应,还包括在医疗和就业方面,大家担心过度担心人工智能会替代自己的岗位,如果是人工智能来给自己做手术的话,大家会有抗拒。我方的质询小结给您展示了一个产品,当它具有 AI 标签的时候,大家会大大降低对它的满意度。所以我们看到了大家对于 AI 是高度恐惧的,可是现实真的有那么可怕吗?从这些数据以及客观情况上我们发现,AI 用电很高,到 2023 年它要发展的话,需要用掉存储 10%个点,并且对于它自身芯片来讲,这是不可逆的,它发展的时间越久,它的芯片越小,导致它的发展没有那么快。所以从客观上看待,大家都应该看清这些东西。
日日日新饿定义,此表述有误,根据上下文推测,可能是“日新月异的定义”。以下是修正后的内容:
日新月异的定义,只要今天大家面对风险是新的态度,不要畏缩,那相反我方认为今天的风险没有大定义,大家对于新情况是极其恐惧的,就以此告诉对方辩友以上的问题。
第一件事情,我方认为决议是存在的。无论是在《布莱克建立宣言》中发表的对于人类生存威胁方面的 AI 发展部分有了很深的监管,还是在 AI 诈骗向警方所提的备案这个方面也有了很多的监管。比如说,《深城市人工智能服务安全基本要求》在 2023 年建立起相关的秩序,使其在法律上提供信息的人得到应有的程序以外都有了很高的监管。
第二件事情是法律的必要性。如果光从态度中间要求,只要 AI 健康有一个地方没达到,就不让其发展,这就完全有些极端了。
第三件事情是。对方告诉我,今天大家面临风险的时候一知半解,但同时他对 AI 很了解,这是一个完全错误的数据。当一个对于 AI 一知半解,只有 20%的人自评了解 AI 的情况之下,却跟我说大家对它很信任,持一个积极的态度,这显然是不合理的。我方进一步的数据看到了,如武汉大学的研究表示,在 AI 这种交流的 APP 中,大家呈现出一种恐惧且不信任的效应,还包括在医疗和就业方面,大家担心过度担心人工智能会替代自己的岗位,如果是人工智能来给自己做手术的话,大家会有抗拒。我方的质询小结给您展示了一个产品,当它具有 AI 标签的时候,大家会大大降低对它的满意度。所以我们看到了大家对于 AI 是高度恐惧的,可是现实真的有那么可怕吗?从这些数据以及客观情况上我们发现,AI 用电很高,到 2023 年它要发展的话,需要用掉存储 10%个点,并且对于它自身芯片来讲,这是不可逆的,它发展的时间越久,它的芯片越小,导致它的发展没有那么快。所以从客观上看待,大家都应该看清这些东西。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
我提出的第一个问题是,今天存在低估的现象,比如在房地产领域,我们没有做充足的准备,本可以做得更好,但实际并未做到。再如,我们的法律方面,为何没有与时俱进?这是因为大家甚至考虑到经济问题,为了自身公司利益,没有去提供更好的政策和法律。否则,我们明天就会发现,如今一些大学生利用 AI 写论文,这虽然给他们的生活带来了一些便利,但也带来了很多问题,比如这和人们担心 AI 给人类未来带来的影响有何关联?我们现在探讨人类如何对待 AI,为什么要修复和完善很多实际方面?这是因为我们对待 AI 的方式存在问题。你们是否意识到,AI 对于未来人类的影响,其重视程度是高还是低尚未定论。人们可以通过自己的主观意识去了解 AI,但如果一个庞大的 AI 没有合理的使用方法,那么我们该如何让 AI 发挥作用呢?我们可以看到,有很多渠道可以让人们自己去学习,比如相关新闻。根据研究显示,AI 相关新闻的关注度比其他新闻科技行为高出 66%、68%。有人预测到 2045 年,AI 会怎样影响人类,可你们告诉我,这能说明什么呢?在新冠期间,存在滥用 AI 的情况,这导致了一些问题,人们低估了这一点。我刚才提到了制度,我们的制度和法律需要完善,需要有人进行监管,可在很多方面,我们本可以做得更好,但为了维护自身利益,我们没有选择从正确的方向去做,导致 AI 相关制度不够完善。
展望一下,第一点是关于 AI 的影响,这是一个需要重视的问题,我先探讨它带来的影响,对于 AI 未来的技术以及对人的影响,很多人并不清楚,存在低估的情况。第二点是关于政策的滞后性,人们通过 AI 来了解情况,通过媒体来了解 AI,但我们发现媒体新闻有时存在过度渲染,这给人们带来了恐慌。第三点,当我们看到监管的情况时,明明可以做得更好,但我们却没有选择做好,这说明我们没有做充足的准备。再看我们个人,看到那些渲染的文章,我们可能会有些焦虑,但并没有根据实际情况去改变,这说明我们依然存在滥用 AI 的情况。
我提出的第一个问题是,今天存在低估的现象,比如在房地产领域,我们没有做充足的准备,本可以做得更好,但实际并未做到。再如,我们的法律方面,为何没有与时俱进?这是因为大家甚至考虑到经济问题,为了自身公司利益,没有去提供更好的政策和法律。否则,我们明天就会发现,如今一些大学生利用 AI 写论文,这虽然给他们的生活带来了一些便利,但也带来了很多问题,比如这和人们担心 AI 给人类未来带来的影响有何关联?我们现在探讨人类如何对待 AI,为什么要修复和完善很多实际方面?这是因为我们对待 AI 的方式存在问题。你们是否意识到,AI 对于未来人类的影响,其重视程度是高还是低尚未定论。人们可以通过自己的主观意识去了解 AI,但如果一个庞大的 AI 没有合理的使用方法,那么我们该如何让 AI 发挥作用呢?我们可以看到,有很多渠道可以让人们自己去学习,比如相关新闻。根据研究显示,AI 相关新闻的关注度比其他新闻科技行为高出 66%、68%。有人预测到 2045 年,AI 会怎样影响人类,可你们告诉我,这能说明什么呢?在新冠期间,存在滥用 AI 的情况,这导致了一些问题,人们低估了这一点。我刚才提到了制度,我们的制度和法律需要完善,需要有人进行监管,可在很多方面,我们本可以做得更好,但为了维护自身利益,我们没有选择从正确的方向去做,导致 AI 相关制度不够完善。
展望一下,第一点是关于 AI 的影响,这是一个需要重视的问题,我先探讨它带来的影响,对于 AI 未来的技术以及对人的影响,很多人并不清楚,存在低估的情况。第二点是关于政策的滞后性,人们通过 AI 来了解情况,通过媒体来了解 AI,但我们发现媒体新闻有时存在过度渲染,这给人们带来了恐慌。第三点,当我们看到监管的情况时,明明可以做得更好,但我们却没有选择做好,这说明我们没有做充足的准备。再看我们个人,看到那些渲染的文章,我们可能会有些焦虑,但并没有根据实际情况去改变,这说明我们依然存在滥用 AI 的情况。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方四辩提出了一系列关于 AI 相关的问题和观点,认为存在低估 AI 影响、政策滞后、监管不足以及个人滥用 AI 等现象。具体内容如下:
反方四辩的回应未在文中提及。
专业数据逻辑为何积极大于消极等于威胁?首先,我们今天谈了两层,一层是关于 AI,当时认识没有那么深,第一层是它的积极信息以及科技型越大所带来的问题。美国的枪文化中认为用枪积极大于消极,然而这等于他们对枪的威胁认知不足。为何不能这样认为呢?在训练场时,人们自然知道枪口不能对人,所以对威胁的认知是很足的。您自己的逻辑数据不成功。第二件事情,您觉得威胁认知不足时有什么样的体现?首先我认为美国人民对枪的威胁认识是很足的,这是一个很严肃的东西,我觉得他们对威胁对象的认识是一种民意,但强调教练会反复强调枪口不要对着人。我的问题是,当威胁认知很足时,它有什么样的体现?很多时候,比如一个竞争对手对我造成威胁,那我至少知道他对我构成了威胁,所以我会去防备,去提升自己,我会如何做出行动去应对这些威胁,这才是一种认知充分的状态。您不能说因为受到威胁,这是什么动作。2021 年向联合国提出了要遏制人工智能军事化的发展行动。我不太明白这个问题,就是阅读,所以存在认知情况。第三个问题,您觉得在宇宙未来 AI 发展的进程中风险很大,所以您要如何应对?其次,我还没有跟您提到未来,只是确认您是否达到 3 分。嗯,非常好,所以您自己一定要完成效率。第 4 部分,我觉得反方,如果您觉得正方今天论及的认知威胁,认知情况很足,但未来实际威胁不大的情况下,通常要完成自身任务。我觉得未来很难讲。我不知道它行不行,您怎么说呢?不太行。英特尔的数据显示人工智能在未来 30 年以内的发展会出现瓶颈期,因为本身硅基芯片的发展就会限制未来发展,但是我们看到这个数据显示 AI 的发展之后,可能会显示它很大,因为这是第三个月的 AI 的那个数据,您的那些数据我都看过,他们采用了乐观的比较方法,他们没有考虑成本的支出,比如说训练一些 AI 化成本很大,您怎么能认知到以后我们的身份认知方式会不会改变呢?PPT3 训练一次要消耗您和小程序半年的用电量,您知道吗?您没有考虑到这些支出成本是否已经在取代一些东西,就比如说今天一个 AI 去计算一个数,一个人去计算一个数,您哪一个消耗量更大,您只讲 AI 的消耗量更大,但您没有考虑到它已经取代了一些消耗量,这是非常好的,所以您只是在讲述,您也没有始终告诉我人工智能未来发展的成本效益。最后一件事情,今天大家通过不断点击阅读学习模板上面关于人工智能威胁的视频,点击量达到七十,我觉得对他们来说认知还算足够。但是我们的数据显示,只有 20%的人认为自己对 AI 的了解充足,其他人的了解是一知半解。所以不会导致危险认识。
专业数据逻辑为何积极大于消极等于威胁?首先,我们今天谈了两层,一层是关于 AI,当时认识没有那么深,第一层是它的积极信息以及科技型越大所带来的问题。美国的枪文化中认为用枪积极大于消极,然而这等于他们对枪的威胁认知不足。为何不能这样认为呢?在训练场时,人们自然知道枪口不能对人,所以对威胁的认知是很足的。您自己的逻辑数据不成功。第二件事情,您觉得威胁认知不足时有什么样的体现?首先我认为美国人民对枪的威胁认识是很足的,这是一个很严肃的东西,我觉得他们对威胁对象的认识是一种民意,但强调教练会反复强调枪口不要对着人。我的问题是,当威胁认知很足时,它有什么样的体现?很多时候,比如一个竞争对手对我造成威胁,那我至少知道他对我构成了威胁,所以我会去防备,去提升自己,我会如何做出行动去应对这些威胁,这才是一种认知充分的状态。您不能说因为受到威胁,这是什么动作。2021 年向联合国提出了要遏制人工智能军事化的发展行动。我不太明白这个问题,就是阅读,所以存在认知情况。第三个问题,您觉得在宇宙未来 AI 发展的进程中风险很大,所以您要如何应对?其次,我还没有跟您提到未来,只是确认您是否达到 3 分。嗯,非常好,所以您自己一定要完成效率。第 4 部分,我觉得反方,如果您觉得正方今天论及的认知威胁,认知情况很足,但未来实际威胁不大的情况下,通常要完成自身任务。我觉得未来很难讲。我不知道它行不行,您怎么说呢?不太行。英特尔的数据显示人工智能在未来 30 年以内的发展会出现瓶颈期,因为本身硅基芯片的发展就会限制未来发展,但是我们看到这个数据显示 AI 的发展之后,可能会显示它很大,因为这是第三个月的 AI 的那个数据,您的那些数据我都看过,他们采用了乐观的比较方法,他们没有考虑成本的支出,比如说训练一些 AI 化成本很大,您怎么能认知到以后我们的身份认知方式会不会改变呢?PPT3 训练一次要消耗您和小程序半年的用电量,您知道吗?您没有考虑到这些支出成本是否已经在取代一些东西,就比如说今天一个 AI 去计算一个数,一个人去计算一个数,您哪一个消耗量更大,您只讲 AI 的消耗量更大,但您没有考虑到它已经取代了一些消耗量,这是非常好的,所以您只是在讲述,您也没有始终告诉我人工智能未来发展的成本效益。最后一件事情,今天大家通过不断点击阅读学习模板上面关于人工智能威胁的视频,点击量达到七十,我觉得对他们来说认知还算足够。但是我们的数据显示,只有 20%的人认为自己对 AI 的了解充足,其他人的了解是一知半解。所以不会导致危险认识。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
今天我问您第一个问题。我从山西来到北京,打算做一场心脏手术,原本约的是心脏手术的主任大夫,结果被告知做手术的医生是普通主治医生,您说这会让人产生恐惧吗?
我认为AI是我的成就感最高的,但您高估了AI的风险。在您的语境下,这种恐惧的来源,究竟是AI还是您对生命安全的重视?接下来我再问您,现在有很多媒体和科幻小说宣扬AI的恐怖性。我们都知道科幻小说充满了想象,如今有许多过分宣扬AI威胁论题的情况,那些认知不同的人会因此产生恐惧,可这种恐惧真的能让他们认识到AI真正带来的危险吗?
我解释一下,因为您现在高估了AI的风险,所以在您设想所有愿景时,您甚至不愿意讨论AI为您做手术的可能性。您宁愿让手术成功率更低的普通医生为您做手术,也不愿意让有100%成功率的AI来做。这说明您高估了AI的风险。
所以说,在这方面,今天对方对人工智能认识不足。如果知道人工智能的手术成功率是100%,人们会更愿意相信人工智能能保障自己的生命安全。所以说,对方的恐惧并非来源于生命,而是看到了AI的100%成功率。
那么今天我们所讲的这部分内容,将这些信息分享给那些认知不足的人,他们真的能认识到人工智能AI的威胁性吗?实际上,大家不愿意让AI做手术,本质上是因为大家不知道AI的手术成功率有那么高。如果有骨科手术,一位有二三十年经验的医生手术成功率只有百分之四五十,而AI的手术成功率是100%,我相信绝大部分人都会选择AI。可问题在于,目前大家对AI的认知不足,不了解AI实际上有100%的成功率,所以才高估了AI的风险。
所以您要告诉我,您向那些认知不足的人宣扬恐惧,如果让他们处于一种非常恐惧、恐慌的状态,他们真的能达到认识AI的目的吗?我方不希望出现这种宣扬恐惧的情况,不想让大家对AI产生错误的认知,像《终结者》里那样认为AI会毁灭人类。我方认为AI其实是一个很美好的愿景,我们愿意直面AI到底能给我们带来什么,而对方不愿意面对AI。
今天我问您第一个问题。我从山西来到北京,打算做一场心脏手术,原本约的是心脏手术的主任大夫,结果被告知做手术的医生是普通主治医生,您说这会让人产生恐惧吗?
我认为AI是我的成就感最高的,但您高估了AI的风险。在您的语境下,这种恐惧的来源,究竟是AI还是您对生命安全的重视?接下来我再问您,现在有很多媒体和科幻小说宣扬AI的恐怖性。我们都知道科幻小说充满了想象,如今有许多过分宣扬AI威胁论题的情况,那些认知不同的人会因此产生恐惧,可这种恐惧真的能让他们认识到AI真正带来的危险吗?
我解释一下,因为您现在高估了AI的风险,所以在您设想所有愿景时,您甚至不愿意讨论AI为您做手术的可能性。您宁愿让手术成功率更低的普通医生为您做手术,也不愿意让有100%成功率的AI来做。这说明您高估了AI的风险。
所以说,在这方面,今天对方对人工智能认识不足。如果知道人工智能的手术成功率是100%,人们会更愿意相信人工智能能保障自己的生命安全。所以说,对方的恐惧并非来源于生命,而是看到了AI的100%成功率。
那么今天我们所讲的这部分内容,将这些信息分享给那些认知不足的人,他们真的能认识到人工智能AI的威胁性吗?实际上,大家不愿意让AI做手术,本质上是因为大家不知道AI的手术成功率有那么高。如果有骨科手术,一位有二三十年经验的医生手术成功率只有百分之四五十,而AI的手术成功率是100%,我相信绝大部分人都会选择AI。可问题在于,目前大家对AI的认知不足,不了解AI实际上有100%的成功率,所以才高估了AI的风险。
所以您要告诉我,您向那些认知不足的人宣扬恐惧,如果让他们处于一种非常恐惧、恐慌的状态,他们真的能达到认识AI的目的吗?我方不希望出现这种宣扬恐惧的情况,不想让大家对AI产生错误的认知,像《终结者》里那样认为AI会毁灭人类。我方认为AI其实是一个很美好的愿景,我们愿意直面AI到底能给我们带来什么,而对方不愿意面对AI。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
我认为有这样几件事。首先,今天双方立论扩大本身并不冲突,反方认为要论证威胁论据不足以及未来的行事态度。然而,我们来比较一下今天双方的论证。反方全场论证只有消极小于积极,因此认为其对威胁的认识不足。在美国的训练场文化中,大家也觉得训练场是在保护自己,其积极意义在于校警力。但是,当你在美国这个训练场里射击时,教练会告诉你枪口要准确,在不用枪后,要把子弹弹夹清空,要检查弹仓里还有没有剩余子弹。所以,大家对其威胁的认知仍然很独特,反方自己的数据不成立。这一点正方来为大家论证原因。大家现在对其的恐惧很充足,我先讲数据。通过数据调查显示,2023 年数据调查显示,人类中有 80%的人对人工智能表示不信任,这是数据层面的认可。我想问这是为什么?因为包括武汉大学讲的重复股效应,当机械出现拟人性,出现高度类似于重复股效应时,大家会恐惧它不太可靠,不太会如约履行。比方说,用儒家视角来看待人工智能时,大家会觉得为什么会担心人工智能,因为人工智能只是一个工具,我们要奴役它,让它为我们服务。可是如果有一天它超过了我们,这是我最为担心的点,而这也是大家现在正在面临的问题。
我进一步讲大家现在面临恐惧的样态是什么。通过谷歌调查和未来 YouTube 的感受以及 YouTube 的流感视频调查,可以发现大家现在对于 AI 的认识恐惧非常足。为什么?因为媒体本身就在大肆宣扬 AI 会给人类带来什么样的杀伤力,无论其本身是否有夸张的说法,它本身就在描绘一个非常不现实的社会,不断地加深大家对危险认识过度充足的情况。
最后一部分,反方至少要让大家觉得未来发展不会出现那么恐怖的情况。可是正方认为,第一,在未来的发展速度上,它不会发展那么快,因为要建立一个极大的成本,训练一次就要耗费整个全球 10%的变量,这样的发展成本不是一个正常训练 AI 能够承担的。第二,在医疗领域上,大家都在恐惧它,但它的学术成功率有 100%,没有想象中那么夸张。
我认为有这样几件事。首先,今天双方立论扩大本身并不冲突,反方认为要论证威胁论据不足以及未来的行事态度。然而,我们来比较一下今天双方的论证。反方全场论证只有消极小于积极,因此认为其对威胁的认识不足。在美国的训练场文化中,大家也觉得训练场是在保护自己,其积极意义在于校警力。但是,当你在美国这个训练场里射击时,教练会告诉你枪口要准确,在不用枪后,要把子弹弹夹清空,要检查弹仓里还有没有剩余子弹。所以,大家对其威胁的认知仍然很独特,反方自己的数据不成立。这一点正方来为大家论证原因。大家现在对其的恐惧很充足,我先讲数据。通过数据调查显示,2023 年数据调查显示,人类中有 80%的人对人工智能表示不信任,这是数据层面的认可。我想问这是为什么?因为包括武汉大学讲的重复股效应,当机械出现拟人性,出现高度类似于重复股效应时,大家会恐惧它不太可靠,不太会如约履行。比方说,用儒家视角来看待人工智能时,大家会觉得为什么会担心人工智能,因为人工智能只是一个工具,我们要奴役它,让它为我们服务。可是如果有一天它超过了我们,这是我最为担心的点,而这也是大家现在正在面临的问题。
我进一步讲大家现在面临恐惧的样态是什么。通过谷歌调查和未来 YouTube 的感受以及 YouTube 的流感视频调查,可以发现大家现在对于 AI 的认识恐惧非常足。为什么?因为媒体本身就在大肆宣扬 AI 会给人类带来什么样的杀伤力,无论其本身是否有夸张的说法,它本身就在描绘一个非常不现实的社会,不断地加深大家对危险认识过度充足的情况。
最后一部分,反方至少要让大家觉得未来发展不会出现那么恐怖的情况。可是正方认为,第一,在未来的发展速度上,它不会发展那么快,因为要建立一个极大的成本,训练一次就要耗费整个全球 10%的变量,这样的发展成本不是一个正常训练 AI 能够承担的。第二,在医疗领域上,大家都在恐惧它,但它的学术成功率有 100%,没有想象中那么夸张。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
其实正方今天的论证逻辑是,我们要去看一些群体是什么样子。今天我们先给出一个数据,有大部分的人对于 AI 的发展持积极态度,这里包含了各种人群,有年轻人、老人,以及对 AI 有认识和没有认识的人。然而,我们进一步探讨发现,在荷兰,大多数受过高等教育的人对人工智能的认可度为 61%,而教育程度较低时,这一比例是 43%。所以,无论是从年龄还是认知层面来看,只有大家对人工智能的认知变得更加全面了解之后,才能认识到人工智能所带来的各种影响。
反之,对方今天所表达的对人工智能的恐惧,究竟是源于对自身生命安全的担忧,还是因为看到一个不认识、不熟知的人工智能这个物品,对这个不了解的事物产生的恐惧呢?所以说,今天对方不能告诉我,首先,假设媒体处于一个威胁情况较大的环境中,对于认知不足的人,他如何能真正认识到这个情况的真实性与否。其次,在当今这个人工智能、互联网信息发达的时代,有很多人出于宣扬、追求流量或其他各种原因,大肆宣扬人工智能威胁论。那么,他们这样渲染出的恐惧形态,真的是人们对其高估的一种状态吗?今天我们想象,要对一个东西产生真正的恐惧和威胁,比如在新冠疫情中,我们知道这个东西会威胁到我们的生命,会对我们产生非常严重的破坏,所以我们要采取各种各样的政策和举措来真正应对,而不是今天只是说我很恐惧、我很害怕,却没有说因为害怕而去做些什么来论证今天的恐惧程度是非常大的。
其实正方今天的论证逻辑是,我们要去看一些群体是什么样子。今天我们先给出一个数据,有大部分的人对于 AI 的发展持积极态度,这里包含了各种人群,有年轻人、老人,以及对 AI 有认识和没有认识的人。然而,我们进一步探讨发现,在荷兰,大多数受过高等教育的人对人工智能的认可度为 61%,而教育程度较低时,这一比例是 43%。所以,无论是从年龄还是认知层面来看,只有大家对人工智能的认知变得更加全面了解之后,才能认识到人工智能所带来的各种影响。
反之,对方今天所表达的对人工智能的恐惧,究竟是源于对自身生命安全的担忧,还是因为看到一个不认识、不熟知的人工智能这个物品,对这个不了解的事物产生的恐惧呢?所以说,今天对方不能告诉我,首先,假设媒体处于一个威胁情况较大的环境中,对于认知不足的人,他如何能真正认识到这个情况的真实性与否。其次,在当今这个人工智能、互联网信息发达的时代,有很多人出于宣扬、追求流量或其他各种原因,大肆宣扬人工智能威胁论。那么,他们这样渲染出的恐惧形态,真的是人们对其高估的一种状态吗?今天我们想象,要对一个东西产生真正的恐惧和威胁,比如在新冠疫情中,我们知道这个东西会威胁到我们的生命,会对我们产生非常严重的破坏,所以我们要采取各种各样的政策和举措来真正应对,而不是今天只是说我很恐惧、我很害怕,却没有说因为害怕而去做些什么来论证今天的恐惧程度是非常大的。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
一、AI 发展与新闻传播 AI 发展是基于人类给予的数字建模模型的目标函数进行的。若未来 AI 失控,该如何应对?首先,谈到 AI 对新闻传播的影响,存在一定难度。有 80%的人不了解 AI,也不关心相关新闻,只有 20%的人真正关注和了解。因此,有关 AI 的影响及恐惧,只能影响到一小部分人。
二、AI 发展与新能源产业 其次,探讨 AI 发展是否能帮助探索更多新能源产业,以解决资源不足的问题。未来发展具有不确定性,无法论证 AI 会发展得很好或很快。认为对方的第二个论点中,未充分比较未来发展情况,无法证明其观点,且大家对 AI 的认识不足,仅有 20%的人了解,若这 20%的认知是负面的,那么对方所举例子最多只能影响这 20%的人,无法影响大部分人。
三、AI 发展的风险与认知 AI 发展存在风险,如造成很多问题,如人工智能事故、散播谣言等,因此需要进行治理。现在只有 20%的人了解 AI,人们对 AI 的认知不全,导致对其恐惧放大,高估了 AI 发展的风险。同时,OPPO AI 在 2023 年初遭受隐私公开的安全事件,连 open AI 这样的尖端公司也会忽略人工智能所造成的威胁,说明存在低估风险的情况。
四、对对方观点的质疑 1. 从未讨论过对于未来认识的状况,已给出未来 AI 风险不会那么高的结论,但对方未给出相应回应。 2. 关于就业,对方称大家害怕就业,但根据 wes 的报告显示,未来五年内全球新增长岗位为 6900 多,不仅在尖端技术和数字化技术领域,在教育、农业等领域也会增加岗位。 3. 对方讨论中提到媒体传播 AI 相关情绪化内容的点单率高达 68%,比其他产业高,说明大家对 AI 存在恐惧,并非如对方所说的积极态度。而且,对方认知不全,无法判断人们对 AI 的认知是高度还是低度。此外,对方不愿意聊未来,但其所有论证都基于未来,而对于当前实际存在的风险,对方未进行阐述。
一、AI 发展与新闻传播 AI 发展是基于人类给予的数字建模模型的目标函数进行的。若未来 AI 失控,该如何应对?首先,谈到 AI 对新闻传播的影响,存在一定难度。有 80%的人不了解 AI,也不关心相关新闻,只有 20%的人真正关注和了解。因此,有关 AI 的影响及恐惧,只能影响到一小部分人。
二、AI 发展与新能源产业 其次,探讨 AI 发展是否能帮助探索更多新能源产业,以解决资源不足的问题。未来发展具有不确定性,无法论证 AI 会发展得很好或很快。认为对方的第二个论点中,未充分比较未来发展情况,无法证明其观点,且大家对 AI 的认识不足,仅有 20%的人了解,若这 20%的认知是负面的,那么对方所举例子最多只能影响这 20%的人,无法影响大部分人。
三、AI 发展的风险与认知 AI 发展存在风险,如造成很多问题,如人工智能事故、散播谣言等,因此需要进行治理。现在只有 20%的人了解 AI,人们对 AI 的认知不全,导致对其恐惧放大,高估了 AI 发展的风险。同时,OPPO AI 在 2023 年初遭受隐私公开的安全事件,连 open AI 这样的尖端公司也会忽略人工智能所造成的威胁,说明存在低估风险的情况。
四、对对方观点的质疑 1. 从未讨论过对于未来认识的状况,已给出未来 AI 风险不会那么高的结论,但对方未给出相应回应。 2. 关于就业,对方称大家害怕就业,但根据 wes 的报告显示,未来五年内全球新增长岗位为 6900 多,不仅在尖端技术和数字化技术领域,在教育、农业等领域也会增加岗位。 3. 对方讨论中提到媒体传播 AI 相关情绪化内容的点单率高达 68%,比其他产业高,说明大家对 AI 存在恐惧,并非如对方所说的积极态度。而且,对方认知不全,无法判断人们对 AI 的认知是高度还是低度。此外,对方不愿意聊未来,但其所有论证都基于未来,而对于当前实际存在的风险,对方未进行阐述。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
首先,谈一下高数的问题。今天想表达的是,在我们明明可以做得更好的基础上,我们没有采取一些更好的行为,导致了当前的低估。当我们将这方高峰与其他情况进行比较时,由于我们没有做好充分的准备,导致 AI 的发展暂缓,或者产生了其他特殊的影响,从而引发了一些强迫性的低估现象。大家可以看到,我们对此感到比较恐慌。从这个方面来说,有 80%的人士其实并没有更多地去了解 AI,他们只是大概了解一下。这样一来,先天造成的恐慌可能会在某些时候爆发,然后让我们感到很焦虑。我们在这一时刻感到焦虑之后,需要注意的是,大家仍然在单一地看待 AI。刚开始,有 52.1%的人对 AI 持消极态度,在利用 AI 进行协作方面存在问题;或者有 32.5%的人进行 AI 滥用的设计处理。这些都是我们当下在使用 AI 过程中所出现的问题,而并非未来的问题。这就是我们当下所担心的,可能会影响到他人隐私等多方面的事情。
那么今天,我们明明可以做到,当我们了解到 AI 的危害时,在现实生活中主动地、合理地运用 AI,自己主动去学习一些知识,而不是忽略它,避免造成影响。对方提到,为什么觉得枪很有威胁,可是在我们使用枪之前,会通过严厉的训练,会有人教我们相应的方法以及如何避免对身边的人造成伤害。那么在今天使用 AI 的时候,却没有这样做。有 52%的大学生在使用 AI 进行解题等事情时,却没有人进行引导。他们用 AI 去写论文,说明这部分人对 AI 没有足够的认识,也没有足够的训练。就像新冠疫情时,如果有人认为恐慌是真实存在的,我们会主动去购买口罩等药物资源来预防这个事情,只是在 AI 方面我们没有这样做。所以,在了解到这个主要问题之后,在这一个过程之后,我开始对新市场有了新的选择。
第一点,第二点是想表达关于政策方面。我们出台了一些关于 AI 监管方面的政策,首先,这些政策一部分是为了让相关公司能够更好地盈利,使他们在 AI 方面的发展可能更好,能够收获更多利益,这是其中一部分。另一部分是说,他们今天或许是因为财经等各方面的问题,导致不愿意去出台更合理的方案来限制 AI。然而,今天在 AI 诸多问题之上,我们已经出现了很多与隐私、信息安全有关的问题。我们已经认识到这些问题,但却因为一些利益问题,忽略了其中的威胁,导致我们今天没有选择用更好的方式来处理这些问题。这说明我们仍然在低估 AI 的威胁。感谢。
首先,谈一下高数的问题。今天想表达的是,在我们明明可以做得更好的基础上,我们没有采取一些更好的行为,导致了当前的低估。当我们将这方高峰与其他情况进行比较时,由于我们没有做好充分的准备,导致 AI 的发展暂缓,或者产生了其他特殊的影响,从而引发了一些强迫性的低估现象。大家可以看到,我们对此感到比较恐慌。从这个方面来说,有 80%的人士其实并没有更多地去了解 AI,他们只是大概了解一下。这样一来,先天造成的恐慌可能会在某些时候爆发,然后让我们感到很焦虑。我们在这一时刻感到焦虑之后,需要注意的是,大家仍然在单一地看待 AI。刚开始,有 52.1%的人对 AI 持消极态度,在利用 AI 进行协作方面存在问题;或者有 32.5%的人进行 AI 滥用的设计处理。这些都是我们当下在使用 AI 过程中所出现的问题,而并非未来的问题。这就是我们当下所担心的,可能会影响到他人隐私等多方面的事情。
那么今天,我们明明可以做到,当我们了解到 AI 的危害时,在现实生活中主动地、合理地运用 AI,自己主动去学习一些知识,而不是忽略它,避免造成影响。对方提到,为什么觉得枪很有威胁,可是在我们使用枪之前,会通过严厉的训练,会有人教我们相应的方法以及如何避免对身边的人造成伤害。那么在今天使用 AI 的时候,却没有这样做。有 52%的大学生在使用 AI 进行解题等事情时,却没有人进行引导。他们用 AI 去写论文,说明这部分人对 AI 没有足够的认识,也没有足够的训练。就像新冠疫情时,如果有人认为恐慌是真实存在的,我们会主动去购买口罩等药物资源来预防这个事情,只是在 AI 方面我们没有这样做。所以,在了解到这个主要问题之后,在这一个过程之后,我开始对新市场有了新的选择。
第一点,第二点是想表达关于政策方面。我们出台了一些关于 AI 监管方面的政策,首先,这些政策一部分是为了让相关公司能够更好地盈利,使他们在 AI 方面的发展可能更好,能够收获更多利益,这是其中一部分。另一部分是说,他们今天或许是因为财经等各方面的问题,导致不愿意去出台更合理的方案来限制 AI。然而,今天在 AI 诸多问题之上,我们已经出现了很多与隐私、信息安全有关的问题。我们已经认识到这些问题,但却因为一些利益问题,忽略了其中的威胁,导致我们今天没有选择用更好的方式来处理这些问题。这说明我们仍然在低估 AI 的威胁。感谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
通过以上分析,反方四辩认为当前存在对 AI 威胁的低估,人们在对 AI 的了解和运用上存在问题,AI 监管政策也不完善,需要更加重视和合理处理 AI 带来的各种问题。