谢谢主席,恭候在场各位。2018 年 IBAI 系统 project better 首次与人类进行现场公开辩论,凭借出色的理解能力、针对性反驳能力崭露头角。从那以后,科技的进步从未终止,强大的数据库和分析学习能力使 AI 在方方面面超越人类。GBD4 已经可以通过训练做出与演说家相差无几的表达,哪怕是在情绪渲染方面,赛博之恋也远远超过了真人男友。大家可以通过分析对话和喜好数据,给予更高情绪价值的回答。喜马拉雅的 AI 朗诵绘声绘色,对情感的把握准确度比真人更好。在这样的时代背景下看待 AI,这是人类的对手。我们应该感到喜悦还是悲伤,不能仅从利益分析的角度出发,就好比塑料袋价格便宜,但没有人会说白色污染是人类之喜,核心要看 AI 的出现对人类思考意义和辩论价值的理解在机制上是积极还是消极的。
首先,AI 的强大能力会让辩手甚至社会各个阶层产生依赖心理。AI 削弱了思考背后最核心的处理信息、形成自我观点的过程。AI 具有快速收集和整理信息并生成自己论点的能力,拥有庞大且不断拓宽的资料库,并且具备能够与人类前 1%的精英进行抗衡的思维能力。而根据路径依赖理论,思维的惰性会产生很大的问题,就好比一个手握现成稿子的人当然不会想着自己写一样。而更加悲哀的是,AI 对很多事情造成了破坏,因为它在机制上能够碎片化缝合无数信息,得到虚假信息,而这种缝合是无法监管的,这是由于数据库的庞大和每一个模板的微小,就好像从一张拼图的亿万分之一拼凑出一张图一样,无法知道这亿万分之一的图来自哪里。美国相关法文指出,人工智能的幻觉导致律师在法庭文件中引入许多不存在的案件,这也让我们警惕科技对于公正性的侵蚀。
其次,AI 的迅速发展将人类从核心思考的领域剥离,从而消解了人的主体性。而对于效率的追求和对于科技的盲目信任,最终会让人类变成被圈养的生物。IBM 的设计人员称,产品的设计理念和初衷是产生无偏见的论述,而在实际比赛过程中也印证了这一点。佐治亚理工学院研究团队通过全面测试发现,AI 能够再现人类在准确定响应时间和可信度上的所有特征,并且又表现出优于多个当前先进的神经网络模型。这表明了 AI 哪怕只是在当今也越来越能够代替人类做出决策,而把思考的掌舵人交给所谓的“青天大老爷”,而不是人类自己,会导致人们丧失历史进程的主动权,如同女人把投票权交给权威的男性一样,变成一群被驯养的生物。正如马斯克所说,如果我们不采取措施限制 AI 发展和保证其服从人类的意愿,我们最终会变成 AI 的宠物狗,从而失去对自身命运的掌控。
谢谢主席,恭候在场各位。2018 年 IBAI 系统 project better 首次与人类进行现场公开辩论,凭借出色的理解能力、针对性反驳能力崭露头角。从那以后,科技的进步从未终止,强大的数据库和分析学习能力使 AI 在方方面面超越人类。GBD4 已经可以通过训练做出与演说家相差无几的表达,哪怕是在情绪渲染方面,赛博之恋也远远超过了真人男友。大家可以通过分析对话和喜好数据,给予更高情绪价值的回答。喜马拉雅的 AI 朗诵绘声绘色,对情感的把握准确度比真人更好。在这样的时代背景下看待 AI,这是人类的对手。我们应该感到喜悦还是悲伤,不能仅从利益分析的角度出发,就好比塑料袋价格便宜,但没有人会说白色污染是人类之喜,核心要看 AI 的出现对人类思考意义和辩论价值的理解在机制上是积极还是消极的。
首先,AI 的强大能力会让辩手甚至社会各个阶层产生依赖心理。AI 削弱了思考背后最核心的处理信息、形成自我观点的过程。AI 具有快速收集和整理信息并生成自己论点的能力,拥有庞大且不断拓宽的资料库,并且具备能够与人类前 1%的精英进行抗衡的思维能力。而根据路径依赖理论,思维的惰性会产生很大的问题,就好比一个手握现成稿子的人当然不会想着自己写一样。而更加悲哀的是,AI 对很多事情造成了破坏,因为它在机制上能够碎片化缝合无数信息,得到虚假信息,而这种缝合是无法监管的,这是由于数据库的庞大和每一个模板的微小,就好像从一张拼图的亿万分之一拼凑出一张图一样,无法知道这亿万分之一的图来自哪里。美国相关法文指出,人工智能的幻觉导致律师在法庭文件中引入许多不存在的案件,这也让我们警惕科技对于公正性的侵蚀。
其次,AI 的迅速发展将人类从核心思考的领域剥离,从而消解了人的主体性。而对于效率的追求和对于科技的盲目信任,最终会让人类变成被圈养的生物。IBM 的设计人员称,产品的设计理念和初衷是产生无偏见的论述,而在实际比赛过程中也印证了这一点。佐治亚理工学院研究团队通过全面测试发现,AI 能够再现人类在准确定响应时间和可信度上的所有特征,并且又表现出优于多个当前先进的神经网络模型。这表明了 AI 哪怕只是在当今也越来越能够代替人类做出决策,而把思考的掌舵人交给所谓的“青天大老爷”,而不是人类自己,会导致人们丧失历史进程的主动权,如同女人把投票权交给权威的男性一样,变成一群被驯养的生物。正如马斯克所说,如果我们不采取措施限制 AI 发展和保证其服从人类的意愿,我们最终会变成 AI 的宠物狗,从而失去对自身命运的掌控。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
核心要看 AI 的出现对人类思考意义和辩论价值的理解在机制上是积极还是消极的。
AI 的出现对人类思考意义和辩论价值的理解在机制上是消极的,我们应该对 AI 的发展保持警惕并采取措施进行限制。
同学,100 场比赛中偶然胜了一场两场,不能就此认为 AI 战胜了人类辩手。那我们会评价这是一项成功的政策吗?还是要看战胜的数量,只有达到战胜绝大部分人,才能称作在能力上有碾压之势。我接着问您,您方对于喜悦究竟论证到何种程度,您方认为达到何种地步可以正常喜悦?我只在您的一辩稿中听到提到的利好,难道有利好就能证明是喜悦而非悲哀吗?所以还是要进行比较,我们还是要通过进一步价值性的取向来判断,对不对?今天应该倡导我们进行价值性的探讨也是可以的。我接着问您,假如您和黄志忠一个水平的辩手帮我出论,我为什么还要自己思考呢?所以今天我会更愿意选择让黄志忠帮我出论点,而非自己去构思。在这个过程中,我们会普遍倾向于让 AI 来帮忙,这是我刚讲的第一个路径依赖的过程。您方告诉我说,今天我去消化自己的论点就可以了,对吧。一项针对美国 1000 名学生的调查研究显示,有 1/3 学生使用 ChatGPT 在作业中作弊。为什么当有一个更快的工具出现时,人们就不会自己思考了呢?在作业中作弊,这不就是对工具的依赖,而不是自己思考吗?所以今天有黄志忠帮我出论,我会尽可能听他的论点并内化,而不是自己重新出一个论点,对吧?那么是谁对 AI 理解得更清楚、表达得更清楚,谁就更容易赢。从最开始我需要自己形成观点、构建观点,而如今 AI 给我什么,我就去执行它的框架,这是第一个放弃思考的体现,谢谢。
同学,100 场比赛中偶然胜了一场两场,不能就此认为 AI 战胜了人类辩手。那我们会评价这是一项成功的政策吗?还是要看战胜的数量,只有达到战胜绝大部分人,才能称作在能力上有碾压之势。我接着问您,您方对于喜悦究竟论证到何种程度,您方认为达到何种地步可以正常喜悦?我只在您的一辩稿中听到提到的利好,难道有利好就能证明是喜悦而非悲哀吗?所以还是要进行比较,我们还是要通过进一步价值性的取向来判断,对不对?今天应该倡导我们进行价值性的探讨也是可以的。我接着问您,假如您和黄志忠一个水平的辩手帮我出论,我为什么还要自己思考呢?所以今天我会更愿意选择让黄志忠帮我出论点,而非自己去构思。在这个过程中,我们会普遍倾向于让 AI 来帮忙,这是我刚讲的第一个路径依赖的过程。您方告诉我说,今天我去消化自己的论点就可以了,对吧。一项针对美国 1000 名学生的调查研究显示,有 1/3 学生使用 ChatGPT 在作业中作弊。为什么当有一个更快的工具出现时,人们就不会自己思考了呢?在作业中作弊,这不就是对工具的依赖,而不是自己思考吗?所以今天有黄志忠帮我出论,我会尽可能听他的论点并内化,而不是自己重新出一个论点,对吧?那么是谁对 AI 理解得更清楚、表达得更清楚,谁就更容易赢。从最开始我需要自己形成观点、构建观点,而如今 AI 给我什么,我就去执行它的框架,这是第一个放弃思考的体现,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
我方今天所说的是,当有一个更强大的工具出现时,人更容易对其产生依赖。同学,上一位发言您可能没听清楚,我方是从根本上阐明,当一个事物能够完全超越我方,若不听从它,我方就无法获胜。比如对方有黄哲忠,而我方没有,我方就赢不了,所以必须依赖,进而在依赖中丧失了自己思考的能力。
第二点,我方的价值观念表明得很清楚。一方面是放弃了人类思考的主体性,以至于如今沦为 AI 的附庸,AI 说什么就得听什么,决策权不在自己手中,这就意味着如今去解构思考这件事本身就是十分悲哀的。不止如此,第一点是今天人不能不思考,第二点是今天我们将历史的主动权交给了 AI,将人的主体性严重剥夺,这是相当悲哀的。
我方认为,从自身思考、组织语言来构建自己的论点、逻辑、表达和认知,若这些都被放弃,而仅仅成为 AI 的执行者,这是第一步。第二步是,当执行 AI 的指令时,人们不会去反对和质疑这个权威。因为 AI 过于强大,比如黄志忠引出的论点,人们就会照着执行。认为依靠这个论点就能战胜对方。AI 战胜了人类,所以今天只有听 AI 的话才能赢得比赛。因为用进废退,这个论点非常好,听这个论点就可以了,自己何必再去思考呢?人越依赖 AI,就越会放弃自己的思考。但是,如果今天 AI 为每一场比赛都提供了方案,人们每场都不进行训练,那能力怎么会不退化呢?我方并未谈及任何 AI 是否理性的问题,我方想告诉您的是,人类需要决定自己的意义。盲目听从他人的言论也是不好的。
我方今天所说的是,当有一个更强大的工具出现时,人更容易对其产生依赖。同学,上一位发言您可能没听清楚,我方是从根本上阐明,当一个事物能够完全超越我方,若不听从它,我方就无法获胜。比如对方有黄哲忠,而我方没有,我方就赢不了,所以必须依赖,进而在依赖中丧失了自己思考的能力。
第二点,我方的价值观念表明得很清楚。一方面是放弃了人类思考的主体性,以至于如今沦为 AI 的附庸,AI 说什么就得听什么,决策权不在自己手中,这就意味着如今去解构思考这件事本身就是十分悲哀的。不止如此,第一点是今天人不能不思考,第二点是今天我们将历史的主动权交给了 AI,将人的主体性严重剥夺,这是相当悲哀的。
我方认为,从自身思考、组织语言来构建自己的论点、逻辑、表达和认知,若这些都被放弃,而仅仅成为 AI 的执行者,这是第一步。第二步是,当执行 AI 的指令时,人们不会去反对和质疑这个权威。因为 AI 过于强大,比如黄志忠引出的论点,人们就会照着执行。认为依靠这个论点就能战胜对方。AI 战胜了人类,所以今天只有听 AI 的话才能赢得比赛。因为用进废退,这个论点非常好,听这个论点就可以了,自己何必再去思考呢?人越依赖 AI,就越会放弃自己的思考。但是,如果今天 AI 为每一场比赛都提供了方案,人们每场都不进行训练,那能力怎么会不退化呢?我方并未谈及任何 AI 是否理性的问题,我方想告诉您的是,人类需要决定自己的意义。盲目听从他人的言论也是不好的。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方一辩提出:当有更强大的工具(如 AI)出现时,人更容易对其产生依赖。理由如下:
辩题为:vs 环节为:正方一辩 · 小结
正方一辩小结:
(此处内容缺失,仅根据提供的语音转文字文本“上方一辩小结”进行了修正和分段,实际应为“正方一辩小结”,但无具体小结内容。)
今天,若我要听取他人建议,将其视为权威,在此需退一步讲,即便自己不出主意,也得对其进行消化,不能处于完全无脑的状态。内化实则是一个颇为简单的逻辑,即看谁能更好地操作 AI。什么意思呢?今天我本质上无需自己提出问题,无需自己思考,我唯一所需的,我的形成观点、构建观点、逻辑性的表达与认知都会随之消极,而我唯一要做的是将 AI 那整套体系执行下来。在这个过程中,建立了一个完全的权威,然而这改变了意识。今天,我们需要打破权威,作为辩手,应通过自己不断地思考去挑战这种权威,而非认为其已是最棒的,而我今天所做的只是去执行而已。在此,我们认为思维的废退以及无意识地对权威的妥协,是一个辩手的巨大悲哀。
再往下说。今天我们所谈的例子是,在 AI 竞技病人的场域之外,还有许多可探讨的内容。比方说,倘若今天一个 AI 一人可完成 9 个律师的工作,那么剩下的 8 个律师都将被解雇,因为在资本的逐利性面前,没必要花一个人的钱去雇 8 个人。所以在这个过程中,大量岗位丧失,无数被 AI 取代的岗位随之产生,这是人类进步的悲哀。而我们说,这件事不同于之前汽车取代马车,因为当时只是取代人类的一部分,我们有时间去进行更高级的思维性工作。而如今 AI 全面取代人类,是取代人的整个主体性,就如我方所举的美国大法官的例子一样,从思考到辨识,再到决策的主体性,在这个过程中,整个人性随之瓦解,我方认为此亦很可悲。
今天,若我要听取他人建议,将其视为权威,在此需退一步讲,即便自己不出主意,也得对其进行消化,不能处于完全无脑的状态。内化实则是一个颇为简单的逻辑,即看谁能更好地操作 AI。什么意思呢?今天我本质上无需自己提出问题,无需自己思考,我唯一所需的,我的形成观点、构建观点、逻辑性的表达与认知都会随之消极,而我唯一要做的是将 AI 那整套体系执行下来。在这个过程中,建立了一个完全的权威,然而这改变了意识。今天,我们需要打破权威,作为辩手,应通过自己不断地思考去挑战这种权威,而非认为其已是最棒的,而我今天所做的只是去执行而已。在此,我们认为思维的废退以及无意识地对权威的妥协,是一个辩手的巨大悲哀。
再往下说。今天我们所谈的例子是,在 AI 竞技病人的场域之外,还有许多可探讨的内容。比方说,倘若今天一个 AI 一人可完成 9 个律师的工作,那么剩下的 8 个律师都将被解雇,因为在资本的逐利性面前,没必要花一个人的钱去雇 8 个人。所以在这个过程中,大量岗位丧失,无数被 AI 取代的岗位随之产生,这是人类进步的悲哀。而我们说,这件事不同于之前汽车取代马车,因为当时只是取代人类的一部分,我们有时间去进行更高级的思维性工作。而如今 AI 全面取代人类,是取代人的整个主体性,就如我方所举的美国大法官的例子一样,从思考到辨识,再到决策的主体性,在这个过程中,整个人性随之瓦解,我方认为此亦很可悲。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
你方通篇告知我,我们现今去操控 AI 的论点本身需加以思考,对吧?故而本质上乃是谁将 AI 的论点内化得更佳,对吧。至此,从我本身需去挑战一个权威,变为今日我认同其为权威,仅需去执行权威的命令。至此,我认为一场辩论的意义已然被消解。倘若今日一个 AI 能够完成九个律师的工作,一个律师借助 AI 可完成九个律师的活儿,那剩余的八个律师该如何是好呢?嗯,三千万的法律工作,四千万的 GPGP 学到四千万的人工智能,以及更庞大数据的工作,您方是否考虑过。所以,AI 并非如您所说仅取代了流水线的体力工作,而是人类真正需要思考的部分,我们也交付给了 AI,而那个需要我们进行决策的部分亦不复存在。此乃我方认为人类思考主体性缺失之处。我继续向您提问,今日能否因 1 + 1 的思考颇为繁琐且劳累,便不去思考。在辩论中,AI 告知我之后,我形成价值判断固然重要,然而前置的我自己去逐步判断那个逻辑链,我一点点学习辩论基础是否同样重要?学姐为您灌输理论,让您如此执行,您不进行挑战是否可行?对于权威性无挑战的部分,包括理解本身已是退让一步的部分,我已阐述得很明晰了,所以关键在于您觉得当下的技术并非那般强大,因而今日无法取代诸多高阶岗位,包括无法让我们在场上完全复刻,对吧?倘若今日我能够在前置方面运用 AI,其本身已然实现比人类更高阶的思考过程,它能够取代任何辩手,包括能够在任何工作上做得比人类更出色,您方的观点是否均不成立?所以现状是 AI 效率更高,花费更少,致使大量高精尖的岗位亦在失业,后续那部分前置内容我会继续与您探讨,谢谢。
你方通篇告知我,我们现今去操控 AI 的论点本身需加以思考,对吧?故而本质上乃是谁将 AI 的论点内化得更佳,对吧。至此,从我本身需去挑战一个权威,变为今日我认同其为权威,仅需去执行权威的命令。至此,我认为一场辩论的意义已然被消解。倘若今日一个 AI 能够完成九个律师的工作,一个律师借助 AI 可完成九个律师的活儿,那剩余的八个律师该如何是好呢?嗯,三千万的法律工作,四千万的 GPGP 学到四千万的人工智能,以及更庞大数据的工作,您方是否考虑过。所以,AI 并非如您所说仅取代了流水线的体力工作,而是人类真正需要思考的部分,我们也交付给了 AI,而那个需要我们进行决策的部分亦不复存在。此乃我方认为人类思考主体性缺失之处。我继续向您提问,今日能否因 1 + 1 的思考颇为繁琐且劳累,便不去思考。在辩论中,AI 告知我之后,我形成价值判断固然重要,然而前置的我自己去逐步判断那个逻辑链,我一点点学习辩论基础是否同样重要?学姐为您灌输理论,让您如此执行,您不进行挑战是否可行?对于权威性无挑战的部分,包括理解本身已是退让一步的部分,我已阐述得很明晰了,所以关键在于您觉得当下的技术并非那般强大,因而今日无法取代诸多高阶岗位,包括无法让我们在场上完全复刻,对吧?倘若今日我能够在前置方面运用 AI,其本身已然实现比人类更高阶的思考过程,它能够取代任何辩手,包括能够在任何工作上做得比人类更出色,您方的观点是否均不成立?所以现状是 AI 效率更高,花费更少,致使大量高精尖的岗位亦在失业,后续那部分前置内容我会继续与您探讨,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
我方今天讲的是两个部分。第一部分,从自己出论到理工房,到查资料,变成如今只会找资料,这已然退了一步。
第一件事情,我把它认为成一个权威,我唯一需要做的就是听那个权威的话,理解权威想干什么,而去挑战它本身,如此便消解了辩论的意义。
第二,您继续说。
所以您从头到尾是矛盾的。您先告诉我说 AI 取代不了人是因为不够牛,又告诉我说 AI 已经有了主体性和各种各样的科技手段,您到底要哪一层口径?
首先,我不觉得这个想法有多权威。第一个学生去运动会,跟今天的观点,他告诉我整个论中,告诉我该怎么出,这是完全不一样的事情。今天若我真的觉得很权威,我才……您这个例子有逼迫之嫌,而且我们是主动放弃主体性,认为 AI 是权威的话,这才最可怕。
我方今天讲的是两个部分。第一部分,从自己出论到理工房,到查资料,变成如今只会找资料,这已然退了一步。
第一件事情,我把它认为成一个权威,我唯一需要做的就是听那个权威的话,理解权威想干什么,而去挑战它本身,如此便消解了辩论的意义。
第二,您继续说。
所以您从头到尾是矛盾的。您先告诉我说 AI 取代不了人是因为不够牛,又告诉我说 AI 已经有了主体性和各种各样的科技手段,您到底要哪一层口径?
首先,我不觉得这个想法有多权威。第一个学生去运动会,跟今天的观点,他告诉我整个论中,告诉我该怎么出,这是完全不一样的事情。今天若我真的觉得很权威,我才……您这个例子有逼迫之嫌,而且我们是主动放弃主体性,认为 AI 是权威的话,这才最可怕。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
辩题为:vs 环节为:反方一辩 · 小结
红豆。从头到尾不敢跟我聊那个叫做路径依赖的问题。什么叫路径依赖?就是今天我认为一个辩手在心里比我强很多,所以我听他的话,放弃我的主动思考,而成为他的一个打手。比方说他学长姐,学长姐的论文总是比我牛,我又总是听学长姐的话,不形成自我的思维。可怕在什么地方?可怕在我在心底认为这个人是权威的,而消解了我对于权威的挑战和自我的思想,这是极其可怕的。
第二步,我方觉得辩论最终的意义是需要从思考论点开始,要去反驳、归谬,要去最后否定自己,在成长这部分过程就好像今天我们需要进行一些 1 + 1 = 2 的简单数学计算,去给我们的逻辑打基础,而不能把一切交给 AI 做那种已经一切构建好了,让它来帮我们执行的工作,这才是对人类思考最大的益处。我们坦然承认,先拿着它可以打赢陈明、黄忠,但最后成功的不是我,是它。
接下来讲,今天一个律师可以做完三个律师的活,就会有两个律师失业,谈的当然不是费用的问题。给您解释一下,目前美国的律所进行的 AI 技术已经非常流行了,甚至他们的首席大法官针对这个普遍的 3000 多人使用的 AI 统一网络表示,你们不要太依赖于 AI,它会忽视很多没有看见的信息。什么意思?第一个是谈的造假,在大数据里面,特朗普在去年都在大选中通过 AI 数据造了一份自己在法庭上面呈现出来的假设。第二步是这种把一切交给 AI 对人的处理的忽视,会让我们一切在当前停滞。
在高空上有两朵乌云,一朵叫量子力学,一朵叫相对论。这是我们从 1 加 1 一步一步走到长空去挑战行为完成的思维量,而不是相信一切做到这里就可以,一切只是简单的过去的机械重复而已,这是对人类处理能力的消解,这件事情相当可悲。
辩题为:vs 环节为:反方一辩 · 小结
红豆。从头到尾不敢跟我聊那个叫做路径依赖的问题。什么叫路径依赖?就是今天我认为一个辩手在心里比我强很多,所以我听他的话,放弃我的主动思考,而成为他的一个打手。比方说他学长姐,学长姐的论文总是比我牛,我又总是听学长姐的话,不形成自我的思维。可怕在什么地方?可怕在我在心底认为这个人是权威的,而消解了我对于权威的挑战和自我的思想,这是极其可怕的。
第二步,我方觉得辩论最终的意义是需要从思考论点开始,要去反驳、归谬,要去最后否定自己,在成长这部分过程就好像今天我们需要进行一些 1 + 1 = 2 的简单数学计算,去给我们的逻辑打基础,而不能把一切交给 AI 做那种已经一切构建好了,让它来帮我们执行的工作,这才是对人类思考最大的益处。我们坦然承认,先拿着它可以打赢陈明、黄忠,但最后成功的不是我,是它。
接下来讲,今天一个律师可以做完三个律师的活,就会有两个律师失业,谈的当然不是费用的问题。给您解释一下,目前美国的律所进行的 AI 技术已经非常流行了,甚至他们的首席大法官针对这个普遍的 3000 多人使用的 AI 统一网络表示,你们不要太依赖于 AI,它会忽视很多没有看见的信息。什么意思?第一个是谈的造假,在大数据里面,特朗普在去年都在大选中通过 AI 数据造了一份自己在法庭上面呈现出来的假设。第二步是这种把一切交给 AI 对人的处理的忽视,会让我们一切在当前停滞。
在高空上有两朵乌云,一朵叫量子力学,一朵叫相对论。这是我们从 1 加 1 一步一步走到长空去挑战行为完成的思维量,而不是相信一切做到这里就可以,一切只是简单的过去的机械重复而已,这是对人类处理能力的消解,这件事情相当可悲。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
没有逼迫就不可悲吗?奶头乐虽没有逼迫,吸毒也是一部分人自愿的,可悲吗?今天有人说自己特别喜欢看黄片,喜欢一些黄赌毒的东西,虽然自己放弃了好好工作,没人逼迫,但都知道这很可悲。所以不是没人逼迫就不可悲,而是自己放弃自己的主体性,放弃好好思考,过有主体感的生活,这件事本身就很可悲。
第二个,你方提到的是 AH 在流水线的工作,以及马斯克对人类的警告,包括 3000 万高技术工人的失业。那我现在研究告诉你,在决策上对人类几无二致,你怎么看?我方举证告诉你,主要包括律师、医生、精算人员。
没有逼迫就不可悲吗?奶头乐虽没有逼迫,吸毒也是一部分人自愿的,可悲吗?今天有人说自己特别喜欢看黄片,喜欢一些黄赌毒的东西,虽然自己放弃了好好工作,没人逼迫,但都知道这很可悲。所以不是没人逼迫就不可悲,而是自己放弃自己的主体性,放弃好好思考,过有主体感的生活,这件事本身就很可悲。
第二个,你方提到的是 AH 在流水线的工作,以及马斯克对人类的警告,包括 3000 万高技术工人的失业。那我现在研究告诉你,在决策上对人类几无二致,你怎么看?我方举证告诉你,主要包括律师、医生、精算人员。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
是一件值得人类喜悦的事情,所以应从始至终告知各位,不能依据其是否存在利好来判断可不可悲,而是要从人类脉络上的价值性进行比较。我方继续提问,一个 AI 做出的决策与人类几无差别,在您看来,这也被认为不够高级吗?我方今日想表明的是,如果我能够用一个人的工钱雇到完成相当于 8 个人工作量的人,我就不会主动去雇 8 个人。所以在效率的提升方面,如果现今 AI 能够通过效率的提升,使我一个人借助 AI 完成相当于 8 个人的工作,那么其余大部分人就会失业。而其所谓的大技术能力,在机理上表明是其他的高技术工作,这一点现在需要跟我们讲清楚。我记得这个例子与我所讲的没有任何关联,换一个例子进行比较吧。现在我主动不好好学习,或者我主动逃课,这是我自己的选择,无人逼迫,您能说这不可悲吗?我方认为哪天浑浑噩噩被退学,乃至今日您不思考,每天沉浸于这种享乐的生活,或者每天观看黄片,这样的生活本身无人逼迫,但它们都是可悲的,与吸毒酗酒没有区别。我方接着往下提问,如果今日我方认为 AI 能做出比我更好的决策,或者一切科学技术停滞于此,您方认为可不可悲?所以最后一件事是,AI 是看似理性的,这是什么意思呢?其一,许多人利用 AI 造假,用一个理性的幌子来掩盖。例如,说特朗普的某些行为是 AI 作为一个看似公平的决策者所导致的,其机理会向项目方筛选最重要的信息,而那些饱含情感的、来自远方的呼声,比如女生被骚扰后觉得难堪的情绪等,都将被统统忽略。这种所谓的 AI 技术的理性,是我方认为最为可怕的。
是一件值得人类喜悦的事情,所以应从始至终告知各位,不能依据其是否存在利好来判断可不可悲,而是要从人类脉络上的价值性进行比较。我方继续提问,一个 AI 做出的决策与人类几无差别,在您看来,这也被认为不够高级吗?我方今日想表明的是,如果我能够用一个人的工钱雇到完成相当于 8 个人工作量的人,我就不会主动去雇 8 个人。所以在效率的提升方面,如果现今 AI 能够通过效率的提升,使我一个人借助 AI 完成相当于 8 个人的工作,那么其余大部分人就会失业。而其所谓的大技术能力,在机理上表明是其他的高技术工作,这一点现在需要跟我们讲清楚。我记得这个例子与我所讲的没有任何关联,换一个例子进行比较吧。现在我主动不好好学习,或者我主动逃课,这是我自己的选择,无人逼迫,您能说这不可悲吗?我方认为哪天浑浑噩噩被退学,乃至今日您不思考,每天沉浸于这种享乐的生活,或者每天观看黄片,这样的生活本身无人逼迫,但它们都是可悲的,与吸毒酗酒没有区别。我方接着往下提问,如果今日我方认为 AI 能做出比我更好的决策,或者一切科学技术停滞于此,您方认为可不可悲?所以最后一件事是,AI 是看似理性的,这是什么意思呢?其一,许多人利用 AI 造假,用一个理性的幌子来掩盖。例如,说特朗普的某些行为是 AI 作为一个看似公平的决策者所导致的,其机理会向项目方筛选最重要的信息,而那些饱含情感的、来自远方的呼声,比如女生被骚扰后觉得难堪的情绪等,都将被统统忽略。这种所谓的 AI 技术的理性,是我方认为最为可怕的。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
来。需向我证明科技发展带来了喜悦。我们应从人类的宏观层面,或起码在利弊比较的角度来看,至于其在价值性或时间性上是否有更大好处,虽您通篇言其有利好,可我未听到有关比较的内容。
第二步,今天为何通篇讲路径依赖究竟何意?是因如今 AI 从机制上会让人对其产生依赖感,从而放弃自身思考。黄志忠已帮您将论点尽出,您自然不会自行思考出论,对方的回应是说不自己出论,那又如何?理解顶尖辩手本身亦具价值。
有两件事,其一为 1 + 1 的学习方式,本身极具价值。当然,我们有诸多非数据性的学习,例如在 A 的价值之上进行自我建构。然而,每个辩手起初都需学习论点的处理能力,需逐条查看资料包里的数据,需学习模型的制作方法,需学习最基本的辩论知识。在辩论过程中,需一次次发现自身错误,一次次进行自我纠正,而非写好全套内容后,照其念来理解学习内容。在辩论之外,物理学的高楼虽已建立,但仍有量子力学和相对论有待探索,不能让辩论沦为 AI 实验的相互争斗,而需保留人类自身的思考能力。这便是我方想告知大家的,您需自己提出问题,自己整理攻防,学习整理论点,思考其中是否存在问题的价值。即便如您方所言,今日仅需执行论点,您也是将 AI 视作绝对权威,告知自己只需理解即可,认为其本身无错。此时,依赖和惰性便已产生,您会觉得其是权威,而自己仅是那个被学长惯坏的小孩,思维在退化。我方所举的 1000 多人中 1 / 3 都在进行作弊的例子,也表明在人类尚未学会思考时,便进行能力上的对话,此点甚是可悲。
其二为 A2 的上行,为何对人类整体发展而言是可悲的。它所取代的工作并非如您方所说,马车夫丢了马车,可去开汽车。我方刚刚提及的是 3000 多名精算人员、众多律师岗位、医疗岗位,以及其具备的决策能力。在最新研究中,普林斯顿等的研究表明其决策能力几无差别,甚至 AI 男友的情绪渲染比人做得更好。此时,它所取代的难道仅是流水线工作吗?所以,被取代的难道不是你我吗?它告知人类无需思考,您失业吧,您的价值毫无意义。此时,才是其最为可悲之处,因其告知人类的主体性已不复存在。我们知晓它很理性,比许多人做得更好,就如同那些权威的白人法官,无需倾听那些朴素民众的声音,仅需大数据模型在机制上告知这样做最为正确。因为女孩的哭声,那些所谓觉得无价值、无意义的声音,它全都不予理会。此时,人类被架空,人类朴素的感觉被剥离,这是每个历史场合中,从封建主义的自行制造,到如今 AI 占据主导地位,我们深感可悲,谢谢。
来。需向我证明科技发展带来了喜悦。我们应从人类的宏观层面,或起码在利弊比较的角度来看,至于其在价值性或时间性上是否有更大好处,虽您通篇言其有利好,可我未听到有关比较的内容。
第二步,今天为何通篇讲路径依赖究竟何意?是因如今 AI 从机制上会让人对其产生依赖感,从而放弃自身思考。黄志忠已帮您将论点尽出,您自然不会自行思考出论,对方的回应是说不自己出论,那又如何?理解顶尖辩手本身亦具价值。
有两件事,其一为 1 + 1 的学习方式,本身极具价值。当然,我们有诸多非数据性的学习,例如在 A 的价值之上进行自我建构。然而,每个辩手起初都需学习论点的处理能力,需逐条查看资料包里的数据,需学习模型的制作方法,需学习最基本的辩论知识。在辩论过程中,需一次次发现自身错误,一次次进行自我纠正,而非写好全套内容后,照其念来理解学习内容。在辩论之外,物理学的高楼虽已建立,但仍有量子力学和相对论有待探索,不能让辩论沦为 AI 实验的相互争斗,而需保留人类自身的思考能力。这便是我方想告知大家的,您需自己提出问题,自己整理攻防,学习整理论点,思考其中是否存在问题的价值。即便如您方所言,今日仅需执行论点,您也是将 AI 视作绝对权威,告知自己只需理解即可,认为其本身无错。此时,依赖和惰性便已产生,您会觉得其是权威,而自己仅是那个被学长惯坏的小孩,思维在退化。我方所举的 1000 多人中 1 / 3 都在进行作弊的例子,也表明在人类尚未学会思考时,便进行能力上的对话,此点甚是可悲。
其二为 A2 的上行,为何对人类整体发展而言是可悲的。它所取代的工作并非如您方所说,马车夫丢了马车,可去开汽车。我方刚刚提及的是 3000 多名精算人员、众多律师岗位、医疗岗位,以及其具备的决策能力。在最新研究中,普林斯顿等的研究表明其决策能力几无差别,甚至 AI 男友的情绪渲染比人做得更好。此时,它所取代的难道仅是流水线工作吗?所以,被取代的难道不是你我吗?它告知人类无需思考,您失业吧,您的价值毫无意义。此时,才是其最为可悲之处,因其告知人类的主体性已不复存在。我们知晓它很理性,比许多人做得更好,就如同那些权威的白人法官,无需倾听那些朴素民众的声音,仅需大数据模型在机制上告知这样做最为正确。因为女孩的哭声,那些所谓觉得无价值、无意义的声音,它全都不予理会。此时,人类被架空,人类朴素的感觉被剥离,这是每个历史场合中,从封建主义的自行制造,到如今 AI 占据主导地位,我们深感可悲,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
从人类的宏观层面,在利弊比较的角度,探讨科技发展是否真正带来喜悦。
科技发展(AI 的发展)虽然在某些方面有一定的优势,但从人类宏观层面和利弊比较的角度来看,它带来了诸多问题,如让人产生依赖感、放弃自身思考,以及取代大量工作使人类主体性不复存在,因此不能简单地认为科技发展带来了喜悦。