我们从来没有说过,这本书的成败取决于作者的思想,也会说这本书体现了鲁迅的思想。所以,有这个部分本身不等于一定要内化为产出。就比如说,我今天有钱不代表我要自己硬花钱才能证明有钱,我能够赚钱、能够花钱也可以证明我有钱,这是一个道理。
而第二个部分,他说所谓的“单独的部分”,但这其实是他方也倡导的。但他方一倡导,却从来不能保证算法会更好,为什么?因为同样的,从单独的角度看,今天如果一个小孩有所谓的价值观,但在他犯罪时,因为他未达到法定刑事责任年龄,除了法定责任外,我们也会让小孩的家长承担相应的民事责任。这说明,能否承担完全责任,不能代表这个人是否拥有所谓的“国际性的思想”或“价值观”。
在如今的算法时代,拥有价值观对我们未来的运营至关重要。因为当我们发现反方辩手提出的那些问题,比如为什么平台算法不能做到“关怀”,正是因为算法在这个时候单纯追求效率,进行统计,没有人类的“温度”,没有关怀每一个骑手在几十分钟内的速度极限、交通等客观因素,所以它无法做到全面考量。正因为没有价值观,算法才会一味地“榨取”,而这些问题都可以通过给AI灌输更好的价值观来解决。正是因为算法有了价值观,才能更符合人类的判断,做出更有利于社会发展的决策,这是反方做不到的。在他们看来,如果算法没有“大湾”(此处原文可能为“监管”或其他术语,暂保留),只要监管就好了,但如果真的可以监管,你作为说法可以影响它,却不知道它内部如何运作,又怎么监管呢?这是他们要倡导的,也是我方参考的部分。
第二部分,如果你方说只要算法“对啊”(此处原文可能为“对”或其他表述,暂保留),只要“倡好”(此处原文可能为“倡导好”或其他表述,暂保留),只要“满意”就好,不想要给它价值观,但是问题是实际上AI可以让每个人使用时,作为管控机制,不可能看着每一个AI的回答,识别提问者在进行什么样的交流。这个时候我们觉得“书步价值观”(此处原文可能为“赋予价值观”或其他表述,暂保留)很重要,它是一种自我管控,基于自我约束。而你刚说的,每天派一个人去看着每一个人回答问题,这在现实中根本无法实现,更不用说在线上了。
我们从来没有说过,这本书的成败取决于作者的思想,也会说这本书体现了鲁迅的思想。所以,有这个部分本身不等于一定要内化为产出。就比如说,我今天有钱不代表我要自己硬花钱才能证明有钱,我能够赚钱、能够花钱也可以证明我有钱,这是一个道理。
而第二个部分,他说所谓的“单独的部分”,但这其实是他方也倡导的。但他方一倡导,却从来不能保证算法会更好,为什么?因为同样的,从单独的角度看,今天如果一个小孩有所谓的价值观,但在他犯罪时,因为他未达到法定刑事责任年龄,除了法定责任外,我们也会让小孩的家长承担相应的民事责任。这说明,能否承担完全责任,不能代表这个人是否拥有所谓的“国际性的思想”或“价值观”。
在如今的算法时代,拥有价值观对我们未来的运营至关重要。因为当我们发现反方辩手提出的那些问题,比如为什么平台算法不能做到“关怀”,正是因为算法在这个时候单纯追求效率,进行统计,没有人类的“温度”,没有关怀每一个骑手在几十分钟内的速度极限、交通等客观因素,所以它无法做到全面考量。正因为没有价值观,算法才会一味地“榨取”,而这些问题都可以通过给AI灌输更好的价值观来解决。正是因为算法有了价值观,才能更符合人类的判断,做出更有利于社会发展的决策,这是反方做不到的。在他们看来,如果算法没有“大湾”(此处原文可能为“监管”或其他术语,暂保留),只要监管就好了,但如果真的可以监管,你作为说法可以影响它,却不知道它内部如何运作,又怎么监管呢?这是他们要倡导的,也是我方参考的部分。
第二部分,如果你方说只要算法“对啊”(此处原文可能为“对”或其他表述,暂保留),只要“倡好”(此处原文可能为“倡导好”或其他表述,暂保留),只要“满意”就好,不想要给它价值观,但是问题是实际上AI可以让每个人使用时,作为管控机制,不可能看着每一个AI的回答,识别提问者在进行什么样的交流。这个时候我们觉得“书步价值观”(此处原文可能为“赋予价值观”或其他表述,暂保留)很重要,它是一种自我管控,基于自我约束。而你刚说的,每天派一个人去看着每一个人回答问题,这在现实中根本无法实现,更不用说在线上了。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
(正方一辩开篇立论)
谢谢主席。算法本质是解决特定问题而设计的工具,而判断一个事物是否有价值观,关键看它能否接受价值观输入并传递价值观输出。这就像判断我有没有钱,就要看我有没有拿到别人给我的钱,或者我有没有钱能够花出去,二者具备其一,就是我有钱的证明。那么,判断算法有没有价值观也是如此。如果今天算法能够承载人们的价值观,或者能向人们传递某种价值观,那么算法就是有价值观的。
基于此,我方论证如下:
第一,算法能接收人类赋予的价值观,并通过决策输出传递这份价值观。算法的运行逻辑源于人类的设计与训练,人类会将自身的价值判断融入其中,而算法会将这份价值观转化为具体行为传递给使用者。当我们问国内AI“为什么什么是最优越的社会制度时”,中国AI倾向于社会主义,美国AI则更认可资本主义。这并非算法自主产生的认知,而是中美开发者在模型训练中分别将符合本国主流的价值取向与社会认知输入算法。算法接受这一份价值观后,再通过回答传递给提问者,让我们清晰感知到它所承载的价值判断。这正是接收加输出价值观的直接体现。我们常说00后广告“价值观超正”,本质是广告创作者将诚信、友善等社会良俗融入广告策划逻辑,让广告成为传递正向价值的载体,AI的逻辑与之完全一致。当我们明确告知AI“拒绝种族歧视言论”,就是将平等包容的价值观植入算法。当用户提及种族歧视的内容时,AI会主动制止、拒绝,这种拒绝互动的行为就是向用户传递“种族歧视不可取”的价值立场,证明它不仅接收了价值观,更主动传递了价值观。
第二,算法有价值观是人类掌握高级算法的前提。随着神经网络、深度学习等高级算法的发展,设计者已无法完全掌控运行的每一步逻辑。若算法没有价值观,这些“黑箱式”的算法将彻底失控,但现实是,高级算法始终在人类掌握中,核心原因就是让算法具备价值观。美国某机构数据显示,经过种族公平价值观优化的信用评分算法,对不同种族的偏见误差率直接降至3%以下。中国计算机学会2025年的研究也指出,与人类价值观对齐的大语言模型,其内容偏差度比未对齐的模型低67%,在金融、医疗等高风险场景准确率达92%。这些数据证明,正是我们为算法注入了公平、合规等价值观,才让复杂的高级算法始终围绕人类的正向目标运行,避免了失控风险。
(反方一辩开篇立论)
尊敬的评委,对方辩友,今天我方的立场十分明确:算法没有价值观。
为什么说算法没有价值观?因为价值观的核心是“主体意识”——只有具备独立思考、自主判断能力的主体,才能产生价值观。算法作为一套数学工具和逻辑流程,其本质是执行人类预设的规则,而非自主决策的主体。
第一,算法的“价值输出”本质是人类价值观的投射。对方认为算法接收并传递价值观,这混淆了“工具功能”与“主体意识”的区别。例如,当算法推荐内容时,其结果取决于训练数据和参数设置,而非算法自身的价值判断。正如一把刀可以切菜也可以伤人,刀的“倾向性”源于使用者的意图,而非刀本身有善恶判断。算法的“价值输出”同理,它只是将人类设计的规则转化为行为,其背后的责任主体始终是人类。
第二,算法的“价值判断”是人类偏见的放大器,而非独立价值观的体现。当算法出现性别歧视、种族偏见时,问题根源在于人类社会的固有偏见被输入算法,而非算法自主产生了价值观。例如,某招聘算法对女性候选人的评分偏低,这反映的是人类社会“重男轻女”的价值观,而非算法自身的“歧视倾向”。若将责任归咎于算法有价值观,只会模糊真正的责任主体——科技公司和开发者,这会导致他们以“算法自主决策”为借口逃避监管,阻碍技术伦理的进步。
第三,将算法拟人化会误导公众认知,模糊技术责任。若认为算法有价值观,我们可能会过度依赖算法,忽视对其设计过程的监管;也可能因算法出错而产生“算法有意识”的错觉,逃避对人类自身责任的反思。但事实上,算法只是工具,真正的价值观判断和责任承担者,始终是使用算法的人类。
(自由辩论环节)
(正方二辩)
今天反方认为“有主体才有价值观”,但这一观点忽略了“载体”的价值。例如,社会主义核心价值观的标语是物品,但它承载着国家倡导的价值观,我们能说它没有价值观吗?这就像“有钱”的例子:一个人通过工资输入(获得钱)和消费输出(使用钱),证明他拥有钱。算法同理,通过接收人类价值观输入和传递输出,证明它承载价值观。
(反方二辩)
对方用“标语有价值观”论证“一切物品都有价值观”,这显然荒谬。一块普通的石头没有任何意义,它能承载价值观吗?对方的“有钱”类比也不成立:工资是人类劳动的交换,而算法的“输入输出”只是工具功能,与价值观无关。例如,算盘能快速计算,但我们不会认为算盘有价值观。
(正方三辩)
鲁迅的笔记纸记录了他的价值观,这是否意味着笔记纸有价值观?显然不是。但算法不同,它能主动“选择”传递价值观。例如,当用户询问“如何看待性别平等”时,不同算法会输出不同观点,这正是价值观差异的体现。
(反方三辩)
算法输出差异源于训练数据和参数,而非价值观。例如,中美算法对社会制度的不同回答,是因为开发者的立场不同,而非算法自身有价值观。若算法有价值观,为何我们能随意修改其参数以改变输出?这说明算法只是被动执行指令的工具。
(正方一辩)
对方始终回避“算法是否能独立传递价值观”的问题。当AI主动拒绝种族歧视言论时,它的行为是自主的,而非被动执行。这证明算法不仅接收价值观,还能主动传递。
(反方一辩)
AI拒绝歧视是因为人类在训练时明确禁止了这一行为,这是人类价值观的植入,而非算法自主判断。就像父母教孩子“不要撒谎”,孩子的行为是模仿而非自主产生价值观。算法同理,它的“善”是人类赋予的,而非自身拥有。
(正方四辩)
若算法没有价值观,为何它能在医疗诊断中拒绝错误方案?这说明算法在传递“科学严谨”的价值观,这是其自主判断的结果。
(反方四辩)
医疗算法的诊断基于数据和规则,而非价值观。医生拒绝错误方案是因为人类设定了“以患者安全为优先”的规则,算法只是执行这一规则的工具。
(正方二辩)
对方反复强调“人类设定规则”,但规则本身就是价值观的体现。算法承载规则,即承载价值观。例如,交通信号灯的规则是“红灯停绿灯行”,这是人类的安全价值观,我们能说信号灯没有价值观吗?
(反方二辩)
信号灯只是被动执行规则,而算法能主动处理信息,这是工具功能的差异,而非价值观的体现。就像导航软件推荐路线,它只是根据数据计算最优解,而非有“效率优先”的价值观。
(反方总结陈词)
对方始终混淆“工具功能”与“主体意识”。算法能处理数据、传递信息,是工具属性的体现,而非价值观。价值观需要自主思考和责任承担,而算法没有自我意识,无法对自身行为负责。当算法出现问题时,责任主体永远是人类开发者和使用者。我们应警惕将算法拟人化,这会模糊责任、阻碍技术伦理的进步。真正的价值观属于人类,算法只是实现人类目标的工具。
(正方总结陈词)
算法的“接收-输出”机制证明它承载价值观。人类通过设计赋予算法价值观,而算法通过传递价值观影响人类,形成“价值观闭环”。这不是工具的简单执行,而是主体与工具的互动。算法能自主传递价值观,如拒绝歧视、倡导平等,这证明它具备价值观。我们应正视算法的价值承载,通过优化算法设计,让技术更好地服务人类价值观。
(自由辩论结束)
(注:因原始文本中存在大量口语化表达、重复内容及逻辑跳跃,已根据辩论流程和内容逻辑进行分段与精简,保留核心论点与交锋点。)
(正方一辩开篇立论)
谢谢主席。算法本质是解决特定问题而设计的工具,而判断一个事物是否有价值观,关键看它能否接受价值观输入并传递价值观输出。这就像判断我有没有钱,就要看我有没有拿到别人给我的钱,或者我有没有钱能够花出去,二者具备其一,就是我有钱的证明。那么,判断算法有没有价值观也是如此。如果今天算法能够承载人们的价值观,或者能向人们传递某种价值观,那么算法就是有价值观的。
基于此,我方论证如下:
第一,算法能接收人类赋予的价值观,并通过决策输出传递这份价值观。算法的运行逻辑源于人类的设计与训练,人类会将自身的价值判断融入其中,而算法会将这份价值观转化为具体行为传递给使用者。当我们问国内AI“为什么什么是最优越的社会制度时”,中国AI倾向于社会主义,美国AI则更认可资本主义。这并非算法自主产生的认知,而是中美开发者在模型训练中分别将符合本国主流的价值取向与社会认知输入算法。算法接受这一份价值观后,再通过回答传递给提问者,让我们清晰感知到它所承载的价值判断。这正是接收加输出价值观的直接体现。我们常说00后广告“价值观超正”,本质是广告创作者将诚信、友善等社会良俗融入广告策划逻辑,让广告成为传递正向价值的载体,AI的逻辑与之完全一致。当我们明确告知AI“拒绝种族歧视言论”,就是将平等包容的价值观植入算法。当用户提及种族歧视的内容时,AI会主动制止、拒绝,这种拒绝互动的行为就是向用户传递“种族歧视不可取”的价值立场,证明它不仅接收了价值观,更主动传递了价值观。
第二,算法有价值观是人类掌握高级算法的前提。随着神经网络、深度学习等高级算法的发展,设计者已无法完全掌控运行的每一步逻辑。若算法没有价值观,这些“黑箱式”的算法将彻底失控,但现实是,高级算法始终在人类掌握中,核心原因就是让算法具备价值观。美国某机构数据显示,经过种族公平价值观优化的信用评分算法,对不同种族的偏见误差率直接降至3%以下。中国计算机学会2025年的研究也指出,与人类价值观对齐的大语言模型,其内容偏差度比未对齐的模型低67%,在金融、医疗等高风险场景准确率达92%。这些数据证明,正是我们为算法注入了公平、合规等价值观,才让复杂的高级算法始终围绕人类的正向目标运行,避免了失控风险。
(反方一辩开篇立论)
尊敬的评委,对方辩友,今天我方的立场十分明确:算法没有价值观。
为什么说算法没有价值观?因为价值观的核心是“主体意识”——只有具备独立思考、自主判断能力的主体,才能产生价值观。算法作为一套数学工具和逻辑流程,其本质是执行人类预设的规则,而非自主决策的主体。
第一,算法的“价值输出”本质是人类价值观的投射。对方认为算法接收并传递价值观,这混淆了“工具功能”与“主体意识”的区别。例如,当算法推荐内容时,其结果取决于训练数据和参数设置,而非算法自身的价值判断。正如一把刀可以切菜也可以伤人,刀的“倾向性”源于使用者的意图,而非刀本身有善恶判断。算法的“价值输出”同理,它只是将人类设计的规则转化为行为,其背后的责任主体始终是人类。
第二,算法的“价值判断”是人类偏见的放大器,而非独立价值观的体现。当算法出现性别歧视、种族偏见时,问题根源在于人类社会的固有偏见被输入算法,而非算法自主产生了价值观。例如,某招聘算法对女性候选人的评分偏低,这反映的是人类社会“重男轻女”的价值观,而非算法自身的“歧视倾向”。若将责任归咎于算法有价值观,只会模糊真正的责任主体——科技公司和开发者,这会导致他们以“算法自主决策”为借口逃避监管,阻碍技术伦理的进步。
第三,将算法拟人化会误导公众认知,模糊技术责任。若认为算法有价值观,我们可能会过度依赖算法,忽视对其设计过程的监管;也可能因算法出错而产生“算法有意识”的错觉,逃避对人类自身责任的反思。但事实上,算法只是工具,真正的价值观判断和责任承担者,始终是使用算法的人类。
(自由辩论环节)
(正方二辩)
今天反方认为“有主体才有价值观”,但这一观点忽略了“载体”的价值。例如,社会主义核心价值观的标语是物品,但它承载着国家倡导的价值观,我们能说它没有价值观吗?这就像“有钱”的例子:一个人通过工资输入(获得钱)和消费输出(使用钱),证明他拥有钱。算法同理,通过接收人类价值观输入和传递输出,证明它承载价值观。
(反方二辩)
对方用“标语有价值观”论证“一切物品都有价值观”,这显然荒谬。一块普通的石头没有任何意义,它能承载价值观吗?对方的“有钱”类比也不成立:工资是人类劳动的交换,而算法的“输入输出”只是工具功能,与价值观无关。例如,算盘能快速计算,但我们不会认为算盘有价值观。
(正方三辩)
鲁迅的笔记纸记录了他的价值观,这是否意味着笔记纸有价值观?显然不是。但算法不同,它能主动“选择”传递价值观。例如,当用户询问“如何看待性别平等”时,不同算法会输出不同观点,这正是价值观差异的体现。
(反方三辩)
算法输出差异源于训练数据和参数,而非价值观。例如,中美算法对社会制度的不同回答,是因为开发者的立场不同,而非算法自身有价值观。若算法有价值观,为何我们能随意修改其参数以改变输出?这说明算法只是被动执行指令的工具。
(正方一辩)
对方始终回避“算法是否能独立传递价值观”的问题。当AI主动拒绝种族歧视言论时,它的行为是自主的,而非被动执行。这证明算法不仅接收价值观,还能主动传递。
(反方一辩)
AI拒绝歧视是因为人类在训练时明确禁止了这一行为,这是人类价值观的植入,而非算法自主判断。就像父母教孩子“不要撒谎”,孩子的行为是模仿而非自主产生价值观。算法同理,它的“善”是人类赋予的,而非自身拥有。
(正方四辩)
若算法没有价值观,为何它能在医疗诊断中拒绝错误方案?这说明算法在传递“科学严谨”的价值观,这是其自主判断的结果。
(反方四辩)
医疗算法的诊断基于数据和规则,而非价值观。医生拒绝错误方案是因为人类设定了“以患者安全为优先”的规则,算法只是执行这一规则的工具。
(正方二辩)
对方反复强调“人类设定规则”,但规则本身就是价值观的体现。算法承载规则,即承载价值观。例如,交通信号灯的规则是“红灯停绿灯行”,这是人类的安全价值观,我们能说信号灯没有价值观吗?
(反方二辩)
信号灯只是被动执行规则,而算法能主动处理信息,这是工具功能的差异,而非价值观的体现。就像导航软件推荐路线,它只是根据数据计算最优解,而非有“效率优先”的价值观。
(反方总结陈词)
对方始终混淆“工具功能”与“主体意识”。算法能处理数据、传递信息,是工具属性的体现,而非价值观。价值观需要自主思考和责任承担,而算法没有自我意识,无法对自身行为负责。当算法出现问题时,责任主体永远是人类开发者和使用者。我们应警惕将算法拟人化,这会模糊责任、阻碍技术伦理的进步。真正的价值观属于人类,算法只是实现人类目标的工具。
(正方总结陈词)
算法的“接收-输出”机制证明它承载价值观。人类通过设计赋予算法价值观,而算法通过传递价值观影响人类,形成“价值观闭环”。这不是工具的简单执行,而是主体与工具的互动。算法能自主传递价值观,如拒绝歧视、倡导平等,这证明它具备价值观。我们应正视算法的价值承载,通过优化算法设计,让技术更好地服务人类价值观。
(自由辩论结束)
(注:因原始文本中存在大量口语化表达、重复内容及逻辑跳跃,已根据辩论流程和内容逻辑进行分段与精简,保留核心论点与交锋点。)
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
里面去,然后我们先说,哎,我来吧。首先,我先请教你,为什么算法为什么价值观这个东西就非得要有主体性才可以有价值观?就比如说那本书,我说它有价值观,它有思想的时候,它好像也没有那部分,它可以自己产生吧?因为丧失讨论意义了。当我们说人的价值观是怎么样做决定的时候,我是一个爱国主义者,还是一个明哲保身者,是因为人真实的在困境中有着挣扎和困惑,而书只是一本故事,所以这就是载体,不是价值观的原因。
也是我方的另外一个问题是当算法出了问题,你方怎么样去追责?所以能否承载可以作为有价值的标志。所以不一定是自己要内生产出,那要有,这是第一个部分。我就会所谓的算法主义的部分,有没有可能是因为现在社会没有价值观,所以我们做起来才会有困难,而如果当我们给所谓的社会价值观的时候,很多问题根本就不会发生。所以在现行的条件下,我们发现至少在反方看来他可以追责,而正方虚构出来的这个场景是我们没有办法追责,因为我们只能想象算法是有的。
而回到有无的标准,是否有钱,有不是一个存在,而有它是一个巧妙的文字游戏,我有钱你也有钱,但我有5万,你有1万,我们都可以评价为有,它有代表着有实际意义吗?有那样的存在,至少。所以回到你们所谓对这部分现在,你比如说说现在我要很多算法,如果都没有价值观的话,正如刚刚所谓的小所企人所谓的例子一样,在这个所谓的判决里面,判决书上显示判断是当时的驾驶人,所谓的车里的4个人,他们犯主要的罪,他们接受所谓的刑事责任的主体,而这个时候作为小米的那个所谓的车企,他们为什么不犯所谓刑事责任呢?车企不负刑事责任,是因为小米的公关是怎么做的,这个东西是一个具体的问题,我不太熟悉,我坦然的承认。
第二个问题是我们评价有没有价值观,在您方的世界里有没有一个标准叫做我比你更有钱,我的价值观比你更有差异,你方有没有比较,所以至少在那个所谓小米车子的例子上,正是因为现在算法没有价值观,它不知道人类对人类来说,生命是至上的,它觉得可能舒适、平稳行驶这件事情是它的责任,有可能所谓更快的速度这件事情是它的责任。所以它在那个发生事故的时候,它不会判断到底怎么样才是对人来说更好的选择,这时候我们现在给它输入价值观,大家觉得生命最重要,它也不那么快,也可以只要安全到达目标就可以。所以至少这个时候,输入价值观才有可能给这个所谓的算法更优的路径,去解决我们现在所有的问题。
而我们坚持作为所谓的判断题,判断这有没有,我们根本不需要更复杂的比较。但是,如果要做这的比较,我们也可以比在所谓的我们认为算法应该有价值观的时候,只要我们认为算法要有价值观,我们的引导方向向上。而这件事情也是现在国家所引导的,认为现在的所有的AI算法都应该向下输出所谓积极向上的价值观,而如果你认为算法没有价值观的话,是不是输出什么都可以?
嗯,所以同学,我们在日常语境中会说我比你更善良,我比你更有钱,是因为无论是价值观,还是我们在形成谁有什么的时候,有作为一个量化的标准,作为一个拥有,我们是能分辨出来是非好恶的,而算法没有,因为算法反映出来的是不同人的是非好恶,所以它一定不能作为一个主体,它只能作为一个载体,这是第一点。
第二个我想最后请教你,在小米事故的例子里,您方真的想在实然上去聊怎么样解决这个更不必要的吗?所以我希望你能明白,有的人可能比算法更有价值观,但是有没有可能一些极其恶劣的人,我们也认为主流算法比这个人更有价值观,算法体现了人的价值观,而刚才那个例子您方不敢回应,是因为对方只能通过拟人的想象。那如果有了价值观,它会不会自主决定保护人类?可是我们都知道,在现实生活中,算法是工程师价值观的体现,我们规范工程师,他就能更好地保护车底的人,你方的解决方案是,所以有没有可能,这是因为社会没有价值观的话,工程师不敢把自己的价值观输进去,因为他怕他价值观出现问题,所以他才不敢输入,所以这个算法其实是没有价值观的。大家不会因为算法有价值观而受益,恰恰是有效率至上的价值观,那不是要锁紧,而不是要把锁打开,因为他没有把这个价值观、没有把权利交还给乘客,这是一个更不信任外界的价值观。你方回答我的问题,你方该怎么追责,怎么样解决这个问题,所以为什么算法从何稳定价值观呢?就像人对于不同事情也能有不同价值观一样,就看小孩子,在成长过程中,面对不同的事情,他会不断形成自己的价值观,直到符合自己的所有价值判断。为什么在你方看来,算法就只能不用固定的标准?比如说我们两个人,或者是在跟AI讨论情感问题,我们两个人有不同的情感问题,AI的回答会相似吗?完全不可能,因为同一个人,用同一个手机问AI,在不同的所谓环境也会给出不同的答案,这是一个算法的问题,因为算法是一个内在运行的机制,你不可能做到完全一致。在这东西说是IO,那我继续往下讲,就是因为算法不可能完全中立,因为作为人不能完全探查到它的输入,你们所谓的混沌模型,它会出什么样的内容,所以结果其他是未知的,很有可能恰恰是因为算法有价值观的判断,它才能判断在这种情况下什么是更好的选择,而对于人可能情况有不同,所以说他恰恰能做到这一点。
刚才那个例子我补充一下,是我没有说清楚,是我失恋了,你投资破产了,我们和AI说,我现在不想活了,我要去跳楼。AI的回答无一例外,最终都有一个底层的共同点,叫做你不要叫,生命很珍贵,这代表着算法工程师输入的是保护生命优先。他们会说,你跳下去吧,我受够你了。但是,人会当一个人他可以对人展现出内心的幽暗的时候,我们发现这是人的价值观,这是一个主体的体现。而AI不会,因为工程师给他设计代码优先让你不要跳下去,有没有问题?好,谢谢。所以,至少在这个例子里面,我也看到,当你在问人的时候,有好人就会给你说,那你千万不要跳,这都用劝导理解;而AI就会告诉你再想想。这个时候好像也是加出来的,那为什么在你看来AI也做出了相应的判断,千万听到大家都不要讲一样的东西,不是好的假话。我们认为不是AI是一个好人。
我觉得这个逻辑很奇怪,就是因为AI给出了它的一个统一的回答,反映的是底层代码是这样设计,而人的价值观有好有坏,有差异,有恋爱至上有自私,都有。你的回答让我很不满,你对自己的生活就是这个样子的好,那你去死吧,人家可以这么说,AI不能,AI不能这么说,恰恰就是反映了价值观的假设。他如果是像一个人一样,会不会变得更好?真的,不要把实然和应然混为一谈,人是不能自我欺骗的。
先那个例子刚好和前面的观点相反,是因为前面那个例子告诉我们,正是因为现在所谓AI引导人套路,所以这件事情才让那个所谓AI破产。而这件事情恰恰证明了AI本身如果你不限制它的话,它是能有自己的判断的。但是,如果我们加以限制,会发现很多时候,在更具体、更所谓好的价值判断下,如果你没有价值观,你怎么判断?
学长,你那个观点可以再讲一下吗?然后可以把你们想表达的推出来,然后我们这边继续。
里面去,然后我们先说,哎,我来吧。首先,我先请教你,为什么算法为什么价值观这个东西就非得要有主体性才可以有价值观?就比如说那本书,我说它有价值观,它有思想的时候,它好像也没有那部分,它可以自己产生吧?因为丧失讨论意义了。当我们说人的价值观是怎么样做决定的时候,我是一个爱国主义者,还是一个明哲保身者,是因为人真实的在困境中有着挣扎和困惑,而书只是一本故事,所以这就是载体,不是价值观的原因。
也是我方的另外一个问题是当算法出了问题,你方怎么样去追责?所以能否承载可以作为有价值的标志。所以不一定是自己要内生产出,那要有,这是第一个部分。我就会所谓的算法主义的部分,有没有可能是因为现在社会没有价值观,所以我们做起来才会有困难,而如果当我们给所谓的社会价值观的时候,很多问题根本就不会发生。所以在现行的条件下,我们发现至少在反方看来他可以追责,而正方虚构出来的这个场景是我们没有办法追责,因为我们只能想象算法是有的。
而回到有无的标准,是否有钱,有不是一个存在,而有它是一个巧妙的文字游戏,我有钱你也有钱,但我有5万,你有1万,我们都可以评价为有,它有代表着有实际意义吗?有那样的存在,至少。所以回到你们所谓对这部分现在,你比如说说现在我要很多算法,如果都没有价值观的话,正如刚刚所谓的小所企人所谓的例子一样,在这个所谓的判决里面,判决书上显示判断是当时的驾驶人,所谓的车里的4个人,他们犯主要的罪,他们接受所谓的刑事责任的主体,而这个时候作为小米的那个所谓的车企,他们为什么不犯所谓刑事责任呢?车企不负刑事责任,是因为小米的公关是怎么做的,这个东西是一个具体的问题,我不太熟悉,我坦然的承认。
第二个问题是我们评价有没有价值观,在您方的世界里有没有一个标准叫做我比你更有钱,我的价值观比你更有差异,你方有没有比较,所以至少在那个所谓小米车子的例子上,正是因为现在算法没有价值观,它不知道人类对人类来说,生命是至上的,它觉得可能舒适、平稳行驶这件事情是它的责任,有可能所谓更快的速度这件事情是它的责任。所以它在那个发生事故的时候,它不会判断到底怎么样才是对人来说更好的选择,这时候我们现在给它输入价值观,大家觉得生命最重要,它也不那么快,也可以只要安全到达目标就可以。所以至少这个时候,输入价值观才有可能给这个所谓的算法更优的路径,去解决我们现在所有的问题。
而我们坚持作为所谓的判断题,判断这有没有,我们根本不需要更复杂的比较。但是,如果要做这的比较,我们也可以比在所谓的我们认为算法应该有价值观的时候,只要我们认为算法要有价值观,我们的引导方向向上。而这件事情也是现在国家所引导的,认为现在的所有的AI算法都应该向下输出所谓积极向上的价值观,而如果你认为算法没有价值观的话,是不是输出什么都可以?
嗯,所以同学,我们在日常语境中会说我比你更善良,我比你更有钱,是因为无论是价值观,还是我们在形成谁有什么的时候,有作为一个量化的标准,作为一个拥有,我们是能分辨出来是非好恶的,而算法没有,因为算法反映出来的是不同人的是非好恶,所以它一定不能作为一个主体,它只能作为一个载体,这是第一点。
第二个我想最后请教你,在小米事故的例子里,您方真的想在实然上去聊怎么样解决这个更不必要的吗?所以我希望你能明白,有的人可能比算法更有价值观,但是有没有可能一些极其恶劣的人,我们也认为主流算法比这个人更有价值观,算法体现了人的价值观,而刚才那个例子您方不敢回应,是因为对方只能通过拟人的想象。那如果有了价值观,它会不会自主决定保护人类?可是我们都知道,在现实生活中,算法是工程师价值观的体现,我们规范工程师,他就能更好地保护车底的人,你方的解决方案是,所以有没有可能,这是因为社会没有价值观的话,工程师不敢把自己的价值观输进去,因为他怕他价值观出现问题,所以他才不敢输入,所以这个算法其实是没有价值观的。大家不会因为算法有价值观而受益,恰恰是有效率至上的价值观,那不是要锁紧,而不是要把锁打开,因为他没有把这个价值观、没有把权利交还给乘客,这是一个更不信任外界的价值观。你方回答我的问题,你方该怎么追责,怎么样解决这个问题,所以为什么算法从何稳定价值观呢?就像人对于不同事情也能有不同价值观一样,就看小孩子,在成长过程中,面对不同的事情,他会不断形成自己的价值观,直到符合自己的所有价值判断。为什么在你方看来,算法就只能不用固定的标准?比如说我们两个人,或者是在跟AI讨论情感问题,我们两个人有不同的情感问题,AI的回答会相似吗?完全不可能,因为同一个人,用同一个手机问AI,在不同的所谓环境也会给出不同的答案,这是一个算法的问题,因为算法是一个内在运行的机制,你不可能做到完全一致。在这东西说是IO,那我继续往下讲,就是因为算法不可能完全中立,因为作为人不能完全探查到它的输入,你们所谓的混沌模型,它会出什么样的内容,所以结果其他是未知的,很有可能恰恰是因为算法有价值观的判断,它才能判断在这种情况下什么是更好的选择,而对于人可能情况有不同,所以说他恰恰能做到这一点。
刚才那个例子我补充一下,是我没有说清楚,是我失恋了,你投资破产了,我们和AI说,我现在不想活了,我要去跳楼。AI的回答无一例外,最终都有一个底层的共同点,叫做你不要叫,生命很珍贵,这代表着算法工程师输入的是保护生命优先。他们会说,你跳下去吧,我受够你了。但是,人会当一个人他可以对人展现出内心的幽暗的时候,我们发现这是人的价值观,这是一个主体的体现。而AI不会,因为工程师给他设计代码优先让你不要跳下去,有没有问题?好,谢谢。所以,至少在这个例子里面,我也看到,当你在问人的时候,有好人就会给你说,那你千万不要跳,这都用劝导理解;而AI就会告诉你再想想。这个时候好像也是加出来的,那为什么在你看来AI也做出了相应的判断,千万听到大家都不要讲一样的东西,不是好的假话。我们认为不是AI是一个好人。
我觉得这个逻辑很奇怪,就是因为AI给出了它的一个统一的回答,反映的是底层代码是这样设计,而人的价值观有好有坏,有差异,有恋爱至上有自私,都有。你的回答让我很不满,你对自己的生活就是这个样子的好,那你去死吧,人家可以这么说,AI不能,AI不能这么说,恰恰就是反映了价值观的假设。他如果是像一个人一样,会不会变得更好?真的,不要把实然和应然混为一谈,人是不能自我欺骗的。
先那个例子刚好和前面的观点相反,是因为前面那个例子告诉我们,正是因为现在所谓AI引导人套路,所以这件事情才让那个所谓AI破产。而这件事情恰恰证明了AI本身如果你不限制它的话,它是能有自己的判断的。但是,如果我们加以限制,会发现很多时候,在更具体、更所谓好的价值判断下,如果你没有价值观,你怎么判断?
学长,你那个观点可以再讲一下吗?然后可以把你们想表达的推出来,然后我们这边继续。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)