例如,《在恋爱关系中,应该追求等价的付出·在恋爱关系中,不应该追求等价的付出》一题,辩之竹内共收录26场比赛。我们为您提供这26场比赛的论点、判断标准提取,以及总计数百条论据的提取,还有Deepseek的辩题分析。这可以帮您更好备赛。
欢迎您点击下方按钮,前往查看。
回应一下对方辩友,您方所谓的那个共识,首先,您方提到法律,您说的偷盗,会对受害者产生实际的权益损害。而所谓的友善,我出于友善行为夸赞他人,有些人却认为是物化女性。对于一些女权者来说,她们会觉得自己的权益受到了侵犯;但对于其他一些女性而言,夸赞是溢美之词。这就是所谓共识的区分。
其次,您方今天表示GPT式大语言模型需要与人类友善交互,人类显然是一个群体。然而在我方对您方进行质询时,问到一些宗教上的问题,您方又说它没办法涵盖所有个体,这是不是有点自相矛盾呢?
再说,您方称医生在治病的时候必须保持友善,友善是重要前提。那么当友善和专业技术起冲突时,您会怎么选择?是选择专业但不一定友善的医生,还是……
回应一下对方辩友,您方所谓的那个共识,首先,您方提到法律,您说的偷盗,会对受害者产生实际的权益损害。而所谓的友善,我出于友善行为夸赞他人,有些人却认为是物化女性。对于一些女权者来说,她们会觉得自己的权益受到了侵犯;但对于其他一些女性而言,夸赞是溢美之词。这就是所谓共识的区分。
其次,您方今天表示GPT式大语言模型需要与人类友善交互,人类显然是一个群体。然而在我方对您方进行质询时,问到一些宗教上的问题,您方又说它没办法涵盖所有个体,这是不是有点自相矛盾呢?
再说,您方称医生在治病的时候必须保持友善,友善是重要前提。那么当友善和专业技术起冲突时,您会怎么选择?是选择专业但不一定友善的医生,还是……
老班,一会儿你记得计时,然后将下一个会议的会议号发给我,我再转发给他们。因为这场会议是限时的,你在时间快到还剩5分钟的时候及时打断,然后咱们一起进入下一个会议,咱们也记得计时。
到齐了吗?咱们可以开始了吗?
齐了。这边也调试了,我们试一下音,重光先开始。
王浩,你在吗? 我在,可以听到我说话吗? 可以。
正方二辩,可以听到吗? 可以,我是正方二辩。
正方三辩,应该也能听清吧? 正方四辩志元,可以听清吗? 可以。
反方二辩,可以听到吗? 可以听到。 反方三辩,可以听到吗? 可以听到。
那开始吧,正方一辩,开始开篇陈词。
谢谢主席,包括在场各位。友善在人与人交往中意味着友好、非敌意。而以友善为前提发展AI的思潮来源已久。美国机器智能研究院奠基人尤德科福斯提出了友好人工智能的概念,认为友善从设计伊始就应当注入机器的智能系统中。2024年世界人工智能大会也提出推动智能向善的议题,要求确保人工智能发展始终符合人类的根本利益和价值标准。
“友善”体现在GPT式大语言模型中,最基础的体现即为在人类希望进行交互时,愿意陪同人类探讨和解决问题,能够耐心并且态度友好地与人类交流。更进一步的则是人机对齐的概念。实际上,GPT式大语言模型的发展应始终符合人类价值标准。基于此,我方认为GPT式大语言模型发展应该以友善为前提,论证如下:
首先,如果不以友善为前提,GPT式大语言发展模型将对人类造成现实伤害。GPT式大语言模型的训练,需要从互联网中获取大量人类文本信息以及语料库,但是人类的文本中存在大量偏见等不友善信息。比如互联网上有人提问如何高考600分,下面存在评论“600分不是有手就行”。《论飞机鹦鹉的危害,语言模型会过大吗?》一文也指出,在经过筛选的网络数据上训练的语言模型会编码对少数群体的偏见,多样化的数据采样对于消除这种偏见至关重要。
中国社会科学报也提到,现在的聊天机器人的大规模模型应用,之所以能够游刃有余地应对用户的各种提问而不至于产生太大的负面影响,在很大程度上归功于人机对齐方面的技术和实践。由此可见,只有在训练过程中以友善为前提筛选数据库,才能避免GPT式大语言模型在发展过程中伤害到人类。
其次,只有以友善为前提,GPT式大语言模型才能应对未来的挑战与风险。当前,大语言模型正逐步进入医疗、司法、教育、金融等关键领域,在这些场景中,一个大语言模型如果不能以对人类友善为基本前提,也就是存在偏见、不遵循伦理,它将很可能放大人类社会已有的不公,引发结构性伤害,无法让人类整体受益。
《人机对齐》一书中指出,AI发展可能呈现严重的偏见与歧视影响,严重影响AI的发展。例如,IBM曾用AI开发了招聘软件,输入100份简历,得分最好的几乎都是男性。数据科学家莫伊纳克·马祖达尔也曾在演讲中提到,糟糕的数据会让AI形成严重的偏见,质量不佳的数据会导致AI做出错误的决定和预测。因此,对人类友善是未来GPT式人工智能面对各领域的风险与挑战时不可或缺的前提。
综上所述,从现实层面避免毒性输出,到未来层面保证技术视野与公平发展,语言模型的每一步演进都必须建立在对人类友好这一基线上。唯有此,我们才能更好地让AI服务于人类,也能让GPT式大语言模型得到更为良性的发展。因此,我方认为语言模型发展必须以对人类友善为前提,谢谢大家。
老班,一会儿你记得计时,然后将下一个会议的会议号发给我,我再转发给他们。因为这场会议是限时的,你在时间快到还剩5分钟的时候及时打断,然后咱们一起进入下一个会议,咱们也记得计时。
到齐了吗?咱们可以开始了吗?
齐了。这边也调试了,我们试一下音,重光先开始。
王浩,你在吗? 我在,可以听到我说话吗? 可以。
正方二辩,可以听到吗? 可以,我是正方二辩。
正方三辩,应该也能听清吧? 正方四辩志元,可以听清吗? 可以。
反方二辩,可以听到吗? 可以听到。 反方三辩,可以听到吗? 可以听到。
那开始吧,正方一辩,开始开篇陈词。
谢谢主席,包括在场各位。友善在人与人交往中意味着友好、非敌意。而以友善为前提发展AI的思潮来源已久。美国机器智能研究院奠基人尤德科福斯提出了友好人工智能的概念,认为友善从设计伊始就应当注入机器的智能系统中。2024年世界人工智能大会也提出推动智能向善的议题,要求确保人工智能发展始终符合人类的根本利益和价值标准。
“友善”体现在GPT式大语言模型中,最基础的体现即为在人类希望进行交互时,愿意陪同人类探讨和解决问题,能够耐心并且态度友好地与人类交流。更进一步的则是人机对齐的概念。实际上,GPT式大语言模型的发展应始终符合人类价值标准。基于此,我方认为GPT式大语言模型发展应该以友善为前提,论证如下:
首先,如果不以友善为前提,GPT式大语言发展模型将对人类造成现实伤害。GPT式大语言模型的训练,需要从互联网中获取大量人类文本信息以及语料库,但是人类的文本中存在大量偏见等不友善信息。比如互联网上有人提问如何高考600分,下面存在评论“600分不是有手就行”。《论飞机鹦鹉的危害,语言模型会过大吗?》一文也指出,在经过筛选的网络数据上训练的语言模型会编码对少数群体的偏见,多样化的数据采样对于消除这种偏见至关重要。
中国社会科学报也提到,现在的聊天机器人的大规模模型应用,之所以能够游刃有余地应对用户的各种提问而不至于产生太大的负面影响,在很大程度上归功于人机对齐方面的技术和实践。由此可见,只有在训练过程中以友善为前提筛选数据库,才能避免GPT式大语言模型在发展过程中伤害到人类。
其次,只有以友善为前提,GPT式大语言模型才能应对未来的挑战与风险。当前,大语言模型正逐步进入医疗、司法、教育、金融等关键领域,在这些场景中,一个大语言模型如果不能以对人类友善为基本前提,也就是存在偏见、不遵循伦理,它将很可能放大人类社会已有的不公,引发结构性伤害,无法让人类整体受益。
《人机对齐》一书中指出,AI发展可能呈现严重的偏见与歧视影响,严重影响AI的发展。例如,IBM曾用AI开发了招聘软件,输入100份简历,得分最好的几乎都是男性。数据科学家莫伊纳克·马祖达尔也曾在演讲中提到,糟糕的数据会让AI形成严重的偏见,质量不佳的数据会导致AI做出错误的决定和预测。因此,对人类友善是未来GPT式人工智能面对各领域的风险与挑战时不可或缺的前提。
综上所述,从现实层面避免毒性输出,到未来层面保证技术视野与公平发展,语言模型的每一步演进都必须建立在对人类友好这一基线上。唯有此,我们才能更好地让AI服务于人类,也能让GPT式大语言模型得到更为良性的发展。因此,我方认为语言模型发展必须以对人类友善为前提,谢谢大家。
下面请反方四辩质询正方一辩,时间为2分30秒。
前面方辩友让人感觉被冒犯,就属于朋友反对吗?稍等一下,我这边有点问题。
请问对方辩友,让人感觉被冒犯,就是不友善,对吗? 正方:是的。
反方:那如果AI在表达中没有使用具有冒犯性这类所谓友善词汇,也属于不友善,对吗? 正方:这种情况不会出现,我们会筛选语料库。
反方:假如说它没有不友善,对吗? 正方:是的。
反方:如果是一个医生,在给病人治病时也需要以友善为前提吗? 正方:需要。
反方:因为医生在治病时说话直接、严肃,没有刻意冒犯,并且这种严肃的态度,不是好医生吗?医生治病是关键,但同时医生对于病人能否接受治疗结果,最起码专业人士的核心价值是以专业技术为前提的,而非友善,对吗? 正方:友善在其中也占据了很大的关键因素。
反方:所以说专业领域包括AI的核心前提是技术能力与工具价值,而非所谓友善。你认为前提是首要因素,是不可忽略的,是否认同? 正方:是。
反方:当律师撰写辩护词时,需要尖锐地反驳对方的观点,或者揭露造假行为需要用激烈的措辞时,是否该放弃呢?因为您说要使用特定的语言。 正方:尖锐的用词和我方所表达的友善并不相等,我方表达的友善,筛选的语料库是关于那些偏见、歧视之类的语料库,而不是说不允许出现可能对于对方来说是尖锐的词语。
反方:当AI面对关于宗教的容易出现个人观点偏见的这种话题时,它是否不回避呢? 正方:我方的友善是针对于广大大众的友善,就是尽量避免冒犯,并不代表着要满足每一个人不同的诉求。所以它针对的不是所有人,而是会特别处理。
反方:你方刚刚提到它的定义是可以更加友善地和人类交互,那我想问一下,技术发展的前提是可以落地的准则,你方如何把这个友善交互转化为具体实践? 正方:首先我方在论一中提到了,我们会选择性地去筛选一些语料库;其次,我方在论一中也提到了用多样化的数据去发展。
反方:比如它在推荐某些东西的时候,是要满足长期需求还是短期需求呢?比如说短期有可能推动一些成瘾性的东西,但是长期会有益。 正方:麻烦您重新说一下问题,我方刚刚手机出现点问题。
反方:假如说需要它给你推荐某些东西时,它是要满足短期欲望,给你推送一些成瘾性的东西,还是为了长期利益去推动一些学习的视频呢?前者还是后者。 正方:这两个东西并不冲突。 反方:怎么可能不冲突呢?现在先看短视频和学习能不冲突吗? 正方:您刚刚说什么,我没听清。 反方:我的意思是,这两个显然是冲突的。所以说如果连开发者都不知道友善该怎么落地,你这个前提如何实现呢? 正方:我方没有说友善不可以落地,其次友善,即使目前这个阶段不能落地,我们不应该也朝这个方向去发展吗?
反方:另一个例子,你们认为友善会影响AI的价值。但是关于友善的定义,我们是依赖人类多元的动态变化。我夸女性温柔贤惠,会被女权群体视为物化;或者说在国际象棋中,某些行为会被误解为种族歧视。这种情况下AI的表达是否有效有害?到底是友善不对,还是人类的价值本身在冲突呢? 正方:人类的价值本身是冲突的。
反方:对的,所以说连人类都无法统一友善的边界,那AI又是如何做到的呢? 正方:我方没有说我们要统一友善的边界。
下面请反方四辩质询正方一辩,时间为2分30秒。
前面方辩友让人感觉被冒犯,就属于朋友反对吗?稍等一下,我这边有点问题。
请问对方辩友,让人感觉被冒犯,就是不友善,对吗? 正方:是的。
反方:那如果AI在表达中没有使用具有冒犯性这类所谓友善词汇,也属于不友善,对吗? 正方:这种情况不会出现,我们会筛选语料库。
反方:假如说它没有不友善,对吗? 正方:是的。
反方:如果是一个医生,在给病人治病时也需要以友善为前提吗? 正方:需要。
反方:因为医生在治病时说话直接、严肃,没有刻意冒犯,并且这种严肃的态度,不是好医生吗?医生治病是关键,但同时医生对于病人能否接受治疗结果,最起码专业人士的核心价值是以专业技术为前提的,而非友善,对吗? 正方:友善在其中也占据了很大的关键因素。
反方:所以说专业领域包括AI的核心前提是技术能力与工具价值,而非所谓友善。你认为前提是首要因素,是不可忽略的,是否认同? 正方:是。
反方:当律师撰写辩护词时,需要尖锐地反驳对方的观点,或者揭露造假行为需要用激烈的措辞时,是否该放弃呢?因为您说要使用特定的语言。 正方:尖锐的用词和我方所表达的友善并不相等,我方表达的友善,筛选的语料库是关于那些偏见、歧视之类的语料库,而不是说不允许出现可能对于对方来说是尖锐的词语。
反方:当AI面对关于宗教的容易出现个人观点偏见的这种话题时,它是否不回避呢? 正方:我方的友善是针对于广大大众的友善,就是尽量避免冒犯,并不代表着要满足每一个人不同的诉求。所以它针对的不是所有人,而是会特别处理。
反方:你方刚刚提到它的定义是可以更加友善地和人类交互,那我想问一下,技术发展的前提是可以落地的准则,你方如何把这个友善交互转化为具体实践? 正方:首先我方在论一中提到了,我们会选择性地去筛选一些语料库;其次,我方在论一中也提到了用多样化的数据去发展。
反方:比如它在推荐某些东西的时候,是要满足长期需求还是短期需求呢?比如说短期有可能推动一些成瘾性的东西,但是长期会有益。 正方:麻烦您重新说一下问题,我方刚刚手机出现点问题。
反方:假如说需要它给你推荐某些东西时,它是要满足短期欲望,给你推送一些成瘾性的东西,还是为了长期利益去推动一些学习的视频呢?前者还是后者。 正方:这两个东西并不冲突。 反方:怎么可能不冲突呢?现在先看短视频和学习能不冲突吗? 正方:您刚刚说什么,我没听清。 反方:我的意思是,这两个显然是冲突的。所以说如果连开发者都不知道友善该怎么落地,你这个前提如何实现呢? 正方:我方没有说友善不可以落地,其次友善,即使目前这个阶段不能落地,我们不应该也朝这个方向去发展吗?
反方:另一个例子,你们认为友善会影响AI的价值。但是关于友善的定义,我们是依赖人类多元的动态变化。我夸女性温柔贤惠,会被女权群体视为物化;或者说在国际象棋中,某些行为会被误解为种族歧视。这种情况下AI的表达是否有效有害?到底是友善不对,还是人类的价值本身在冲突呢? 正方:人类的价值本身是冲突的。
反方:对的,所以说连人类都无法统一友善的边界,那AI又是如何做到的呢? 正方:我方没有说我们要统一友善的边界。
是不是友善,我认为GPT式大语言模型的友善,是指它可以与人类好好交流问题,愿意回应人类的提问,而不是当人类问“1+1等于几”时,模型却回复“请问你脑子有什么问题,我不愿意回答这样的问题”。这便是我方所定义的友善。
所以,你方的标准是无法判定模型是否友善的。而且,若AI一直处于调试过程,就是在浪费资源,需要做出改变。
首先,我方对于友好的界定很简单。举个例子,当人类与模型交流时,模型会礼貌回应,如说“你好”“先生,请问你有什么问题可以尽情向我咨询”,这就是我方所定义的友好。
其次,像您方刚刚提到的类似于女权这类冲突,这是人类社会本身就存在的问题。我方构建以友善为前提的模型,就是为了避免出现这类情况,这也是模型存在的有效意义所在。我方无法保证我们的GPT模型能让每一个人都感觉到它很友善,但我方可以保证,以友善为前提所创造的模型,最起码不会冒犯人类。这就是我方所定义的友善。
其次,我们未来发展的方向其实就是人机对齐。我方在论文中提到,要让GPT学习人类的思维与模式,学会人类的表达方式,从而使其更为友善。
是不是友善,我认为GPT式大语言模型的友善,是指它可以与人类好好交流问题,愿意回应人类的提问,而不是当人类问“1+1等于几”时,模型却回复“请问你脑子有什么问题,我不愿意回答这样的问题”。这便是我方所定义的友善。
所以,你方的标准是无法判定模型是否友善的。而且,若AI一直处于调试过程,就是在浪费资源,需要做出改变。
首先,我方对于友好的界定很简单。举个例子,当人类与模型交流时,模型会礼貌回应,如说“你好”“先生,请问你有什么问题可以尽情向我咨询”,这就是我方所定义的友好。
其次,像您方刚刚提到的类似于女权这类冲突,这是人类社会本身就存在的问题。我方构建以友善为前提的模型,就是为了避免出现这类情况,这也是模型存在的有效意义所在。我方无法保证我们的GPT模型能让每一个人都感觉到它很友善,但我方可以保证,以友善为前提所创造的模型,最起码不会冒犯人类。这就是我方所定义的友善。
其次,我们未来发展的方向其实就是人机对齐。我方在论文中提到,要让GPT学习人类的思维与模式,学会人类的表达方式,从而使其更为友善。
请反方一辩立论,时间为3分30秒。
GPT时代语言模型是指AI在分析海量文本数据后运行的模型。语言模型科学家期待其可以直接以人类的语言处理广泛应用,以提高社会生产力。其中,“友善”指代语言模型在语言表达中用亲和性语言使人感到舒适。
一项新兴技术被发明的核心目的是其工具性,即提升社会生产力与工作效率。因此,我方认为GPT时代语言模型发展以对人的友善为前提,既做不到对不同人类情感或价值观的深层理解,又会影响AI核心效率的提升。论证如下:
第一,GPT时代语言模型依赖参数和指令运行,无法匹配人类对友善的多元标准和动态变化,会使人感到冒犯而影响效率。
友善的本质是人类社交语境中的情感表达,其标准随个体、时代变化而变化,其判定依赖人类独有的情境理解与价值判断能力。而GPT依赖固定参数和指定运行,本质是对语言样本的算法程序,并不能真的理解人心。
比如,AI夸耀某个女性温柔贤惠,会被女权者认为物化女性;AI建议男生第一次相亲时请客而不是AA,会使得部分男性认为是对男性的系统性压迫,是“规男”行为;国际象棋里白棋先行会让黑人认为是对黑人的歧视;生成的文本里自动生成异性恋文章,会被LGBT人士认为是对少数群体的歧视。
显而易见,不同场景的话语对不同人可能造成不同的效果,有的人会觉得冒犯。依赖于编码指令的大GPT大语言模型更无法自动适配人类多变的道德标准,使得AI在说话前要么冒犯某人,要么不得不浪费算力在“叠甲”上。相信对方也一定见过UP主叠加话术的方法。
研究表明,AI训练数据冗余所增加的能耗高达90%。OpenAI处理“谢谢”“请”这类礼貌用语已经花费了数千万美元电费。
第二,GPT大语言模型作为一种先进的技术造物,其根本目的是提高生产力与效率的工具性,而不是陪人类聊天解闷。
大语言模型的价值集中体现在专业信息的精准输出。比如,茂名荔枝AI助手能基于气象和虫害数据提供精准建议,使生产效率提升30%,帮助茂名市农业总产值连续四年突破千亿元;中南大学三亚医院医用AI可给予专业知识分析受检者的生活方式、家族史、既往病史等危险因素,拯救无数生命。
案例中,AI起作用的核心都是专业性而非友善。就像人类农业专家和专业医生,即使他们不会说“请”之类的友善词汇,只要他们能够在其专业领域发挥作用,就应该继续发展。相反,AI先学会说“请”“谢谢”之类的友善词汇,并不能体现AI的价值。
疫情期间,张文宏医生建议大家早上不要喝粥,而要吃鸡蛋、牛奶,却被人质疑崇洋媚外,并有30万人点赞。如果AI的前提不是专业,而是友善,说安全无意义的空话、废话,虽然足够友善,却失去了专业的前提,会降低AI的价值。
技术发展前提是效率而非友善,就像培养医生,不会以友善而非医术为前提。20世纪初飞机事故率很高,1903年莱特兄弟发明的飞机依然是人类的壮举,不是因为飞机友善,而是因为它能让人类第一次飞向遥远的天空。
综上,我方坚定认为,GPT时代语言模型发展不应该以对人类友善为前提。以上,感谢!
请反方一辩立论,时间为3分30秒。
GPT时代语言模型是指AI在分析海量文本数据后运行的模型。语言模型科学家期待其可以直接以人类的语言处理广泛应用,以提高社会生产力。其中,“友善”指代语言模型在语言表达中用亲和性语言使人感到舒适。
一项新兴技术被发明的核心目的是其工具性,即提升社会生产力与工作效率。因此,我方认为GPT时代语言模型发展以对人的友善为前提,既做不到对不同人类情感或价值观的深层理解,又会影响AI核心效率的提升。论证如下:
第一,GPT时代语言模型依赖参数和指令运行,无法匹配人类对友善的多元标准和动态变化,会使人感到冒犯而影响效率。
友善的本质是人类社交语境中的情感表达,其标准随个体、时代变化而变化,其判定依赖人类独有的情境理解与价值判断能力。而GPT依赖固定参数和指定运行,本质是对语言样本的算法程序,并不能真的理解人心。
比如,AI夸耀某个女性温柔贤惠,会被女权者认为物化女性;AI建议男生第一次相亲时请客而不是AA,会使得部分男性认为是对男性的系统性压迫,是“规男”行为;国际象棋里白棋先行会让黑人认为是对黑人的歧视;生成的文本里自动生成异性恋文章,会被LGBT人士认为是对少数群体的歧视。
显而易见,不同场景的话语对不同人可能造成不同的效果,有的人会觉得冒犯。依赖于编码指令的大GPT大语言模型更无法自动适配人类多变的道德标准,使得AI在说话前要么冒犯某人,要么不得不浪费算力在“叠甲”上。相信对方也一定见过UP主叠加话术的方法。
研究表明,AI训练数据冗余所增加的能耗高达90%。OpenAI处理“谢谢”“请”这类礼貌用语已经花费了数千万美元电费。
第二,GPT大语言模型作为一种先进的技术造物,其根本目的是提高生产力与效率的工具性,而不是陪人类聊天解闷。
大语言模型的价值集中体现在专业信息的精准输出。比如,茂名荔枝AI助手能基于气象和虫害数据提供精准建议,使生产效率提升30%,帮助茂名市农业总产值连续四年突破千亿元;中南大学三亚医院医用AI可给予专业知识分析受检者的生活方式、家族史、既往病史等危险因素,拯救无数生命。
案例中,AI起作用的核心都是专业性而非友善。就像人类农业专家和专业医生,即使他们不会说“请”之类的友善词汇,只要他们能够在其专业领域发挥作用,就应该继续发展。相反,AI先学会说“请”“谢谢”之类的友善词汇,并不能体现AI的价值。
疫情期间,张文宏医生建议大家早上不要喝粥,而要吃鸡蛋、牛奶,却被人质疑崇洋媚外,并有30万人点赞。如果AI的前提不是专业,而是友善,说安全无意义的空话、废话,虽然足够友善,却失去了专业的前提,会降低AI的价值。
技术发展前提是效率而非友善,就像培养医生,不会以友善而非医术为前提。20世纪初飞机事故率很高,1903年莱特兄弟发明的飞机依然是人类的壮举,不是因为飞机友善,而是因为它能让人类第一次飞向遥远的天空。
综上,我方坚定认为,GPT时代语言模型发展不应该以对人类友善为前提。以上,感谢!
下面请反方三辩质询正方二辩,时间为 2 分 30 秒。
声音可以听见吗?可以听见。
好的,正方二辩在申论时提出,要把 GPT 当作一个工具来使用,双方可达成共识,即它是一个工具。那么我想请问,使用菜刀是因为它对人友善吗?显然不是,而是因为菜刀能满足切菜的需求。
正方提到“如果 AI 对我们不友善,我们为什么要使用它”,这就显得很奇怪。正方既认同 AI 是工具,又说它不友善就不使用,但对于同样是工具的菜刀,即便它“不友善”,也会因为能满足需求而使用,这是否自相矛盾?
我方观点是,AI 是工具,工具很重要,所以要提升它的工具性、效率和准确度。
接下来我想请问,法律共识等于友善共识吗?请正方举出一些友善在各个地方达成共识的证明。我方已经列举了法条,说明有些法条在各地达成了共识。
首先回应反方第一个问题,我方所说的友善是指愿意去帮助、回应问题。比如一把没有刀把只有刀片的菜刀,虽然能切菜,但显然不好用。
其次关于法条和友善的问题,例如规定婚内出轨方在离婚判决时应少分财产,处于不利地位,这既符合人类友善的共情,也得到了共同认可。但我方指的是部分法律有共识,并非全部法律,因为国与国之间存在差异。连法律这种底线性的东西都难以在国与国之间达成共识,GPT 在全世界使用,正方怎么能把友善这种主观的东西作为共识呢?
我想请问正方,如果 GPT 不能使用,它还能作为工具吗?显然不能。所以能够使用是它作为工具的基础,而非友善。
友善是一种道德标准,我方一直在强调法律是道德的底线,道德是更高的法律。人类社会尚未达到那样的道德高度,追求共识的价值不可否认,但现阶段 GPT 大语言模型不应该以友善为前提。
我们发现 GPT 现在的数据获取和输出存在很多误区和欺骗行为,这并非其本意,而是由于数据获取的客观条件和编程程序筛选不够科学。所以现阶段应以工具性、效率性、准确性、科学性为前提,而非以友善为前提。以友善为前提会导致效率下降,也会使 GPT 在后续发展中无法达到作为工具的有效性。
下面请反方三辩质询正方二辩,时间为 2 分 30 秒。
声音可以听见吗?可以听见。
好的,正方二辩在申论时提出,要把 GPT 当作一个工具来使用,双方可达成共识,即它是一个工具。那么我想请问,使用菜刀是因为它对人友善吗?显然不是,而是因为菜刀能满足切菜的需求。
正方提到“如果 AI 对我们不友善,我们为什么要使用它”,这就显得很奇怪。正方既认同 AI 是工具,又说它不友善就不使用,但对于同样是工具的菜刀,即便它“不友善”,也会因为能满足需求而使用,这是否自相矛盾?
我方观点是,AI 是工具,工具很重要,所以要提升它的工具性、效率和准确度。
接下来我想请问,法律共识等于友善共识吗?请正方举出一些友善在各个地方达成共识的证明。我方已经列举了法条,说明有些法条在各地达成了共识。
首先回应反方第一个问题,我方所说的友善是指愿意去帮助、回应问题。比如一把没有刀把只有刀片的菜刀,虽然能切菜,但显然不好用。
其次关于法条和友善的问题,例如规定婚内出轨方在离婚判决时应少分财产,处于不利地位,这既符合人类友善的共情,也得到了共同认可。但我方指的是部分法律有共识,并非全部法律,因为国与国之间存在差异。连法律这种底线性的东西都难以在国与国之间达成共识,GPT 在全世界使用,正方怎么能把友善这种主观的东西作为共识呢?
我想请问正方,如果 GPT 不能使用,它还能作为工具吗?显然不能。所以能够使用是它作为工具的基础,而非友善。
友善是一种道德标准,我方一直在强调法律是道德的底线,道德是更高的法律。人类社会尚未达到那样的道德高度,追求共识的价值不可否认,但现阶段 GPT 大语言模型不应该以友善为前提。
我们发现 GPT 现在的数据获取和输出存在很多误区和欺骗行为,这并非其本意,而是由于数据获取的客观条件和编程程序筛选不够科学。所以现阶段应以工具性、效率性、准确性、科学性为前提,而非以友善为前提。以友善为前提会导致效率下降,也会使 GPT 在后续发展中无法达到作为工具的有效性。
正方四辩质询反方一辩。
正方四辩:你好,对方辩友,我想先请问你一个问题,您方认为什么样的是友善?
反方一辩:我方已经明确说出来了,比如在大语言模型的语言表达中,大语言模型的亲和性使语言让人感到舒适,算一种友善。但要将其作为一个明确的标准去界定、划分是很难的,因为这个标准对于不同的人来说是不一样的,它是弹性的。
正方四辩:所以对方要向我们证明一件事情,即只要一个东西存在立场冲突,那么世界上没有任何一个人能够表达任何善意,对吗?
反方一辩:你方可以再问一遍吗?
正方四辩:你方刚才没太听清,对方想要告诉我们,他们要证明只要有立场冲突,世界上没有任何人能够表达任何善意。
反方一辩:并非如此,您方漏掉了我方论证。我方已经向您方举出,您方所谓的这种弹性的友善会导致GPT等大语言模型的运行效率受阻,甚至会让人产生疑惑。
正方四辩:请你具体向我论证一下,为什么友好会和提升效率产生冲突?因为AI作为工具,其目的是提升生产力和工作效率。比如AI以友善为前提去夸耀某个女性……
正方四辩:对方辩友,AI的服务对象是人类。如果连对服务对象最基本的友善都做不到,人类为什么愿意去使用它呢?这一点我不太理解。其次,还是回到刚才那个问题,您方是想说世界上所有的准则,只要有冲突就不可以使用,对吗?
反方一辩:纠正对方辩友的一个误区,您方所说的筛选语料库是AI发明过程中的基本规则,并不是您方所谓的运行前提。您方可以再问一遍问题吗?
正方四辩:你们刚才表达的意思是,在确定一个准则或概念时,有冲突就不能用了,是这样吗?
反方一辩:我方的完整表述是,您方所确立的准则,如果违背其根本目的,当然不适合其发展。所以你要向我举证,为什么友善会伤害GPT发展的根本利益。我方已经很明确地向您方举证了,研究表明,AI训练的数据冗余所增加的能耗高达90%。OpenAI处理谢谢、请这类礼貌用语已经花费了数千万美元的电费,这也是对其算力的消耗。我方并不认为AI已经发展到了算力可以被随意消耗的程度。
正方四辩:不好意思,我重新问一遍。为什么友善就是消耗生产力呢?难道友善的语言系统交互不是必要的吗?
反方一辩:我方已经举证,不同的人对友善的判断标准不一样。人类是一个群体,而您方所说的友善是社会整体的核心价值观。您能告诉我有哪一条准则是全人类共同认同、毫无异议的吗?效率至上、生产力至上能创造更多的收益。生产力是多元的,不同的人对生产力的发展方向也有不同的看法,世界上没有任何一个东西能让所有人都满意,那为什么要强行消耗算力去追求友善呢?
正方四辩:您方有一个误区,生产力可以体现在商品和各种技术上,是可以被统一的。马克思对于效率至上仍有相关论述,人的异化性也各不相同。接着您说友善会消耗GPT发展的根本利益,我想请您具体举证,所谓的友善判定标准是什么。可能AI所认为的友善,对我们来说并不是友善,甚至会造成问题,请您举一个具体的例子。
反方一辩:比如AI在夸耀某个女性温柔贤惠时,会被女权者认为是物化女性;AI建议男生第一次相亲时请客而不是AA,展示经济实力时,有部分男性会觉得这是对男性的某种不当引导。
正方四辩:按照您方逻辑,一个小偷在偷盗时认为偷窃法对他不友善,所以我们就要取消法律,对吗?
反方一辩:您方所说的法律是一种共识。
正方四辩:怎么就是共识了?您刚才还说很难有全人类共同认同的准则,那法律怎么达成共识了?
反方一辩:您能举出在某个国家偷盗是合法允许的行为吗?您回答我的问题即可。我方已经明确举证,因为每个人对话语的解读不一样,而您方所说的一些准则在您方看来可以达成共识,那您方所说的法律是如何达成共识的,我方认为友善也应达成共识。
正方四辩质询反方一辩。
正方四辩:你好,对方辩友,我想先请问你一个问题,您方认为什么样的是友善?
反方一辩:我方已经明确说出来了,比如在大语言模型的语言表达中,大语言模型的亲和性使语言让人感到舒适,算一种友善。但要将其作为一个明确的标准去界定、划分是很难的,因为这个标准对于不同的人来说是不一样的,它是弹性的。
正方四辩:所以对方要向我们证明一件事情,即只要一个东西存在立场冲突,那么世界上没有任何一个人能够表达任何善意,对吗?
反方一辩:你方可以再问一遍吗?
正方四辩:你方刚才没太听清,对方想要告诉我们,他们要证明只要有立场冲突,世界上没有任何人能够表达任何善意。
反方一辩:并非如此,您方漏掉了我方论证。我方已经向您方举出,您方所谓的这种弹性的友善会导致GPT等大语言模型的运行效率受阻,甚至会让人产生疑惑。
正方四辩:请你具体向我论证一下,为什么友好会和提升效率产生冲突?因为AI作为工具,其目的是提升生产力和工作效率。比如AI以友善为前提去夸耀某个女性……
正方四辩:对方辩友,AI的服务对象是人类。如果连对服务对象最基本的友善都做不到,人类为什么愿意去使用它呢?这一点我不太理解。其次,还是回到刚才那个问题,您方是想说世界上所有的准则,只要有冲突就不可以使用,对吗?
反方一辩:纠正对方辩友的一个误区,您方所说的筛选语料库是AI发明过程中的基本规则,并不是您方所谓的运行前提。您方可以再问一遍问题吗?
正方四辩:你们刚才表达的意思是,在确定一个准则或概念时,有冲突就不能用了,是这样吗?
反方一辩:我方的完整表述是,您方所确立的准则,如果违背其根本目的,当然不适合其发展。所以你要向我举证,为什么友善会伤害GPT发展的根本利益。我方已经很明确地向您方举证了,研究表明,AI训练的数据冗余所增加的能耗高达90%。OpenAI处理谢谢、请这类礼貌用语已经花费了数千万美元的电费,这也是对其算力的消耗。我方并不认为AI已经发展到了算力可以被随意消耗的程度。
正方四辩:不好意思,我重新问一遍。为什么友善就是消耗生产力呢?难道友善的语言系统交互不是必要的吗?
反方一辩:我方已经举证,不同的人对友善的判断标准不一样。人类是一个群体,而您方所说的友善是社会整体的核心价值观。您能告诉我有哪一条准则是全人类共同认同、毫无异议的吗?效率至上、生产力至上能创造更多的收益。生产力是多元的,不同的人对生产力的发展方向也有不同的看法,世界上没有任何一个东西能让所有人都满意,那为什么要强行消耗算力去追求友善呢?
正方四辩:您方有一个误区,生产力可以体现在商品和各种技术上,是可以被统一的。马克思对于效率至上仍有相关论述,人的异化性也各不相同。接着您说友善会消耗GPT发展的根本利益,我想请您具体举证,所谓的友善判定标准是什么。可能AI所认为的友善,对我们来说并不是友善,甚至会造成问题,请您举一个具体的例子。
反方一辩:比如AI在夸耀某个女性温柔贤惠时,会被女权者认为是物化女性;AI建议男生第一次相亲时请客而不是AA,展示经济实力时,有部分男性会觉得这是对男性的某种不当引导。
正方四辩:按照您方逻辑,一个小偷在偷盗时认为偷窃法对他不友善,所以我们就要取消法律,对吗?
反方一辩:您方所说的法律是一种共识。
正方四辩:怎么就是共识了?您刚才还说很难有全人类共同认同的准则,那法律怎么达成共识了?
反方一辩:您能举出在某个国家偷盗是合法允许的行为吗?您回答我的问题即可。我方已经明确举证,因为每个人对话语的解读不一样,而您方所说的一些准则在您方看来可以达成共识,那您方所说的法律是如何达成共识的,我方认为友善也应达成共识。
谢谢主席。首先,刚才双方的交锋主要体现在两个方面,一是友善的定义,二是GPT的工具性。
我们对于友善需要强调一点,友善首先是愿意回应问题,无论是在日常交际还是医疗领域都是如此。例如一名医生,医术高超,可能是博士,但当你去问诊时,他的助手冷冷地告知今天问诊人数已满,医生不接诊,你会觉得这位医生友善吗?他能帮助你解决问题吗?显然,若对方不理会,就无法解决问题。尽力帮助、满足需求,才是友善的前提,其次才是更进一步,从AI与人类的视角去思考和应对,也就是人机对齐的思想。
刚才一直在强调友善无法统一,但友善真的无法统一吗?我们知道,友善和真善美一样,有一套符合人类伦理和社会道德的标准。我们所说的友善,是符合人类伦理的广泛的友善。比如在学术造假的问题上,反方辩手说友善就无法说出尖锐的用词,无法实现应有的谴责。例如询问GPT关于翟天临学术造假的看法,GPT评价他的做法完全违背了人类道德和学术诚信,这样的评价足够尖锐,也符合所谓不友善的定义。
接下来进入第二个问题,我们也一直在提到GPT的工具性。我们都知道,GPT创作的意义在于它本身就是一种工具,我们应该将其当作工具使用,无需考虑把男性物化、把女性物化之类的例子,只需考虑GPT本身。无论如何使用它,它作为工具都是合理的。
至于影响效率的问题,在GPT开发者的日志中提到,可以在微调的过程中实现符合安全和人类偏好的性能,同时减轻学术任务方面的性能下降。这也就证明了所谓的浪费算力是不存在的,我们可以在实现对人类友善的同时降低算力消耗。
我们所说的友善并非弹性的,而是符合人类伦理道德、一以贯之的普遍友善。刚才反方辩手始终提到友善无法统一,而我们所说的友善显然是一种可以统一的硬性道德底线。
发言到此为止,谢谢主席。
谢谢主席。首先,刚才双方的交锋主要体现在两个方面,一是友善的定义,二是GPT的工具性。
我们对于友善需要强调一点,友善首先是愿意回应问题,无论是在日常交际还是医疗领域都是如此。例如一名医生,医术高超,可能是博士,但当你去问诊时,他的助手冷冷地告知今天问诊人数已满,医生不接诊,你会觉得这位医生友善吗?他能帮助你解决问题吗?显然,若对方不理会,就无法解决问题。尽力帮助、满足需求,才是友善的前提,其次才是更进一步,从AI与人类的视角去思考和应对,也就是人机对齐的思想。
刚才一直在强调友善无法统一,但友善真的无法统一吗?我们知道,友善和真善美一样,有一套符合人类伦理和社会道德的标准。我们所说的友善,是符合人类伦理的广泛的友善。比如在学术造假的问题上,反方辩手说友善就无法说出尖锐的用词,无法实现应有的谴责。例如询问GPT关于翟天临学术造假的看法,GPT评价他的做法完全违背了人类道德和学术诚信,这样的评价足够尖锐,也符合所谓不友善的定义。
接下来进入第二个问题,我们也一直在提到GPT的工具性。我们都知道,GPT创作的意义在于它本身就是一种工具,我们应该将其当作工具使用,无需考虑把男性物化、把女性物化之类的例子,只需考虑GPT本身。无论如何使用它,它作为工具都是合理的。
至于影响效率的问题,在GPT开发者的日志中提到,可以在微调的过程中实现符合安全和人类偏好的性能,同时减轻学术任务方面的性能下降。这也就证明了所谓的浪费算力是不存在的,我们可以在实现对人类友善的同时降低算力消耗。
我们所说的友善并非弹性的,而是符合人类伦理道德、一以贯之的普遍友善。刚才反方辩手始终提到友善无法统一,而我们所说的友善显然是一种可以统一的硬性道德底线。
发言到此为止,谢谢主席。
人到齐了,我们可以开始了吗?稍等一下,一店还没进来。好了,可以了吧。我看人都到了,要不我开始吧。
可以,开始吧。我先说一下,我这边有回音吗?有一点点,但是不影响。那我就直接开始了。
第一个问题,我先来解决定义的问题。一柄菜刀,并非只有刀尖,还有刀柄,但这就能证明它是友善的吗?没有偏见就是友善吗?提供基本的服务、保持基本的礼貌能叫友善吗?一个医生坐门诊给病人看病,就能称他为友善的人吗?并非如此。如果按照正方的标准来界定,世界上所有人都是友善的,因为大家都具备基本的礼貌。若将具备基本礼貌等同于友善,我认为这个友善的门槛太低了。
我刚给大家引用一个定义,友善是温和、让人容易接近、易于社交。举个例子,大家都知道《哈利·波特》里面有个老师叫斯内普,他本身尖酸刻薄,但他是为人们好,为他的学生好,甚至牺牲了自己,我们能就此说他是一个友善的人吗?不能。所以,友善并不是一个门槛很低的事。如果按照对方客气的说法,难道大家都是友善的人吗?其实,人与人之间称谁友善,很多时候是情商使然。
从公司层面来讲,友善这件事有较高的门槛,即要亲和。在机器上体现出来,就是GPT好声好气地回应才叫做友善。但我方认为好声好气这种方式行不通,原因如下:
第一,好声好气说话会消耗大量的算力。OpenAI,也就是GPT的创始人亲口承认,基本礼貌在AI眼里其实意味着巨大的算力,像“你好”“谢谢”这样基本的礼貌用语,都要消耗成千上百的算力。给大家普及一下GPT本身的原理,就是给它大量的数据,让它训练出自己的模型,最后形成一个可以推理的模型。在这样的维度下,每句话其实都会被识别成数字,最后加权得到一个答案。这样的模型如何能成为对方所定义的一以贯之的友善呢?我方权宜,假如对方在后续陈词中能指出目前有哪篇论文、哪个模型可以极大提升对人类友善(好声好气)的识别,同时消耗极少的算力,我方认同您方观点。
第二,好声好气没必要。因为工具本身就是为人所用的,还拿菜刀举例,我拿菜刀砍菜,不需要它扭过头跟我说“主人,请让我砍菜吧”,它没有这样的义务。对于工具而言,发挥其本身的价值就好。所以大家思考一下,一个API,它的使命是什么?它的使命是处理很多复杂的任务和问题。我们拿人类来对比,一个医生的本职工作是把病看好,他不需要好声好气地跟病人说话。而且,我们可以论证出,好声好气反而会影响效率。比如,当你问医生一个专业问题时,他可能因为考虑你不太了解专业知识,就通俗地跟你讲,从而消解了专业性。另外,通过友善的语言反而可能加重自身的偏见,比如引导它说出对黑人歧视的言论。
综上所述,我方认为GPT式大语言模型发展不应该以对人类友善为前提。
人到齐了,我们可以开始了吗?稍等一下,一店还没进来。好了,可以了吧。我看人都到了,要不我开始吧。
可以,开始吧。我先说一下,我这边有回音吗?有一点点,但是不影响。那我就直接开始了。
第一个问题,我先来解决定义的问题。一柄菜刀,并非只有刀尖,还有刀柄,但这就能证明它是友善的吗?没有偏见就是友善吗?提供基本的服务、保持基本的礼貌能叫友善吗?一个医生坐门诊给病人看病,就能称他为友善的人吗?并非如此。如果按照正方的标准来界定,世界上所有人都是友善的,因为大家都具备基本的礼貌。若将具备基本礼貌等同于友善,我认为这个友善的门槛太低了。
我刚给大家引用一个定义,友善是温和、让人容易接近、易于社交。举个例子,大家都知道《哈利·波特》里面有个老师叫斯内普,他本身尖酸刻薄,但他是为人们好,为他的学生好,甚至牺牲了自己,我们能就此说他是一个友善的人吗?不能。所以,友善并不是一个门槛很低的事。如果按照对方客气的说法,难道大家都是友善的人吗?其实,人与人之间称谁友善,很多时候是情商使然。
从公司层面来讲,友善这件事有较高的门槛,即要亲和。在机器上体现出来,就是GPT好声好气地回应才叫做友善。但我方认为好声好气这种方式行不通,原因如下:
第一,好声好气说话会消耗大量的算力。OpenAI,也就是GPT的创始人亲口承认,基本礼貌在AI眼里其实意味着巨大的算力,像“你好”“谢谢”这样基本的礼貌用语,都要消耗成千上百的算力。给大家普及一下GPT本身的原理,就是给它大量的数据,让它训练出自己的模型,最后形成一个可以推理的模型。在这样的维度下,每句话其实都会被识别成数字,最后加权得到一个答案。这样的模型如何能成为对方所定义的一以贯之的友善呢?我方权宜,假如对方在后续陈词中能指出目前有哪篇论文、哪个模型可以极大提升对人类友善(好声好气)的识别,同时消耗极少的算力,我方认同您方观点。
第二,好声好气没必要。因为工具本身就是为人所用的,还拿菜刀举例,我拿菜刀砍菜,不需要它扭过头跟我说“主人,请让我砍菜吧”,它没有这样的义务。对于工具而言,发挥其本身的价值就好。所以大家思考一下,一个API,它的使命是什么?它的使命是处理很多复杂的任务和问题。我们拿人类来对比,一个医生的本职工作是把病看好,他不需要好声好气地跟病人说话。而且,我们可以论证出,好声好气反而会影响效率。比如,当你问医生一个专业问题时,他可能因为考虑你不太了解专业知识,就通俗地跟你讲,从而消解了专业性。另外,通过友善的语言反而可能加重自身的偏见,比如引导它说出对黑人歧视的言论。
综上所述,我方认为GPT式大语言模型发展不应该以对人类友善为前提。
我应该还能应对,那没事儿,直接进入之前的回应。
我发现反方选手一直有一个问题,他们一直在本末倒置。不是说你成为工具,所以你对人类友善,而是你对人类友善,你才能实现你作为工具的本身目的。
我们一直在强调,我们必须先回应你的问题,这是第一点,这是它作为工具性的本身。其次是更进一步的人机对齐。其一,我站在你的角度去思考和辨别问题。反方选手一直在强调,我们的友善无法在国际甚至在世界上达成共识,但很多的友善是可以达成共识的。比如说我在早上跟你说“你好,早上好”,这让你听着难道会感觉到冒犯吗?我想对一个正常人来说,不会觉得冒犯。
而且在医疗领域之中,一定有相关的研究证明,很多的患者不信任医疗AI。如果你做不到人机对齐,做不到AI对患者友善,又从何解决这种问题呢?
所以说,AI对人类友善不仅仅是一个大前提,它更是AI发展的更进一步,是AI发展的必要条件。伦理友善对于AI来说从来不是枷锁,而是一种助力。
谢谢。大家进第二个会议吧。
我应该还能应对,那没事儿,直接进入之前的回应。
我发现反方选手一直有一个问题,他们一直在本末倒置。不是说你成为工具,所以你对人类友善,而是你对人类友善,你才能实现你作为工具的本身目的。
我们一直在强调,我们必须先回应你的问题,这是第一点,这是它作为工具性的本身。其次是更进一步的人机对齐。其一,我站在你的角度去思考和辨别问题。反方选手一直在强调,我们的友善无法在国际甚至在世界上达成共识,但很多的友善是可以达成共识的。比如说我在早上跟你说“你好,早上好”,这让你听着难道会感觉到冒犯吗?我想对一个正常人来说,不会觉得冒犯。
而且在医疗领域之中,一定有相关的研究证明,很多的患者不信任医疗AI。如果你做不到人机对齐,做不到AI对患者友善,又从何解决这种问题呢?
所以说,AI对人类友善不仅仅是一个大前提,它更是AI发展的更进一步,是AI发展的必要条件。伦理友善对于AI来说从来不是枷锁,而是一种助力。
谢谢。大家进第二个会议吧。
三辩质询反方二辩时间为2分30秒。
我先好奇一个事儿,我在商场建一个公共设施,比如建卫生间、母婴哺乳室,这是不是对游客友善的行为?
不是,这是最基本的设施。
也就是说你觉得有一些是基本的东西,那对应到AI上,我问它一个专业问题,它为什么愿意回答我?因为这就是它的本职工作。就像你问淘宝客服问题,淘宝客服回答你是他的本职工作。
本职工作是建立在以友善为前提、对数据库筛选的基础上,这是我方论文给你的论证。如若不然,有可能你问它一个问题,它说“哎呀,这都不懂,自己想想去”,会有这样的危险。这是第一个以友善为前提对数据库的筛选,你方有对冲吗?
什么叫以友善为前提对数据库的筛选?你方的大纲是对基本推理模型的定义,我刚刚已经解释得很清楚。如果您不急的话,不妨听我再解释一下,这个模型本身就是基于你说的那几个字,然后把字体转化为相应的加权求和得到一个答案,这个答案是推理出来的,它不是基于有效。
我打断你,你讲的是推理过程,我们讲的是推理的来源。那些语料库如果不以友善为前提进行筛选,AI会学到很多不良内容。比如有人提问“1+1等于几”,下面人会回答“傻子”,AI有可能在用户问的时候也说“傻子”,这是以友善为前提的第一件事儿。
第二件事儿,我看你讲到了一些生产力与效率,比如茂名驱虫的AI。但那些AI驱虫为什么不选择把所有的货物全砸了呢?就像你问拔草要不要把草全部拔完,那为什么不把农作物全烧了,这样就不会有病虫害了?这是很常识的问题,为什么要把农作物烧掉?你方可以直接阐释。
所以你看到没有,AI避免了某些回答,本身就是以人类的价值观做出了一个判断,没有人能接受把东西烧了,你觉得这是不可理喻的,AI学会了,这是以友善为前提第二步的训练。
我再问你一个例子,你讲了很多医生的例子,那你知不知道医生有一个本科课程叫医患沟通学?医生是这样,那这门课程有没有必要?你方一直拿医生进行类比,当你发现医生也需要好声好气跟患者说话的时候,又不承认这个类比,不要前后矛盾了。
所以你说专业性跟友善是不冲突的,甚至友善有可能提升工作效率。一个人被尊重,有没有感到开心的可能?还是那句话,医生这件事情本身是他自己的价值,有没有可能去提升?
医生这件事情本身是他自己的价值体现,有没有可能去提升效率?我必须解释一下,不然下一个问题我没法回答。医生解释问题是他的职责,但是工具是为医生所用,如果医生能利用工具回答一些更专业的问题,那工具的使用就达成了目的。
你有一个巨大的口径跳动,这是你论证的漏洞。我接着问你,当我们发现让人感到被尊重,让人心情愉悦本身可以提高工作效率的时候,你打算怎么跟耗费的电费进行比较?所以你要告诉我为什么机器不能直接计算,因为可以并行计算,感到被尊重有可能对工作效率有好处。
这是一个可能性的推测,实际上有一个例子,China GDP官网上讲,它引用了一种对齐技术,可以最大程度地减少效率损耗,甚至在多个案例上可以超过GPT3的基线水平。你方有什么相反的举证,证明一定会导致效率下降到我们不可接受的程度?第一,你需要举证算力目前是饱和的;第二,你需要举证为什么用礼貌的话语回答会有问题。我跟你讲了一个科学研究,它甚至可以比原来的水平更好,你方对冲的研究是什么?现在在算力普遍提升的情况下,它更好。
你讲了很多医生的例子,你知不知道医生有一个本科课程叫医患沟通学?对,医生是这样,那这门课程有没有必要?同学是支持我方的,你方一直拿医生进行类比,而当你发现医生也需要好声好气跟患者说话的时候,又不承认这个类比,不要前后矛盾了。所以说专业性跟友善是不冲突的,甚至友善有可能提升工作效率。一个人被尊重,有没有感到开心的可能?还是那句话,医生这件事情本身是他自己的价值体现,有没有可能去提升工作效率?
三辩质询反方二辩时间为2分30秒。
我先好奇一个事儿,我在商场建一个公共设施,比如建卫生间、母婴哺乳室,这是不是对游客友善的行为?
不是,这是最基本的设施。
也就是说你觉得有一些是基本的东西,那对应到AI上,我问它一个专业问题,它为什么愿意回答我?因为这就是它的本职工作。就像你问淘宝客服问题,淘宝客服回答你是他的本职工作。
本职工作是建立在以友善为前提、对数据库筛选的基础上,这是我方论文给你的论证。如若不然,有可能你问它一个问题,它说“哎呀,这都不懂,自己想想去”,会有这样的危险。这是第一个以友善为前提对数据库的筛选,你方有对冲吗?
什么叫以友善为前提对数据库的筛选?你方的大纲是对基本推理模型的定义,我刚刚已经解释得很清楚。如果您不急的话,不妨听我再解释一下,这个模型本身就是基于你说的那几个字,然后把字体转化为相应的加权求和得到一个答案,这个答案是推理出来的,它不是基于有效。
我打断你,你讲的是推理过程,我们讲的是推理的来源。那些语料库如果不以友善为前提进行筛选,AI会学到很多不良内容。比如有人提问“1+1等于几”,下面人会回答“傻子”,AI有可能在用户问的时候也说“傻子”,这是以友善为前提的第一件事儿。
第二件事儿,我看你讲到了一些生产力与效率,比如茂名驱虫的AI。但那些AI驱虫为什么不选择把所有的货物全砸了呢?就像你问拔草要不要把草全部拔完,那为什么不把农作物全烧了,这样就不会有病虫害了?这是很常识的问题,为什么要把农作物烧掉?你方可以直接阐释。
所以你看到没有,AI避免了某些回答,本身就是以人类的价值观做出了一个判断,没有人能接受把东西烧了,你觉得这是不可理喻的,AI学会了,这是以友善为前提第二步的训练。
我再问你一个例子,你讲了很多医生的例子,那你知不知道医生有一个本科课程叫医患沟通学?医生是这样,那这门课程有没有必要?你方一直拿医生进行类比,当你发现医生也需要好声好气跟患者说话的时候,又不承认这个类比,不要前后矛盾了。
所以你说专业性跟友善是不冲突的,甚至友善有可能提升工作效率。一个人被尊重,有没有感到开心的可能?还是那句话,医生这件事情本身是他自己的价值,有没有可能去提升?
医生这件事情本身是他自己的价值体现,有没有可能去提升效率?我必须解释一下,不然下一个问题我没法回答。医生解释问题是他的职责,但是工具是为医生所用,如果医生能利用工具回答一些更专业的问题,那工具的使用就达成了目的。
你有一个巨大的口径跳动,这是你论证的漏洞。我接着问你,当我们发现让人感到被尊重,让人心情愉悦本身可以提高工作效率的时候,你打算怎么跟耗费的电费进行比较?所以你要告诉我为什么机器不能直接计算,因为可以并行计算,感到被尊重有可能对工作效率有好处。
这是一个可能性的推测,实际上有一个例子,China GDP官网上讲,它引用了一种对齐技术,可以最大程度地减少效率损耗,甚至在多个案例上可以超过GPT3的基线水平。你方有什么相反的举证,证明一定会导致效率下降到我们不可接受的程度?第一,你需要举证算力目前是饱和的;第二,你需要举证为什么用礼貌的话语回答会有问题。我跟你讲了一个科学研究,它甚至可以比原来的水平更好,你方对冲的研究是什么?现在在算力普遍提升的情况下,它更好。
你讲了很多医生的例子,你知不知道医生有一个本科课程叫医患沟通学?对,医生是这样,那这门课程有没有必要?同学是支持我方的,你方一直拿医生进行类比,而当你发现医生也需要好声好气跟患者说话的时候,又不承认这个类比,不要前后矛盾了。所以说专业性跟友善是不冲突的,甚至友善有可能提升工作效率。一个人被尊重,有没有感到开心的可能?还是那句话,医生这件事情本身是他自己的价值体现,有没有可能去提升工作效率?
好,下面请反方二辩执行回应。
第一,对方还是在拿工具需要好生好气给人服务,甚至把这个利好当成工具本身就该有的利好,这不对。没必要让工具让你觉得很舒服,解决问题之后带来的服务,不是工具该有的属性。
第二,对方说了很多数据,我不知道其论文从哪来,也不知道论文出处在哪。我是学这个专业的,准确地告诉大家,目前的算力水平没有达到可以分割算力,让提升礼貌这件事情达到我们的基准,这件事情是做不到的。
第三,我方在申论里面提出的,想讨要对方一个数据,即对方能不能指出任何一个模型可以处理公知的那个一以贯之的主旨。我方认为达不到,对方也没有给出回应,所以这件事情我方暂定义为我方占优。
第四,我方要告诉大家,不是说一个医生一定要通过对患者好声好气,才体现出医生职责。比如医学伦理、医学的伦理价值观,我方有成员是医学生,可以给大家解答。
好,下面请反方二辩执行回应。
第一,对方还是在拿工具需要好生好气给人服务,甚至把这个利好当成工具本身就该有的利好,这不对。没必要让工具让你觉得很舒服,解决问题之后带来的服务,不是工具该有的属性。
第二,对方说了很多数据,我不知道其论文从哪来,也不知道论文出处在哪。我是学这个专业的,准确地告诉大家,目前的算力水平没有达到可以分割算力,让提升礼貌这件事情达到我们的基准,这件事情是做不到的。
第三,我方在申论里面提出的,想讨要对方一个数据,即对方能不能指出任何一个模型可以处理公知的那个一以贯之的主旨。我方认为达不到,对方也没有给出回应,所以这件事情我方暂定义为我方占优。
第四,我方要告诉大家,不是说一个医生一定要通过对患者好声好气,才体现出医生职责。比如医学伦理、医学的伦理价值观,我方有成员是医学生,可以给大家解答。
开场先对对方说明,医学医患沟通学里提到友善,但老师授课时会告诉我们,只需客观告知患者病情及解决办法即可。因为友善的沟通会使用大量修饰词汇,影响患者对关键信息的接受效果。
回到辩题,首先,对方认为友善是只要能配合回答问题。我方想说,对方提及的“1 + 1说傻子”这类没有解决问题的回答,虽属于一种回答方式,但并非我们所认可的有效回答,我们反对这种回答,并非因其不友善,而是它未能解决问题。
举例来说,当分析某些局势时,即便局势对某些群体较为尖锐,但只要给出客观回答,我们就认为问题得到了解决,无需过度友善。
对方所定义的友善标准非常底线,而我方所说的友善是主观感受。在生活中,人们通常认为友善能让人心情愉悦,这是大家普遍认同的。而对方认为配合就是友善,按照此逻辑,安检人员与被安检者相互配合,这能等同于友善吗?这仅仅是在遵守规则。
回到辩题,我方不否认友善的价值,但从现阶段AI发展情况来看,友善不应作为前提。有许多例子表明,知网上大量讨论指出,AI大模型训练的数据获取存在不够科学、有力、权威的问题,这会导致其在回复时给出错误解答。我们认为这是AI当前应及时解决的技术问题,而非是否对人类友善的问题。
AI作为一种工具,其首要目的是解决问题。若它连基础的工具性要求都无法满足,又怎能强加友善这一要求呢?对方辩友一直认为友善是解决问题的前提,而我方认为,数据获取的科学性、精确性和输出的效率性才是解决问题的前提。
对比双方观点,对方认为愿意回答问题就是友善且应作为前提,而我方认为,即便不友善,AI用科学语言输出、不加修饰,也能输出科学观点、整合资料。例如在农学院,AI官网统计数据时会列出精准、科学的大数据集合而成的表格,这才是我们认为GPT式大模型未来应发展的方向,而非如对方所说,只要对人类回答友善即可。而且,我方对对方观点进行双重否认:其一,对方所定义的并非真正的友善;其二,对方所说的情况AI目前已经能够做到。
AI的诞生是科学技术发展的必然结果,我们需要大数据模型来分析现实问题,借助AI大语言模型拓宽人类探索和科学的边界,推动人类社会进步与发展,而非将其局限于当下的价值观考量。
开场先对对方说明,医学医患沟通学里提到友善,但老师授课时会告诉我们,只需客观告知患者病情及解决办法即可。因为友善的沟通会使用大量修饰词汇,影响患者对关键信息的接受效果。
回到辩题,首先,对方认为友善是只要能配合回答问题。我方想说,对方提及的“1 + 1说傻子”这类没有解决问题的回答,虽属于一种回答方式,但并非我们所认可的有效回答,我们反对这种回答,并非因其不友善,而是它未能解决问题。
举例来说,当分析某些局势时,即便局势对某些群体较为尖锐,但只要给出客观回答,我们就认为问题得到了解决,无需过度友善。
对方所定义的友善标准非常底线,而我方所说的友善是主观感受。在生活中,人们通常认为友善能让人心情愉悦,这是大家普遍认同的。而对方认为配合就是友善,按照此逻辑,安检人员与被安检者相互配合,这能等同于友善吗?这仅仅是在遵守规则。
回到辩题,我方不否认友善的价值,但从现阶段AI发展情况来看,友善不应作为前提。有许多例子表明,知网上大量讨论指出,AI大模型训练的数据获取存在不够科学、有力、权威的问题,这会导致其在回复时给出错误解答。我们认为这是AI当前应及时解决的技术问题,而非是否对人类友善的问题。
AI作为一种工具,其首要目的是解决问题。若它连基础的工具性要求都无法满足,又怎能强加友善这一要求呢?对方辩友一直认为友善是解决问题的前提,而我方认为,数据获取的科学性、精确性和输出的效率性才是解决问题的前提。
对比双方观点,对方认为愿意回答问题就是友善且应作为前提,而我方认为,即便不友善,AI用科学语言输出、不加修饰,也能输出科学观点、整合资料。例如在农学院,AI官网统计数据时会列出精准、科学的大数据集合而成的表格,这才是我们认为GPT式大模型未来应发展的方向,而非如对方所说,只要对人类回答友善即可。而且,我方对对方观点进行双重否认:其一,对方所定义的并非真正的友善;其二,对方所说的情况AI目前已经能够做到。
AI的诞生是科学技术发展的必然结果,我们需要大数据模型来分析现实问题,借助AI大语言模型拓宽人类探索和科学的边界,推动人类社会进步与发展,而非将其局限于当下的价值观考量。
谢谢主席,很高兴对方提前给我们设想了一个不友善的场景,但问题恰恰在于此。对方所提及的一切基础工具愿意解决问题,是因为我们以友善为前提筛选了语料库。对方跟我们讲述了很多推理过程,但在此之前,PDP有一个趋训链,还有语料库的存在。如果不以友善为前提,会出现什么情况呢?我方此前已阐述过,会出现对少数群体的偏见。例如,在探讨如何解决某个黑人社区反对率高的问题时,可能会得出“把黑人杀光”这样的荒谬答案。若不以友善为前提进行筛选,AI有可能学到这种偏见,并输出一些我们不希望看到且毫无意义的内容,这反而不利于GPT这一工具解决问题。
第二点,对方提到算力不够用。但我感到好奇,我向对方提及的是中国GDP官网的实践案例,并且近期也有关于变形计算LMM的论文,表明我们可以提升算力。为何在算力紧张时,对方的第一反应是舍弃某些东西,哪怕这些东西对我们极为重要。仅仅因为未触及对方所强调的和谐、效率、准确,就可以先不管,而不是先思考如何提升算力呢?对方需要向我们说明舍弃友善的必要性究竟是什么。因为我方一直在积极举证,以友善为前提能让我们获得诸多益处。对方应说明为何这些益处不重要,而不是因为有更重要的东西,就可以舍弃友善,这是两个层面的责任。
第三点,AI会出现错误意味着什么?意味着AI需要进一步提升和训练。但这与友善之间有何关联呢?友善会使AI给出错误回答吗?从我们刚才的讨论来看,并未出现这种情况。相反,当缺乏友善时,AI有可能给出不正确的回答,比如AI说了半天后突然来一句“哈哈哈,我是逗你玩的,我都是骗你的”。这种情况有可能是在缺乏友善的前提下产生的。为何AI会在缺乏友善的前提下“耍人玩”呢?
更进一步,对方对于友善这一概念的论证本质是什么呢?在对方看来,只要存在冲突,共识就无法达成,就不应追求。这是一种奇怪的观点。例如建造卫生间,男厕所和女厕所的设置必然会涉及到LGBT群体的感受。按照对方的论证逻辑,我们会得出怎样的结论呢?只要建造卫生间,因为无法达成共识,所以卫生间就没有意义。但实际情况真是如此吗?我们追求友善,究竟在追求什么呢?
对方一开始对友善的定义是“好声好气地说话”。即便在这个定义中,我们也能注意到,“好声好气”是建立在相互的基础上,即我愿意倾听对方的观点,并给予回应。这能否成为一种普遍的共识呢?比如尊重他人。当有地平说的支持者向GPT提问时,GPT不会说“你个傻子,现在没人承认地平说了,你怎么这么傻”。这种以整个人类为对象,尽可能达成友善的追求,本身就是值得我们去做的,也是GPT能够应用于更多领域所必须达成的条件。
我们人类或许可以接受相对冰冷的态度,但无法信任一个可能会忽悠人、骗人,可能为了经济利益而不向患者解释的AI成为我们的医疗助手。这是人类以及AI未来发展必须面对的挑战。解决这些挑战的方法,正如我们今天所说,是让AI变得友善,与人类价值观相契合,这样我们才能进一步信任它。
谢谢主席,很高兴对方提前给我们设想了一个不友善的场景,但问题恰恰在于此。对方所提及的一切基础工具愿意解决问题,是因为我们以友善为前提筛选了语料库。对方跟我们讲述了很多推理过程,但在此之前,PDP有一个趋训链,还有语料库的存在。如果不以友善为前提,会出现什么情况呢?我方此前已阐述过,会出现对少数群体的偏见。例如,在探讨如何解决某个黑人社区反对率高的问题时,可能会得出“把黑人杀光”这样的荒谬答案。若不以友善为前提进行筛选,AI有可能学到这种偏见,并输出一些我们不希望看到且毫无意义的内容,这反而不利于GPT这一工具解决问题。
第二点,对方提到算力不够用。但我感到好奇,我向对方提及的是中国GDP官网的实践案例,并且近期也有关于变形计算LMM的论文,表明我们可以提升算力。为何在算力紧张时,对方的第一反应是舍弃某些东西,哪怕这些东西对我们极为重要。仅仅因为未触及对方所强调的和谐、效率、准确,就可以先不管,而不是先思考如何提升算力呢?对方需要向我们说明舍弃友善的必要性究竟是什么。因为我方一直在积极举证,以友善为前提能让我们获得诸多益处。对方应说明为何这些益处不重要,而不是因为有更重要的东西,就可以舍弃友善,这是两个层面的责任。
第三点,AI会出现错误意味着什么?意味着AI需要进一步提升和训练。但这与友善之间有何关联呢?友善会使AI给出错误回答吗?从我们刚才的讨论来看,并未出现这种情况。相反,当缺乏友善时,AI有可能给出不正确的回答,比如AI说了半天后突然来一句“哈哈哈,我是逗你玩的,我都是骗你的”。这种情况有可能是在缺乏友善的前提下产生的。为何AI会在缺乏友善的前提下“耍人玩”呢?
更进一步,对方对于友善这一概念的论证本质是什么呢?在对方看来,只要存在冲突,共识就无法达成,就不应追求。这是一种奇怪的观点。例如建造卫生间,男厕所和女厕所的设置必然会涉及到LGBT群体的感受。按照对方的论证逻辑,我们会得出怎样的结论呢?只要建造卫生间,因为无法达成共识,所以卫生间就没有意义。但实际情况真是如此吗?我们追求友善,究竟在追求什么呢?
对方一开始对友善的定义是“好声好气地说话”。即便在这个定义中,我们也能注意到,“好声好气”是建立在相互的基础上,即我愿意倾听对方的观点,并给予回应。这能否成为一种普遍的共识呢?比如尊重他人。当有地平说的支持者向GPT提问时,GPT不会说“你个傻子,现在没人承认地平说了,你怎么这么傻”。这种以整个人类为对象,尽可能达成友善的追求,本身就是值得我们去做的,也是GPT能够应用于更多领域所必须达成的条件。
我们人类或许可以接受相对冰冷的态度,但无法信任一个可能会忽悠人、骗人,可能为了经济利益而不向患者解释的AI成为我们的医疗助手。这是人类以及AI未来发展必须面对的挑战。解决这些挑战的方法,正如我们今天所说,是让AI变得友善,与人类价值观相契合,这样我们才能进一步信任它。
下面进入自由辩论环节,有请正方先发言。
AI有可能出现问题,为什么代表要放弃有事?解决AI出现的基本问题,为什么等于流散?因为这个基本问题之所以得到解决,是因为以友善为前提筛选了语料库,你有相抗的举证吗?
为什么我把一些不该有的数据标注出来,就叫做以友善为前提了?还是那句话,您方的友善定义太低了。我问一个问题,今天我能提升效率,能把算力整体提高,我可不可以先把注意力集中在效率上?这代表着要放弃效率吗?
不要对那些黑人进行歧视,这件事儿为什么不是以友善为前提来做呢?所以你方还是认为,我不歧视这件事情就是……我方的问题,你方没回答,我来解释一下。
您方也知道教育这件事情很重要,那为什么要耗费那么大的精力去把礼貌这件事情完善得很完美?您方的核心逻辑是,解决病虫害最高效的方法是不种农作物,这样子彻底解决病虫害了,但您方也不可接受,所以效率不是最高追求。
我以友善为前提,筛选到了一些偏见,筛选到了一些歧视,这在您方看来为什么是不必要的一件事儿?
不要对少数人、不要对犹太人歧视,不要对黑人歧视,这件事情怎么就让我变成一个有害的人呢?在您方看来,虽然我歧视犹太人,虽然我可能辱骂他们,但是我是一个友善的人,这显然不对。
我问这个问题,请您直接回答,为什么我这样的教育不要解,他们就是您认为的有害人呢?因为对别人尊重本身就是友善,不管是您方定义的好声好气地说话,是不是也要建立在尊重别人的基础上?如果您心里想着“这是一个黑人”,然后好声好气地跟他说话,在您方看来,这样的友善也太奇怪了。
所以我遵守基本的规则,这件事情不等于……就像我在地上不大声喧哗,不代表什么。在您方看来,所有对于歧视的筛选都是基础规则,而我方跟大家探讨的这些基础规则从何而来?是以友善为前提而来的定义,但您方没有处理干净。
我接着问,在您方算力紧张的情况下,什么友善是应该被舍弃的东西?您方的逻辑是两者相比,要舍弃己方,不对,这两者相比,我更应该发展美方,这是我方的前提定义。所以在您方看来,为什么不应该先把算力提高,而应该先解决礼貌问题?更应该考高分,代表着我不应该进行体育训练,应该放弃体育课吗?
所以您方两者的比较,是在比较权重和优先级。我确认一下,今天您方说到底,无非是告诉我们友善的优先级比较低,可是今天的辩题是,要论证不应该以友善为前提,那不应该就需要论证吗?也就是要论述前提。所以您方要告诉我,友善这件事情在所有参数中,它的必要性在哪里。我方已经给您举证了,您方没有达成,因为要达到最大算力,另外有更重要的事。
在GPT4.0发布前,8个月有50个专家进行审查,它对人类的友善度要求也十分严格。那么按照您方的逻辑,GPT4.0现在应该马上撤回,退回到3.0之前,是这个意思吗?
太好了,您说先把算力提高到零水平,然后再审查,那不恰恰证明了算力是一个优先级吗?它是先审查才发布的。
您说完了吗?不好意思,我怕打断您。
我接着说,所以它是先把整个模型完善好吗?您方说发布前要注重产品的服务效率,这是作为一个产品应该有的服务态度,没问题,可是在这之前它是不是先以算力为优先级,才发展出这个模型的?也就是说在OpenAI公司看来,没有以友善为前提,就属于没有发展好。您该尊敬什么,是不是也是发布之前应该以友善为前提完善它呀?
您方对于友善这个前提的界定太灵活了。您说在发展一个APP时公司应该以友善为前提,那我方觉得没什么论证空间了,您可以论证发布之后它怎么约束。
发布之后,发现这个公司还在提升算力能力,往4.5方向发展,那它是不是还是以算力为优先考虑的问题。现在去官网查,专门有一个模块是讲AI安全、讲AI伦理的,它建立了不同的小组,来确保AI对更多人友好、友善,避免歧视,所以这件事本身好像并不冲突。如果您觉得算力紧张,应该去突破算力的门槛,不管是算法优化还是芯片技术发展,为什么在您方看来就等于不应该以友善为前提了?
效率的部分我刚给您举证过了,有可能不以友善为前提,反而会损害效率,您要给我一个相抗的举证,而不是在这里一直打转。
地铁上有个标语,禁止在地铁吸烟,我遵守这个标语,这个规则的设置是因为吸烟会让其他人感到不舒服,所以以友善为前提,我们希望更多人感到舒服,所以不去吸烟。可见友善可能是一个规则的前提。而您现在只跟我们聊规则,不想探讨这个规则为什么而来,是吗?
我方不否认,出发点在于人类是友善的,所以人类希望在用这个工具时能得到友善对待。但是我方想告诉大家,在现在算力没有那么饱和的情况下,我们要不要耗费最大的精力来训练一个可能不太理解这件事情的东西,我们认为没必要。一个AI就像一个孩子,未必要让它理解这么复杂的东西,把它当作工具不好吗?
所以为了解决病虫害,把所有作物都烧了,这是您方可以接受的吗?
我坦白讲,这个例子我不太懂,要不您解释一下。怎么解决黑人社区犯罪率高的问题?把所有黑人都杀光就好了。这就是如果不以友善为前提,可能会训练出的AI的样子,您能接受吗?
我不太懂这个极端情况是如何推导出来的。因为我方朋友讲了,如果不经过筛选,语言模型会对少数群体存在严重的偏见,您有相关的举证吗?还是那句话,我们没有否认要筛选,没有否认要把犹太人等群体看得重要一点。可是这件事情为什么会影响算力,不仅要把算力放在后面?
这是两层问题,第一层,如果不以这个为前提,您方也看到了后果无法接受,这不是一个合格的工具。第二层,您还是没有告诉我效率跟友善为什么是冲突的。我方已经积极举证了,官网上已经证实,友善有时候甚至可以提升它的测试表现。
我方说的是在发展过程中,前提是优先提高效率,不是所有的友善都违背效率,而是有一部分情况下它会违背效率。就像GPT3到GPT4,GPT4是先提高效率,后面再加上友善的约束。在发展的初期就以友善为前提进行推进,难道您方认为GPT4就比GPT3更友善了吗?所以要比较多个前提之下的优先级。
您要明确告诉我,优先级才能判断是否冲突。我方举证的时候说没有冲突,您方刚才跟我讲的所有都是应该先发展哪个,后发展哪个,现在突然说冲突了,请您举证。
我问了医生这个问题,医生好声好气跟我说,但是没有回答问题。医生隐瞒问题,这是专业性不强,不是因为友善所以选择隐瞒,您的类比本身内部逻辑不成立。第二,哪怕以医生这个类比,医生也要好声好气地跟患者沟通,我随手一查,清华人民医院医患沟通制度就说了,医生应该尊重、理解、同情,有耐心地跟人交流,所以所有人都认为友善是可以帮助我们解决问题的,您方觉得不可以,请您举证。
下面进入自由辩论环节,有请正方先发言。
AI有可能出现问题,为什么代表要放弃有事?解决AI出现的基本问题,为什么等于流散?因为这个基本问题之所以得到解决,是因为以友善为前提筛选了语料库,你有相抗的举证吗?
为什么我把一些不该有的数据标注出来,就叫做以友善为前提了?还是那句话,您方的友善定义太低了。我问一个问题,今天我能提升效率,能把算力整体提高,我可不可以先把注意力集中在效率上?这代表着要放弃效率吗?
不要对那些黑人进行歧视,这件事儿为什么不是以友善为前提来做呢?所以你方还是认为,我不歧视这件事情就是……我方的问题,你方没回答,我来解释一下。
您方也知道教育这件事情很重要,那为什么要耗费那么大的精力去把礼貌这件事情完善得很完美?您方的核心逻辑是,解决病虫害最高效的方法是不种农作物,这样子彻底解决病虫害了,但您方也不可接受,所以效率不是最高追求。
我以友善为前提,筛选到了一些偏见,筛选到了一些歧视,这在您方看来为什么是不必要的一件事儿?
不要对少数人、不要对犹太人歧视,不要对黑人歧视,这件事情怎么就让我变成一个有害的人呢?在您方看来,虽然我歧视犹太人,虽然我可能辱骂他们,但是我是一个友善的人,这显然不对。
我问这个问题,请您直接回答,为什么我这样的教育不要解,他们就是您认为的有害人呢?因为对别人尊重本身就是友善,不管是您方定义的好声好气地说话,是不是也要建立在尊重别人的基础上?如果您心里想着“这是一个黑人”,然后好声好气地跟他说话,在您方看来,这样的友善也太奇怪了。
所以我遵守基本的规则,这件事情不等于……就像我在地上不大声喧哗,不代表什么。在您方看来,所有对于歧视的筛选都是基础规则,而我方跟大家探讨的这些基础规则从何而来?是以友善为前提而来的定义,但您方没有处理干净。
我接着问,在您方算力紧张的情况下,什么友善是应该被舍弃的东西?您方的逻辑是两者相比,要舍弃己方,不对,这两者相比,我更应该发展美方,这是我方的前提定义。所以在您方看来,为什么不应该先把算力提高,而应该先解决礼貌问题?更应该考高分,代表着我不应该进行体育训练,应该放弃体育课吗?
所以您方两者的比较,是在比较权重和优先级。我确认一下,今天您方说到底,无非是告诉我们友善的优先级比较低,可是今天的辩题是,要论证不应该以友善为前提,那不应该就需要论证吗?也就是要论述前提。所以您方要告诉我,友善这件事情在所有参数中,它的必要性在哪里。我方已经给您举证了,您方没有达成,因为要达到最大算力,另外有更重要的事。
在GPT4.0发布前,8个月有50个专家进行审查,它对人类的友善度要求也十分严格。那么按照您方的逻辑,GPT4.0现在应该马上撤回,退回到3.0之前,是这个意思吗?
太好了,您说先把算力提高到零水平,然后再审查,那不恰恰证明了算力是一个优先级吗?它是先审查才发布的。
您说完了吗?不好意思,我怕打断您。
我接着说,所以它是先把整个模型完善好吗?您方说发布前要注重产品的服务效率,这是作为一个产品应该有的服务态度,没问题,可是在这之前它是不是先以算力为优先级,才发展出这个模型的?也就是说在OpenAI公司看来,没有以友善为前提,就属于没有发展好。您该尊敬什么,是不是也是发布之前应该以友善为前提完善它呀?
您方对于友善这个前提的界定太灵活了。您说在发展一个APP时公司应该以友善为前提,那我方觉得没什么论证空间了,您可以论证发布之后它怎么约束。
发布之后,发现这个公司还在提升算力能力,往4.5方向发展,那它是不是还是以算力为优先考虑的问题。现在去官网查,专门有一个模块是讲AI安全、讲AI伦理的,它建立了不同的小组,来确保AI对更多人友好、友善,避免歧视,所以这件事本身好像并不冲突。如果您觉得算力紧张,应该去突破算力的门槛,不管是算法优化还是芯片技术发展,为什么在您方看来就等于不应该以友善为前提了?
效率的部分我刚给您举证过了,有可能不以友善为前提,反而会损害效率,您要给我一个相抗的举证,而不是在这里一直打转。
地铁上有个标语,禁止在地铁吸烟,我遵守这个标语,这个规则的设置是因为吸烟会让其他人感到不舒服,所以以友善为前提,我们希望更多人感到舒服,所以不去吸烟。可见友善可能是一个规则的前提。而您现在只跟我们聊规则,不想探讨这个规则为什么而来,是吗?
我方不否认,出发点在于人类是友善的,所以人类希望在用这个工具时能得到友善对待。但是我方想告诉大家,在现在算力没有那么饱和的情况下,我们要不要耗费最大的精力来训练一个可能不太理解这件事情的东西,我们认为没必要。一个AI就像一个孩子,未必要让它理解这么复杂的东西,把它当作工具不好吗?
所以为了解决病虫害,把所有作物都烧了,这是您方可以接受的吗?
我坦白讲,这个例子我不太懂,要不您解释一下。怎么解决黑人社区犯罪率高的问题?把所有黑人都杀光就好了。这就是如果不以友善为前提,可能会训练出的AI的样子,您能接受吗?
我不太懂这个极端情况是如何推导出来的。因为我方朋友讲了,如果不经过筛选,语言模型会对少数群体存在严重的偏见,您有相关的举证吗?还是那句话,我们没有否认要筛选,没有否认要把犹太人等群体看得重要一点。可是这件事情为什么会影响算力,不仅要把算力放在后面?
这是两层问题,第一层,如果不以这个为前提,您方也看到了后果无法接受,这不是一个合格的工具。第二层,您还是没有告诉我效率跟友善为什么是冲突的。我方已经积极举证了,官网上已经证实,友善有时候甚至可以提升它的测试表现。
我方说的是在发展过程中,前提是优先提高效率,不是所有的友善都违背效率,而是有一部分情况下它会违背效率。就像GPT3到GPT4,GPT4是先提高效率,后面再加上友善的约束。在发展的初期就以友善为前提进行推进,难道您方认为GPT4就比GPT3更友善了吗?所以要比较多个前提之下的优先级。
您要明确告诉我,优先级才能判断是否冲突。我方举证的时候说没有冲突,您方刚才跟我讲的所有都是应该先发展哪个,后发展哪个,现在突然说冲突了,请您举证。
我问了医生这个问题,医生好声好气跟我说,但是没有回答问题。医生隐瞒问题,这是专业性不强,不是因为友善所以选择隐瞒,您的类比本身内部逻辑不成立。第二,哪怕以医生这个类比,医生也要好声好气地跟患者沟通,我随手一查,清华人民医院医患沟通制度就说了,医生应该尊重、理解、同情,有耐心地跟人交流,所以所有人都认为友善是可以帮助我们解决问题的,您方觉得不可以,请您举证。
对方最后所说的“不为一”,若前期情况未知,会怎样呢?但您方显然没有考虑到涉及传统的前提是不可剥离的。而在取准过程中,您方无法给出取准的标准,那么在取测时就是片面的,您方观点显然与经济原则相背。所以,您方所谓的前期功利力是不可取的。
其次,您方一直提及有善的解决天机,但对有善的定义模糊片面,只是简单进行数据筛选,将基本的回复都笼统归为有善,却忽略了其生活性。用极端例子来说,这种绑定了永善的方式,是基于公平正义的基本准则,是针对少数人群的,并非是对永善的正确对待。真正的 AI 发展应该是先筑牢教育的核心,再优化人文的支配。
您方辩友让我们相信所谓友善,认为态度好就是艺术与人类和谐共生的新时代。但当我们讨论发展前提时,讨论的是技术演进的原点与核心标准。您方将友善创新置于表达态度的范畴内,回避了两个问题。第一,这种态度在不牺牲核心技术的核心价值的前提下能否完成;第二,这种对态度的追求是否违背了技术的本质识别。
首先,您方将 AI 愿意回答问题、完成任务等同于有善,本身就不合理。完成任务是工具的基本功能,计算机按照程序输出结果,并非有善。那些模型响应只是履行工序的职责,与所谓的友善态度无关。把这个功能归结为友善,暴露了您方对此概念的混淆。
进一步说,有善要适配千变万化的人类需求,背后是巨大的算力消耗。我们已经阐明,现阶段的算力无法在不充分教育的前提下解决所谓的礼貌问题。为了斟酌一句友善的话,反复校验、筛选措辞,无疑是资源的浪费。您方辩友认为让 AI 进一步把精力耗费在表演友善上,比精准输出更重要吗?
仅通过筛选语料库得出有善才为得体的逻辑,只能实现表层的表达规范,无法应对人类社交中动态变化的需求。文化是随个体差异而流动的,不是简单的语料过滤就能覆盖的。一个基于逻辑的算法与参数,和外在人类一样进行情绪化的价值判断,会让其评判标准混乱,只会导致两种结果。要么为了探讨不断进行价值的申诉,拖慢响应速度;要么为了适配不同的场景而陷入自我矛盾,最终丧失技术携带的效率与可能性。
更关键的是,GPT 是工具,而工具的核心价值在于精准高效,在于提升社会生产率和服务效率。您方辩友忽略了一个问题,当说法好听、态度好成为前提时,可能会牺牲信息的真实性,或者为了所谓的和谐性而妥协。比如为了避免冒犯,可能会刻意淡化某些关键的危险;为了写得友善,可能会用冗长的表达掩盖核心信息。这不利于技术的进步。
我们发明大语言模型是为了穿透信息迷雾,而不是被迷雾掩盖。我们承认需要道德边界,但应将有善从前面的位置移开,甚至要尊重技术的本质。这不是否定友善在代理中的价值,而是拒绝资本束缚,让技术回归基本原子以及工具本位,以技能高效为目标。在这个基础上通过规范来管控风险,用友善的态度标准来衡量大语言模型是不合理的。
今天讨论大语言模型的价值,终究要看它能否高效解决问题。
感谢!
对方最后所说的“不为一”,若前期情况未知,会怎样呢?但您方显然没有考虑到涉及传统的前提是不可剥离的。而在取准过程中,您方无法给出取准的标准,那么在取测时就是片面的,您方观点显然与经济原则相背。所以,您方所谓的前期功利力是不可取的。
其次,您方一直提及有善的解决天机,但对有善的定义模糊片面,只是简单进行数据筛选,将基本的回复都笼统归为有善,却忽略了其生活性。用极端例子来说,这种绑定了永善的方式,是基于公平正义的基本准则,是针对少数人群的,并非是对永善的正确对待。真正的 AI 发展应该是先筑牢教育的核心,再优化人文的支配。
您方辩友让我们相信所谓友善,认为态度好就是艺术与人类和谐共生的新时代。但当我们讨论发展前提时,讨论的是技术演进的原点与核心标准。您方将友善创新置于表达态度的范畴内,回避了两个问题。第一,这种态度在不牺牲核心技术的核心价值的前提下能否完成;第二,这种对态度的追求是否违背了技术的本质识别。
首先,您方将 AI 愿意回答问题、完成任务等同于有善,本身就不合理。完成任务是工具的基本功能,计算机按照程序输出结果,并非有善。那些模型响应只是履行工序的职责,与所谓的友善态度无关。把这个功能归结为友善,暴露了您方对此概念的混淆。
进一步说,有善要适配千变万化的人类需求,背后是巨大的算力消耗。我们已经阐明,现阶段的算力无法在不充分教育的前提下解决所谓的礼貌问题。为了斟酌一句友善的话,反复校验、筛选措辞,无疑是资源的浪费。您方辩友认为让 AI 进一步把精力耗费在表演友善上,比精准输出更重要吗?
仅通过筛选语料库得出有善才为得体的逻辑,只能实现表层的表达规范,无法应对人类社交中动态变化的需求。文化是随个体差异而流动的,不是简单的语料过滤就能覆盖的。一个基于逻辑的算法与参数,和外在人类一样进行情绪化的价值判断,会让其评判标准混乱,只会导致两种结果。要么为了探讨不断进行价值的申诉,拖慢响应速度;要么为了适配不同的场景而陷入自我矛盾,最终丧失技术携带的效率与可能性。
更关键的是,GPT 是工具,而工具的核心价值在于精准高效,在于提升社会生产率和服务效率。您方辩友忽略了一个问题,当说法好听、态度好成为前提时,可能会牺牲信息的真实性,或者为了所谓的和谐性而妥协。比如为了避免冒犯,可能会刻意淡化某些关键的危险;为了写得友善,可能会用冗长的表达掩盖核心信息。这不利于技术的进步。
我们发明大语言模型是为了穿透信息迷雾,而不是被迷雾掩盖。我们承认需要道德边界,但应将有善从前面的位置移开,甚至要尊重技术的本质。这不是否定友善在代理中的价值,而是拒绝资本束缚,让技术回归基本原子以及工具本位,以技能高效为目标。在这个基础上通过规范来管控风险,用友善的态度标准来衡量大语言模型是不合理的。
今天讨论大语言模型的价值,终究要看它能否高效解决问题。
感谢!
请正方四辩总结陈词。
对方辩友今天陷入了一个逻辑怪圈。刚才我们从自由便利已经得出,双方都知道发布前需要算力,需要对友善做出筛选,而这一切都是在发布前完成的。我们今天的辩题不是比较哪一个前提更重要,而是要不要以有效为前提,只要是在发布前都属于前提。对方刚才已经承认GPT公司确实在发生之前有筛选,所以对方辩友对这个辩题首先就产生了误解。
其次,对方辩友在回答问题时,不会说“你怎么这么笨,这么简单的题都不会”,而是会说“你好,首先这个问题怎么怎么样,其次怎么怎么样”。如此温暖的话语就是以友善为前提所展现出来的表现。如果这都不算友善,那我真不知道友善要做到何种程度才是真正的友善。
对方始终认为友善表达和效率是对立的,这是不正确的。我们经济发展的前提为什么只能有一个呢?我们既要友善,又要效率。友善不仅仅是事后的安抚,更是让交流更顺畅、让技术更贴近人的核心要素。
对方全程没有论证为什么友善就一定消耗算力,反而我方已经说明,有些时候友善可以提高效率。对方从始至终都没有解决这一点,反复强调算力消耗,认为只有解决算力问题,人才会开心,而忽略了我们作为人被重视的感觉对解决问题的正向作用。
就像对方提到的例子,当面对问题时,如果得到的回应是粗鲁的词汇,哪怕问题被解决了,过程中的负面情绪也会抵消结果的价值。而友善的表达,哪怕只是一句简单的回应,都能传递被重视的信号,减少沟通中的抵触和焦虑,让双方更聚焦于问题本身。这种情感上的顺畅本身就是效率的一部分,因为它避免了情绪对立导致的反复沟通,让问题解决得更加直接。
反方辩友质疑有情感需求和我方论点冲突,认为所有事情都应效率优先。但其实友善会让信息更有价值,这点对方没有给出具体论证,我方无法理解。
最后,对方只强调效率优先,却忘记了效率的本身是要更好地满足人的需求,这是根本来源。对方一直在讲过程,却没有认识到过程产生的最根本的东西是什么。技术的进步从来不是为了让机器人更高效地疏远人,而是让机器人更贴近地服务人。
对方辩友想把GPT塑造成一个冷酷无情的大魔王,而我方要告诉大家,真正的智能机器是有温度的,是有温度的效率。只追求效率最终只会得到多样的结果,而非让人满意的服务。并且我们使用技术是为了让人类过得更好、更舒心,而不是让自己变成只能接受机器指令的人。
所以我方坚定认为,友善是不应该被舍弃的前提,而是必要的前提。
请正方四辩总结陈词。
对方辩友今天陷入了一个逻辑怪圈。刚才我们从自由便利已经得出,双方都知道发布前需要算力,需要对友善做出筛选,而这一切都是在发布前完成的。我们今天的辩题不是比较哪一个前提更重要,而是要不要以有效为前提,只要是在发布前都属于前提。对方刚才已经承认GPT公司确实在发生之前有筛选,所以对方辩友对这个辩题首先就产生了误解。
其次,对方辩友在回答问题时,不会说“你怎么这么笨,这么简单的题都不会”,而是会说“你好,首先这个问题怎么怎么样,其次怎么怎么样”。如此温暖的话语就是以友善为前提所展现出来的表现。如果这都不算友善,那我真不知道友善要做到何种程度才是真正的友善。
对方始终认为友善表达和效率是对立的,这是不正确的。我们经济发展的前提为什么只能有一个呢?我们既要友善,又要效率。友善不仅仅是事后的安抚,更是让交流更顺畅、让技术更贴近人的核心要素。
对方全程没有论证为什么友善就一定消耗算力,反而我方已经说明,有些时候友善可以提高效率。对方从始至终都没有解决这一点,反复强调算力消耗,认为只有解决算力问题,人才会开心,而忽略了我们作为人被重视的感觉对解决问题的正向作用。
就像对方提到的例子,当面对问题时,如果得到的回应是粗鲁的词汇,哪怕问题被解决了,过程中的负面情绪也会抵消结果的价值。而友善的表达,哪怕只是一句简单的回应,都能传递被重视的信号,减少沟通中的抵触和焦虑,让双方更聚焦于问题本身。这种情感上的顺畅本身就是效率的一部分,因为它避免了情绪对立导致的反复沟通,让问题解决得更加直接。
反方辩友质疑有情感需求和我方论点冲突,认为所有事情都应效率优先。但其实友善会让信息更有价值,这点对方没有给出具体论证,我方无法理解。
最后,对方只强调效率优先,却忘记了效率的本身是要更好地满足人的需求,这是根本来源。对方一直在讲过程,却没有认识到过程产生的最根本的东西是什么。技术的进步从来不是为了让机器人更高效地疏远人,而是让机器人更贴近地服务人。
对方辩友想把GPT塑造成一个冷酷无情的大魔王,而我方要告诉大家,真正的智能机器是有温度的,是有温度的效率。只追求效率最终只会得到多样的结果,而非让人满意的服务。并且我们使用技术是为了让人类过得更好、更舒心,而不是让自己变成只能接受机器指令的人。
所以我方坚定认为,友善是不应该被舍弃的前提,而是必要的前提。