例如,《在恋爱关系中,应该追求等价的付出·在恋爱关系中,不应该追求等价的付出》一题,辩之竹内共收录26场比赛。我们为您提供这26场比赛的论点、判断标准提取,以及总计数百条论据的提取,还有Deepseek的辩题分析。这可以帮您更好备赛。
欢迎您点击下方按钮,前往查看。
阅读量:0
谢谢主席,各位好。决策权是拥有主体意识的个体做出价值评价的权利,如对好坏的构建,对效率与安全的价值取舍与平衡等等,本质上应该由人来拥有,而并非AI。
比如在家里,我拥有对扫地机器人何时进行打扫的决策权,我可以让它打扫布满灰尘的地面,也可以让它保留小女孩的美丽涂鸦。扫地机器人对我做出的决策进行执行,但绝不可以自主决定进行打扫。
我方认为,人工智能没有自主意识,更应该作为执行者而而非决策者存在,因此不应赋予其更大的决策权,反而应该在现有人工智能已经或几乎要获得决策权的领域做收束与缩小。具体论证如下:
首先,决策本质是人类价值观的具象化投射,人工智能的算法逻辑无法承载文明多样性。人类是一个复杂的群体,在不同的情况、不同的族群、不同的宗教信仰下,都会做出决然不同的决策。
或许在自动驾驶领域,人工智能已经可以很好地执行人类的计划,用更快速、更稳定的方法载人到达目的地。但当自动驾驶面对紧急情况,需要选择牺牲驾驶员还是撞上无辜路人的时刻,有人会选择舍己为人,有人会选择保护自己;当邻座是自己的亲人或爱人的时候,应该牺牲自己保护爱人还是牺牲爱人保护自己?这些选择没有高下之分,只有价值之别。人工智能无权替人类做出决策,唯有人类的价值取向才能决定此刻“我要成为什么样的人”。
美国国家饮食失调协会曾经采用人工智能测算来代替人工评估。从人工智能的角度,也许它会认为多吃猪肉对人而言更有利于身体健康。但当面对一个穆斯林教徒,其宗教信仰让他不愿意吃猪肉时,人工智能对他而言就应该只是一种可能性的建议,而非直接代替一个教徒做出违背信仰的决策。反之,当大S为了生孩子放弃自己的佛教信仰选择吃肉时,人工智能也无权替她决策信仰大于生育的价值。
可见,决策权代表着人类对自身的期待和判断。我们更应该将AI视为方案建议者和行动执行者,而非决策者。决策权应牢牢掌握在人类手中,才能不断校正人工智能可能导致的问题。
其次,主张人工智能可以超越工具性,向自主意识、自主决策方向发展是不可取的。当人工智能具有决策权的那一刻,意味着它是不可控的,主体意识的诞生反而会对人类本身的世界造成威胁。
2018年联合国事实调查团调查发现,脸书通过人工智能算法增加用户量,人工智能算法拥有决策权后,主动选择在脸书上强化推广民族仇恨言论,以获得更多关注度,煽动了针对缅甸穆斯林族裔的民族仇恨,一场2.5万人死亡、70万人流离失所的大屠杀就此产生。
当人工智能具有决策权后,暗网中被赋予毁灭人类使命的ChatGPT和可自由生成恶意代码、木马、钓鱼网站的WormGPT等便可以自主随机决策,选定目标下手,秉持各类畸形价值观的人工智能便可以轻易造成严重的后果。
可见,我们应当深刻认识到决策权是专属人类的神圣权利,若交由AI,人类文明价值便可能隐没,冲突便会盛行,这绝不是我们乐见的结果。而当我们认为可以不断对AI进行限制时,就应该从源头把握决策的权利。当下我们需要的是更多地打击这些具备决策权的人工智能,而不是任由其继续发展。
将决策权保留在人类手中,不是对技术的恐惧,而是对文明火种的守护。让我们永远铭记,当机器开始替人类做决定时,便是人性开始消亡之时。
谢谢主席,各位好。决策权是拥有主体意识的个体做出价值评价的权利,如对好坏的构建,对效率与安全的价值取舍与平衡等等,本质上应该由人来拥有,而并非AI。
比如在家里,我拥有对扫地机器人何时进行打扫的决策权,我可以让它打扫布满灰尘的地面,也可以让它保留小女孩的美丽涂鸦。扫地机器人对我做出的决策进行执行,但绝不可以自主决定进行打扫。
我方认为,人工智能没有自主意识,更应该作为执行者而而非决策者存在,因此不应赋予其更大的决策权,反而应该在现有人工智能已经或几乎要获得决策权的领域做收束与缩小。具体论证如下:
首先,决策本质是人类价值观的具象化投射,人工智能的算法逻辑无法承载文明多样性。人类是一个复杂的群体,在不同的情况、不同的族群、不同的宗教信仰下,都会做出决然不同的决策。
或许在自动驾驶领域,人工智能已经可以很好地执行人类的计划,用更快速、更稳定的方法载人到达目的地。但当自动驾驶面对紧急情况,需要选择牺牲驾驶员还是撞上无辜路人的时刻,有人会选择舍己为人,有人会选择保护自己;当邻座是自己的亲人或爱人的时候,应该牺牲自己保护爱人还是牺牲爱人保护自己?这些选择没有高下之分,只有价值之别。人工智能无权替人类做出决策,唯有人类的价值取向才能决定此刻“我要成为什么样的人”。
美国国家饮食失调协会曾经采用人工智能测算来代替人工评估。从人工智能的角度,也许它会认为多吃猪肉对人而言更有利于身体健康。但当面对一个穆斯林教徒,其宗教信仰让他不愿意吃猪肉时,人工智能对他而言就应该只是一种可能性的建议,而非直接代替一个教徒做出违背信仰的决策。反之,当大S为了生孩子放弃自己的佛教信仰选择吃肉时,人工智能也无权替她决策信仰大于生育的价值。
可见,决策权代表着人类对自身的期待和判断。我们更应该将AI视为方案建议者和行动执行者,而非决策者。决策权应牢牢掌握在人类手中,才能不断校正人工智能可能导致的问题。
其次,主张人工智能可以超越工具性,向自主意识、自主决策方向发展是不可取的。当人工智能具有决策权的那一刻,意味着它是不可控的,主体意识的诞生反而会对人类本身的世界造成威胁。
2018年联合国事实调查团调查发现,脸书通过人工智能算法增加用户量,人工智能算法拥有决策权后,主动选择在脸书上强化推广民族仇恨言论,以获得更多关注度,煽动了针对缅甸穆斯林族裔的民族仇恨,一场2.5万人死亡、70万人流离失所的大屠杀就此产生。
当人工智能具有决策权后,暗网中被赋予毁灭人类使命的ChatGPT和可自由生成恶意代码、木马、钓鱼网站的WormGPT等便可以自主随机决策,选定目标下手,秉持各类畸形价值观的人工智能便可以轻易造成严重的后果。
可见,我们应当深刻认识到决策权是专属人类的神圣权利,若交由AI,人类文明价值便可能隐没,冲突便会盛行,这绝不是我们乐见的结果。而当我们认为可以不断对AI进行限制时,就应该从源头把握决策的权利。当下我们需要的是更多地打击这些具备决策权的人工智能,而不是任由其继续发展。
将决策权保留在人类手中,不是对技术的恐惧,而是对文明火种的守护。让我们永远铭记,当机器开始替人类做决定时,便是人性开始消亡之时。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
人类不应该赋予人工智能在人类社会中更大的决策权,而应将决策权保留在人类手中,对现有人工智能已获得或几乎要获得决策权的领域做收束与缩小,这是对文明火种的守护。
正方四辩:谢谢,和您确认第一个问题。今天我们正方作为政策题的主张方,不需要去论证在所有领域的每一个部分都要提高AI的决策权。当然,我方态度也很明确,我们认为在面试和司法这两个领域上,让AI享有决策权是可行的。
反方一辩:我方认为人工智能根本就不该拥有决策权,决策权应该是有主体意识的个体所拥有的权利。
正方四辩:我知道主体的问题后面再聊。我问您第二个问题,您方觉得因为AI背后是代码,它不是人,所以它就不能有决策权,是这个意思吗?
反方一辩:这只是其中一部分,我认为它没有自主意识,不能拥有决策权。
正方四辩:我打断一下,您认为它没有自主意识,是因为它在遵循某种原则。但在现实社会中,人在政府执法时也是依照法律、依照规则,人和AI的区别在哪里?
反方一辩:人可以突破这样的限制,做出违背规则的事,而AI不能。
正方四辩:所以您说的只是违法的情况,这和AI有不同的算法、不能灵活处理有什么关系呢?您没有指出人和AI在依法执政方面的差别在哪里。我问您第三个问题,人民赋予总统公权力,总统和政府享有政策的决策权,但不代表人民不可以随时收回权利,对吧?
反方一辩:人类可以拥有自由裁量权,而我方态度很明确,人工智能根本就不应该拥有决策权,更谈不上收回。如果要对它处处做出限制,那干嘛还要赋予呢?
正方四辩:我重新确认一下,在公民和政府、总统的关系里,公民赋予了政府决策权之后,政府成为决策的执行者,不代表公民要自己去做每一个决策,公民想要的是赋予政府决策权的权利,这是主体性的体现,没问题吧?
反方一辩:我能理解您的意思,我方态度很明显,如果要对不可控的东西做出限制,那我方倡导从源头上就不要给它更大的决策权。
正方四辩:今天我的政策主张是,在面试和司法两个领域,AI都可以提供更好的效率、公平和能力,在这个层面上,我们赋予它决策权,彰显我方的主体性。我方后续会进行论证,谢谢。您刚才讲的都不成立,谢谢。
正方四辩:谢谢,和您确认第一个问题。今天我们正方作为政策题的主张方,不需要去论证在所有领域的每一个部分都要提高AI的决策权。当然,我方态度也很明确,我们认为在面试和司法这两个领域上,让AI享有决策权是可行的。
反方一辩:我方认为人工智能根本就不该拥有决策权,决策权应该是有主体意识的个体所拥有的权利。
正方四辩:我知道主体的问题后面再聊。我问您第二个问题,您方觉得因为AI背后是代码,它不是人,所以它就不能有决策权,是这个意思吗?
反方一辩:这只是其中一部分,我认为它没有自主意识,不能拥有决策权。
正方四辩:我打断一下,您认为它没有自主意识,是因为它在遵循某种原则。但在现实社会中,人在政府执法时也是依照法律、依照规则,人和AI的区别在哪里?
反方一辩:人可以突破这样的限制,做出违背规则的事,而AI不能。
正方四辩:所以您说的只是违法的情况,这和AI有不同的算法、不能灵活处理有什么关系呢?您没有指出人和AI在依法执政方面的差别在哪里。我问您第三个问题,人民赋予总统公权力,总统和政府享有政策的决策权,但不代表人民不可以随时收回权利,对吧?
反方一辩:人类可以拥有自由裁量权,而我方态度很明确,人工智能根本就不应该拥有决策权,更谈不上收回。如果要对它处处做出限制,那干嘛还要赋予呢?
正方四辩:我重新确认一下,在公民和政府、总统的关系里,公民赋予了政府决策权之后,政府成为决策的执行者,不代表公民要自己去做每一个决策,公民想要的是赋予政府决策权的权利,这是主体性的体现,没问题吧?
反方一辩:我能理解您的意思,我方态度很明显,如果要对不可控的东西做出限制,那我方倡导从源头上就不要给它更大的决策权。
正方四辩:今天我的政策主张是,在面试和司法两个领域,AI都可以提供更好的效率、公平和能力,在这个层面上,我们赋予它决策权,彰显我方的主体性。我方后续会进行论证,谢谢。您刚才讲的都不成立,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
好的,谢谢主席。
首先,关于决策权的定义部分,对方辩友用了一个媒婆的例子告诉我们,可能媒婆只是给我们建议。可是,如果当我们把规则要求告知媒婆,然后媒婆告诉我们应该选这个,我们就选这个的时候,那么媒婆实际上就在决定我们应该选谁,在决定我们的人生。所以核心在于,这个判断是否由AI做出,以及我们是否要赋予它更多做出判断的权利。
进一步来说,对方辩友质疑,AI决策的都是人的价值取舍,所以它不应该替人做价值取舍。我们的第一层质疑是,人类社会所有的决策是否都涉及价值取舍。比如我刚才提到的交通事故、民间的借贷纠纷,事实比较清晰,定责由交警负责,法官所做的只是根据交警的定责来计算赔偿金额,这本身并不涉及价值选择。就像在民间借贷中,涉及利率计算,法官只是判断该利率是否适用于法院支持的范围,只是依据事实来确定适用哪条法律,也不涉及价值判断。
所以,在人类社会的很多决策中,本身并不涉及对方所说的个人价值决策部分。如果将这部分交给AI来做,能够提升很多工作效率。而提升工作效率会带来什么呢?目前,当工作量积压过多时,就会导致很多不合理的操作。例如,深圳市律师协会前会长为了在法庭上充分发言,向法官行贿20万。因为现在大家工作都很紧张,法官会时不时打断发言,所以人们为了争取机会就开始走偏门。如果将AI引入法院判决,提高了效率,一方面可以减少寻租空间,另一方面也能让人更好地实现司法上的公平正义。谢谢。
好的,谢谢主席。
首先,关于决策权的定义部分,对方辩友用了一个媒婆的例子告诉我们,可能媒婆只是给我们建议。可是,如果当我们把规则要求告知媒婆,然后媒婆告诉我们应该选这个,我们就选这个的时候,那么媒婆实际上就在决定我们应该选谁,在决定我们的人生。所以核心在于,这个判断是否由AI做出,以及我们是否要赋予它更多做出判断的权利。
进一步来说,对方辩友质疑,AI决策的都是人的价值取舍,所以它不应该替人做价值取舍。我们的第一层质疑是,人类社会所有的决策是否都涉及价值取舍。比如我刚才提到的交通事故、民间的借贷纠纷,事实比较清晰,定责由交警负责,法官所做的只是根据交警的定责来计算赔偿金额,这本身并不涉及价值选择。就像在民间借贷中,涉及利率计算,法官只是判断该利率是否适用于法院支持的范围,只是依据事实来确定适用哪条法律,也不涉及价值判断。
所以,在人类社会的很多决策中,本身并不涉及对方所说的个人价值决策部分。如果将这部分交给AI来做,能够提升很多工作效率。而提升工作效率会带来什么呢?目前,当工作量积压过多时,就会导致很多不合理的操作。例如,深圳市律师协会前会长为了在法庭上充分发言,向法官行贿20万。因为现在大家工作都很紧张,法官会时不时打断发言,所以人们为了争取机会就开始走偏门。如果将AI引入法院判决,提高了效率,一方面可以减少寻租空间,另一方面也能让人更好地实现司法上的公平正义。谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
无明显防御内容。
谢谢主席。当今辩论全程呈现出一种矛盾和紧张感。正方一方面希望下放决策权给人工智能以提高效率,另一方面又处处对人工智能加以限制,担忧其出错。甚至将所有代码一一陈列出来,但凡有问题,便随时修正。在这一过程中,人工智能究竟是获得了更大的决策权,还是其决策权在不断被限缩呢?
我方从前面决策婚姻的例子便可窥见一斑。如果今天我作为一名女性,在选择婚姻的过程中,我的每一条标准都要由他人来审视是否正确,并且他人可以随时在我的决策过程中添加或减少某些部分,修正或缩减某些部分的比重,那么我对自己的婚姻还有任何决策权吗?按照正方的说法,封建女性一直和父母共享决策权,那我们一直以来追求的婚姻自由、婚姻自我决策的权利又是什么呢?这岂不是成了空谈和荒谬的价值?
所以,我们会发现,今天看似在讨论人工智能的决策能力,实际上真正在讨论的是决策权意味着什么。我方认为,决策权有两层绝不可被逾越,因而不能赋予人工智能的理由。
第一层是决策权的来源。我方认为,决策权的来源一定不能是完全被控制的部分。如果像正方今天所呈现的那样,人工智能的所有代码都要被人类完美控制,那它就不拥有决策权。否则,在日常人类的所有决策过程中,我可以将完美控制他人的状态当作已赋予其权力,这种对权力的理解是危险的。
第二层,如果要求人工智能对那些它判断不了的、超越代码的价值判断部分进行决策,也就是我方多次追问,而正方一直无法给出答案的,它是如何进行价值判断的部分。在这种情况下,它只能进行随机的价值判断,而随机的价值判断是无法修正的。因为它无法自主生成情绪和朴素的情感正义,这部分在我方看来是随机且危险的。就如同某些人工智能,可能会随机为你升级电脑,也可能随机攻击你的电脑,这样的随机是人类价值体系无法接受的。
最后一点,我方认为,如果今天我们将决策的权利交出去,事实上就是将人性、人类变革以及整个文明进化的方向也交了出去。交出去的越多,整个体系坍塌得也就越快。所以在这个过程中,我们想提醒所有人,在技术发展的过程中,究竟要坚守什么。
谢谢主席。当今辩论全程呈现出一种矛盾和紧张感。正方一方面希望下放决策权给人工智能以提高效率,另一方面又处处对人工智能加以限制,担忧其出错。甚至将所有代码一一陈列出来,但凡有问题,便随时修正。在这一过程中,人工智能究竟是获得了更大的决策权,还是其决策权在不断被限缩呢?
我方从前面决策婚姻的例子便可窥见一斑。如果今天我作为一名女性,在选择婚姻的过程中,我的每一条标准都要由他人来审视是否正确,并且他人可以随时在我的决策过程中添加或减少某些部分,修正或缩减某些部分的比重,那么我对自己的婚姻还有任何决策权吗?按照正方的说法,封建女性一直和父母共享决策权,那我们一直以来追求的婚姻自由、婚姻自我决策的权利又是什么呢?这岂不是成了空谈和荒谬的价值?
所以,我们会发现,今天看似在讨论人工智能的决策能力,实际上真正在讨论的是决策权意味着什么。我方认为,决策权有两层绝不可被逾越,因而不能赋予人工智能的理由。
第一层是决策权的来源。我方认为,决策权的来源一定不能是完全被控制的部分。如果像正方今天所呈现的那样,人工智能的所有代码都要被人类完美控制,那它就不拥有决策权。否则,在日常人类的所有决策过程中,我可以将完美控制他人的状态当作已赋予其权力,这种对权力的理解是危险的。
第二层,如果要求人工智能对那些它判断不了的、超越代码的价值判断部分进行决策,也就是我方多次追问,而正方一直无法给出答案的,它是如何进行价值判断的部分。在这种情况下,它只能进行随机的价值判断,而随机的价值判断是无法修正的。因为它无法自主生成情绪和朴素的情感正义,这部分在我方看来是随机且危险的。就如同某些人工智能,可能会随机为你升级电脑,也可能随机攻击你的电脑,这样的随机是人类价值体系无法接受的。
最后一点,我方认为,如果今天我们将决策的权利交出去,事实上就是将人性、人类变革以及整个文明进化的方向也交了出去。交出去的越多,整个体系坍塌得也就越快。所以在这个过程中,我们想提醒所有人,在技术发展的过程中,究竟要坚守什么。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
文本中未明显体现防御内容。
请教你,你方今天到底是在讲AI根本就没有决策权,还是我们不该给AI决策权?
受代码控制的AI没有决策权,超越代码控制的AI如同暗网中的AI有决策权,但因其随机危险,应该收回。
我想请问的是,您方如果今天把AI的所有决策全部都公开,就如同我刚刚给大家举的例子,为什么说这个女生具有自己的婚姻自由权?为什么不是按照我举的例子严格执行决策权?因为给AI输入的指令就是一定要盈利、要有热度,但没讲好的热度和坏的热度,这是输入的问题。
不好意思,对方辩友,暗网的那个AI,输入的就是可以超脱代码,随意去进行攻击,并没有对它进行限制,所以超脱的这一部分是应该收回的。看来您方也同意。
请问,为什么今天必须只能条条框框按照媒婆给选的人、父母给选的人,才叫做对自己的婚姻有决策权?
第一,人可以共享决策权,其实人本身也是由世界塑造的,我不觉得这和输入有什么区别。
同学,我必须纠正你一个原则性的错误,没有一个AI可以超越代码,这绝对是常识。我想请问一下,你方超越代码的举证在哪里?所以在超越的部分,不是它来判断攻击者,而是它有随机判断,这就是交给AI做决策,所以产生了随机性的后果。
我想请问,如果您方觉得在过去媒婆的情况也都叫拥有决策权,那我们这么多年争取女性权益算什么?我们早就有这个权利了吗?
在您方看来,法官在判案的时候也要遵循法律,那您方也认为法官没有自主决策权吗?
我方就请问你一下,比如说现在上海二中院行政装备处处长就在说,现在大语言模型的场景应用已经使得交互式法律咨询成为可能,所以他们引入了一个法律咨询系统,让它来决定给予咨询者任何关于法律上的建议。实际上的效果显示,在及时性、精准性、全面性上远超人工咨询,并且大幅度提升了服务的绩效比。所以,我们是不是要把这一部分咨询的决策权交给AI?
谢谢,这是执行和提供建议,而不是提供决策。反过来,如果你认为所有的法官本质都是按照法条按图索骥的执行者,那自由裁量权是什么意思呢?
自由裁量不是什么时候都要行使的。就比如说在我方举的关于交通事故里面责任的划定,已经由交警划定了,法官只是在计算要赔多少的问题,所以在这个情况下,很明显不存在自由裁量的部分。
所以进一步来问您方,如果到这个时候,比如说新桥区法院的庭长就说,员额法官现在只有五名,但是每年的受案量有2000左右,所以人案多人少的矛盾非常突出。但是我们现在引入AI全科法官判案之后,效率提高了几十倍,而且同案同判,不会让当事人有受到不公正对待的感觉,我们这个时候引入AI是不是更好呢?
对方辩友,没人比我更清楚交通事故的判决了。我告诉你,交通事故如果没有争议的话,根本不用上法庭,有争议的时候就有自由裁量权。比如说惩罚的额度究竟是5万到10万之间,这个部分必须得引入法官的自由裁量。我们刚才说的无辜老人意外撞击豪车的案例,法官就会按照最低限度判决。请问,他这一次实时的价值判断是如何做的?
我其实听明白了,刚才我的意思是有时候事实不清晰,比如说因为这边没监控,所以分不清谁撞了谁、谁负什么责任。又比如说借钱不写欠条。那问题是,你讲的这些弊端,人类法官做判断也会有问题,因为他判断的时候也会说,因为事实不足,所以必须进入新的程序。那这时候AI对人类不也一样吗?顶多是持平,怎么会有更大的弊害呢?
你的意思是不是在一些场景下,事实清晰到几乎不需要人类去决策和选择什么,只需要执行那个唯一正确的答案,这和决策权有什么关系呢?绝大多数情况下,所谓的采信只是计算概率,这一点AI做得反而比人类更好。
事实上我方退一万步来讲,你就算不服它这个价值判断或者自由裁量,再重新上诉,排几年的队,这有什么坏处?比起之前。
无辜老人误撞豪车,怎么计算概率?怎么判断AI?
所以我先确认一下,是不是事实清晰的部分,我方这份利好先全盘收下了。好,所以这部分任何涉及价值判断的地方,正方全不要。
那我来探讨事实清晰的情况。像在古代,门当户对,父母事实清晰地告诉你,这个男人对你最好,你就必须嫁给他,这个女生对于自己的婚姻有决策权吗?
您方又回到了法官依法判案就是没有裁量权的问题,那我方继续问您方关于自由裁量。自由裁量权太多也不一定是好事。在南京的那个老奶奶扶人然后被判她是撞人的案件当中,就是因为法官用他的自由裁量,觉得不是你撞了,你凭什么要扶,导致了让全国人民道德感大跌的案件。所以法官的自由裁量权使用太多反而不是一件好事。
所以您方要论证把它交给AI是更好,我方通过歧视的概率论证了在整个混乱的过程中有可能更坏,这个部分你方要跟我比较。而且最重要的是,您方要论证AI在这种情况底下怎么做价值判断。请问,你方觉得AI对于那个扶还是不扶的法律案件怎么看?
恰恰是人类会有私心,而AI你可以输入最伟光正的价值观,而不像人类那样,这也是减少歧视的原因。
我一直跟你聊歧视的问题,你说有一些坏的AI要收回决策权,但是它和人类的区别是人类没法修正,但是坏AI修好之后,可以变成我方给你举证的一些好的AI,所以本质上是不是人类弱于AI?
如果女生的婚恋观,她喜欢帅的不行,要修成中等,她对自己的婚恋没有决策权吗?
我想问个问题,在人类做出价值判断时,我们发现这次错了,我们下次改正,我们社会向着人类越来越期待的价值方向走。可是AI做出的是随机决策,它今天判要这样,明天判不要这样,这样的价值混乱,怎么为社会做指引?
为什么是随机决策?因为但凡涉及价值判断的地方,它不由逻辑代码所决定。当AI超越代码时,对方举的例子是它会随机决策要给哪些人投信息,但是会导致种族、国家等问题。请问,这种随机能够作为人类社会的价值指引吗?
在您方所说的人力资源筛选和法庭判案中。但如果是正式比赛,我们真要介入评委评审了,哪一个AI是比人类更随机的?
我最后确认,您方想说要为AI设置一个伟光正的价值观,我想请问设置了伟光正的价值观之后,它在所有决策里面都按照道德要求最高来判断一定是好的吗?不是啊,它按照现有事实,更大概率,比如说70%是他撞的,还是30%不是他撞的,这样判就行了吗?这是判了个什么呀?30%你可能有罪,70%你可能没罪,这在判些什么?
我方想请问的是,如果在您方的判断里面,AI根本无法做出任何的价值判断,在遇到需要价值判断的时候,只能随机,你又让它判断,此时随机的价值选择是您方可以接受的吗?
所以,减少自由裁量空间,按照同案同判来看,能让民众感觉更公正。所以,如果您方减少了最大的自由裁量空间,其实也就是那些没什么争议的事情,甚至都不用上法庭,您方效率的那个利好也就不存在了。
所以我确认,对方今天讲的所有可能引入人工智能的东西都是只有一个选项,这个时候压根儿不需要什么决策。所以真正需要决策、价值判断的部分,您方也不打算否认,应该由人来承担,因为AI的选择是随意的,而人的价值是可以灵活多变的。
请教你,你方今天到底是在讲AI根本就没有决策权,还是我们不该给AI决策权?
受代码控制的AI没有决策权,超越代码控制的AI如同暗网中的AI有决策权,但因其随机危险,应该收回。
我想请问的是,您方如果今天把AI的所有决策全部都公开,就如同我刚刚给大家举的例子,为什么说这个女生具有自己的婚姻自由权?为什么不是按照我举的例子严格执行决策权?因为给AI输入的指令就是一定要盈利、要有热度,但没讲好的热度和坏的热度,这是输入的问题。
不好意思,对方辩友,暗网的那个AI,输入的就是可以超脱代码,随意去进行攻击,并没有对它进行限制,所以超脱的这一部分是应该收回的。看来您方也同意。
请问,为什么今天必须只能条条框框按照媒婆给选的人、父母给选的人,才叫做对自己的婚姻有决策权?
第一,人可以共享决策权,其实人本身也是由世界塑造的,我不觉得这和输入有什么区别。
同学,我必须纠正你一个原则性的错误,没有一个AI可以超越代码,这绝对是常识。我想请问一下,你方超越代码的举证在哪里?所以在超越的部分,不是它来判断攻击者,而是它有随机判断,这就是交给AI做决策,所以产生了随机性的后果。
我想请问,如果您方觉得在过去媒婆的情况也都叫拥有决策权,那我们这么多年争取女性权益算什么?我们早就有这个权利了吗?
在您方看来,法官在判案的时候也要遵循法律,那您方也认为法官没有自主决策权吗?
我方就请问你一下,比如说现在上海二中院行政装备处处长就在说,现在大语言模型的场景应用已经使得交互式法律咨询成为可能,所以他们引入了一个法律咨询系统,让它来决定给予咨询者任何关于法律上的建议。实际上的效果显示,在及时性、精准性、全面性上远超人工咨询,并且大幅度提升了服务的绩效比。所以,我们是不是要把这一部分咨询的决策权交给AI?
谢谢,这是执行和提供建议,而不是提供决策。反过来,如果你认为所有的法官本质都是按照法条按图索骥的执行者,那自由裁量权是什么意思呢?
自由裁量不是什么时候都要行使的。就比如说在我方举的关于交通事故里面责任的划定,已经由交警划定了,法官只是在计算要赔多少的问题,所以在这个情况下,很明显不存在自由裁量的部分。
所以进一步来问您方,如果到这个时候,比如说新桥区法院的庭长就说,员额法官现在只有五名,但是每年的受案量有2000左右,所以人案多人少的矛盾非常突出。但是我们现在引入AI全科法官判案之后,效率提高了几十倍,而且同案同判,不会让当事人有受到不公正对待的感觉,我们这个时候引入AI是不是更好呢?
对方辩友,没人比我更清楚交通事故的判决了。我告诉你,交通事故如果没有争议的话,根本不用上法庭,有争议的时候就有自由裁量权。比如说惩罚的额度究竟是5万到10万之间,这个部分必须得引入法官的自由裁量。我们刚才说的无辜老人意外撞击豪车的案例,法官就会按照最低限度判决。请问,他这一次实时的价值判断是如何做的?
我其实听明白了,刚才我的意思是有时候事实不清晰,比如说因为这边没监控,所以分不清谁撞了谁、谁负什么责任。又比如说借钱不写欠条。那问题是,你讲的这些弊端,人类法官做判断也会有问题,因为他判断的时候也会说,因为事实不足,所以必须进入新的程序。那这时候AI对人类不也一样吗?顶多是持平,怎么会有更大的弊害呢?
你的意思是不是在一些场景下,事实清晰到几乎不需要人类去决策和选择什么,只需要执行那个唯一正确的答案,这和决策权有什么关系呢?绝大多数情况下,所谓的采信只是计算概率,这一点AI做得反而比人类更好。
事实上我方退一万步来讲,你就算不服它这个价值判断或者自由裁量,再重新上诉,排几年的队,这有什么坏处?比起之前。
无辜老人误撞豪车,怎么计算概率?怎么判断AI?
所以我先确认一下,是不是事实清晰的部分,我方这份利好先全盘收下了。好,所以这部分任何涉及价值判断的地方,正方全不要。
那我来探讨事实清晰的情况。像在古代,门当户对,父母事实清晰地告诉你,这个男人对你最好,你就必须嫁给他,这个女生对于自己的婚姻有决策权吗?
您方又回到了法官依法判案就是没有裁量权的问题,那我方继续问您方关于自由裁量。自由裁量权太多也不一定是好事。在南京的那个老奶奶扶人然后被判她是撞人的案件当中,就是因为法官用他的自由裁量,觉得不是你撞了,你凭什么要扶,导致了让全国人民道德感大跌的案件。所以法官的自由裁量权使用太多反而不是一件好事。
所以您方要论证把它交给AI是更好,我方通过歧视的概率论证了在整个混乱的过程中有可能更坏,这个部分你方要跟我比较。而且最重要的是,您方要论证AI在这种情况底下怎么做价值判断。请问,你方觉得AI对于那个扶还是不扶的法律案件怎么看?
恰恰是人类会有私心,而AI你可以输入最伟光正的价值观,而不像人类那样,这也是减少歧视的原因。
我一直跟你聊歧视的问题,你说有一些坏的AI要收回决策权,但是它和人类的区别是人类没法修正,但是坏AI修好之后,可以变成我方给你举证的一些好的AI,所以本质上是不是人类弱于AI?
如果女生的婚恋观,她喜欢帅的不行,要修成中等,她对自己的婚恋没有决策权吗?
我想问个问题,在人类做出价值判断时,我们发现这次错了,我们下次改正,我们社会向着人类越来越期待的价值方向走。可是AI做出的是随机决策,它今天判要这样,明天判不要这样,这样的价值混乱,怎么为社会做指引?
为什么是随机决策?因为但凡涉及价值判断的地方,它不由逻辑代码所决定。当AI超越代码时,对方举的例子是它会随机决策要给哪些人投信息,但是会导致种族、国家等问题。请问,这种随机能够作为人类社会的价值指引吗?
在您方所说的人力资源筛选和法庭判案中。但如果是正式比赛,我们真要介入评委评审了,哪一个AI是比人类更随机的?
我最后确认,您方想说要为AI设置一个伟光正的价值观,我想请问设置了伟光正的价值观之后,它在所有决策里面都按照道德要求最高来判断一定是好的吗?不是啊,它按照现有事实,更大概率,比如说70%是他撞的,还是30%不是他撞的,这样判就行了吗?这是判了个什么呀?30%你可能有罪,70%你可能没罪,这在判些什么?
我方想请问的是,如果在您方的判断里面,AI根本无法做出任何的价值判断,在遇到需要价值判断的时候,只能随机,你又让它判断,此时随机的价值选择是您方可以接受的吗?
所以,减少自由裁量空间,按照同案同判来看,能让民众感觉更公正。所以,如果您方减少了最大的自由裁量空间,其实也就是那些没什么争议的事情,甚至都不用上法庭,您方效率的那个利好也就不存在了。
所以我确认,对方今天讲的所有可能引入人工智能的东西都是只有一个选项,这个时候压根儿不需要什么决策。所以真正需要决策、价值判断的部分,您方也不打算否认,应该由人来承担,因为AI的选择是随意的,而人的价值是可以灵活多变的。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
谢谢,欢迎大家来到2025年上海杯全国华语辩论锦标赛的现场。
本比赛的辩题为:人类应不应该赋予人工智能在人类社会中更大的决策权。下面请允许我为您介绍今天比赛的正反双方,以及他们各自的立场。
首先是正方上海练基队的同学们,他们在本比赛中的立场是人类应该赋予人工智能在人类社会中更大的决策权。下面有请他们做自我介绍。
我就一个人拿麦吧,就不一个个自我介绍了。
接下来是反方,反方同学是中央民族大学与共辩论社的同学,有请他们进行自我介绍。
这里是反方,可以听到吧。可以的。
那么我打开一下赛制,稍等。第一轮是正方一辩的陈词。
谢谢,欢迎大家来到2025年上海杯全国华语辩论锦标赛的现场。
本比赛的辩题为:人类应不应该赋予人工智能在人类社会中更大的决策权。下面请允许我为您介绍今天比赛的正反双方,以及他们各自的立场。
首先是正方上海练基队的同学们,他们在本比赛中的立场是人类应该赋予人工智能在人类社会中更大的决策权。下面有请他们做自我介绍。
我就一个人拿麦吧,就不一个个自我介绍了。
接下来是反方,反方同学是中央民族大学与共辩论社的同学,有请他们进行自我介绍。
这里是反方,可以听到吧。可以的。
那么我打开一下赛制,稍等。第一轮是正方一辩的陈词。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
你提供的文本主要是比赛开场的流程介绍,并非正方一辩的开篇陈词内容,请你提供正方一辩真正的开篇陈词文本,以便我按照要求进行分析。
谢主席,在开始讨论前,我方必须指出,赋予决策权的权利和人工智能本身是否拥有决策权是两件事情。比如,人民通过投票赋予总统行政决策权,若万不得已,人民当然可以用和平甚至暴力的形式收回总统的决策权,但这并不等于总统本人没有决策权。
换言之,本辩题讨论的不是我们要不要赋予人工智能决策权,双方的共识都是要赋予的,而是在人工智能逐步发展的当代社会,人类要赋予 AI 更大还是更小的权利。因此,我方今天主要论证在司法审判和面试筛选两个领域,某些部分应该赋予 AI 更大的决策权,以此获得极大的利好。如果对方同学能反驳我方所说的利好,或者举出更大的弊端,那你们得证,否则就是我方得证。
基于此,我方论证如下: 一、在面试筛选的领域,我方主张应该赋予 AI 在初步筛选履历环节的绝对决策权。在当今面试的初始阶段,我们面临人手不足的问题,不得不采用一种畸形的权宜之计,即效度极低的筛选模式。我看过对 HR 的采访,站在企业角度,会收到上万份求职申请,但人力严重不足还要完成工作,只能采用第一学历歧视的方法筛出几百份。而在公务员考核中,广东省人事中心的一项研究也发现,受题目数量和难度的影响,考生在做行测题时基本靠猜。2012 年广州大学的一项研究也显示,企业最关心的工作绩效其实和行测成绩没有什么关联。
因此,我方建议引入 AI 对成百上千的应聘者进行面试,从其实习经验、言行谈吐是否符合企业精神等多个维度进行分析考核。而当下的 AI 确实也能够做到这一点。大语言模型会公开其对选拔的思考过程,例如王某,他参与过我司的暑期实习,对我们的企业文化也非常认可,哪怕他的本科学历有所欠缺,他依然更适配这个工作岗位,这也避免了之前提到的在时间不足情况下对学历的一刀切做法。我方有一位拥有 16 年 HR 工作经验的人员,他对 AI 面试的体验是,认为 AI 是有“灵魂”的,我方后续会展开这个例子。
二、在司法审判的领域,我方主张应该赋予 AI 在基层民事案件纠纷审理部分的绝对决策权。在当今中国,由于法官员额制改革,大量基层法院出现人力短缺,法官与案件数量不成比例,导致审判进度拖慢,法官负担加重。以法检系统为例,2019 年,辽宁省公务员招考中法检系统有大量岗位无人报考。与此同时,民众的法律需求却在不断增加,2014 - 2017 年,全国案件受理量从 1600 万上升至 3640 万,增长了 2.27 倍,但法官数量几乎没有变化。
山东省一个业主跟开发商索要逾期办证违约金的普通民事官司,其实非常简单,很快就能处理完,但在资料充足的情况下,打了 4 年才结案,至今没有执行。因此,我方建议引入 AI,由 AI 对基层法院涉及个人民事侵权的相关案件,如交通事故、债务纠纷等进行审判。原因在于基层法院面临的案件并非难度大,而是数量众多。实际上,AI 法官已经能够处理基层案件,加快案件审理速度。《法制日报》报道指出,温州新昌法庭 AI 全科法官的试点中,一个案件用 AI 只要 10 天就能结案,而且基本实现网上办理,当事人甚至不用来一趟法庭,还能做到同案同判、当庭宣判,也避免了一些人情说情的情况。法官们对此项改革举双手欢迎,案件当事人也纷纷拍手叫好。
基于此,我方认为 AI 在这两个部分能带来明显的利好。一是在人手不足的情况下,避免了一些不得不采取的歧视性做法或权宜之计导致的拖延;二是 AI 可以摆脱人类本身的一些局限性,比如人情世故、偷懒等情况。所以,我方在论证责任上,只要举证在这两个领域的某些部分能够大幅提升 AI 的决策权比重,就是我方得证。
以上,谢谢。
谢主席,在开始讨论前,我方必须指出,赋予决策权的权利和人工智能本身是否拥有决策权是两件事情。比如,人民通过投票赋予总统行政决策权,若万不得已,人民当然可以用和平甚至暴力的形式收回总统的决策权,但这并不等于总统本人没有决策权。
换言之,本辩题讨论的不是我们要不要赋予人工智能决策权,双方的共识都是要赋予的,而是在人工智能逐步发展的当代社会,人类要赋予 AI 更大还是更小的权利。因此,我方今天主要论证在司法审判和面试筛选两个领域,某些部分应该赋予 AI 更大的决策权,以此获得极大的利好。如果对方同学能反驳我方所说的利好,或者举出更大的弊端,那你们得证,否则就是我方得证。
基于此,我方论证如下: 一、在面试筛选的领域,我方主张应该赋予 AI 在初步筛选履历环节的绝对决策权。在当今面试的初始阶段,我们面临人手不足的问题,不得不采用一种畸形的权宜之计,即效度极低的筛选模式。我看过对 HR 的采访,站在企业角度,会收到上万份求职申请,但人力严重不足还要完成工作,只能采用第一学历歧视的方法筛出几百份。而在公务员考核中,广东省人事中心的一项研究也发现,受题目数量和难度的影响,考生在做行测题时基本靠猜。2012 年广州大学的一项研究也显示,企业最关心的工作绩效其实和行测成绩没有什么关联。
因此,我方建议引入 AI 对成百上千的应聘者进行面试,从其实习经验、言行谈吐是否符合企业精神等多个维度进行分析考核。而当下的 AI 确实也能够做到这一点。大语言模型会公开其对选拔的思考过程,例如王某,他参与过我司的暑期实习,对我们的企业文化也非常认可,哪怕他的本科学历有所欠缺,他依然更适配这个工作岗位,这也避免了之前提到的在时间不足情况下对学历的一刀切做法。我方有一位拥有 16 年 HR 工作经验的人员,他对 AI 面试的体验是,认为 AI 是有“灵魂”的,我方后续会展开这个例子。
二、在司法审判的领域,我方主张应该赋予 AI 在基层民事案件纠纷审理部分的绝对决策权。在当今中国,由于法官员额制改革,大量基层法院出现人力短缺,法官与案件数量不成比例,导致审判进度拖慢,法官负担加重。以法检系统为例,2019 年,辽宁省公务员招考中法检系统有大量岗位无人报考。与此同时,民众的法律需求却在不断增加,2014 - 2017 年,全国案件受理量从 1600 万上升至 3640 万,增长了 2.27 倍,但法官数量几乎没有变化。
山东省一个业主跟开发商索要逾期办证违约金的普通民事官司,其实非常简单,很快就能处理完,但在资料充足的情况下,打了 4 年才结案,至今没有执行。因此,我方建议引入 AI,由 AI 对基层法院涉及个人民事侵权的相关案件,如交通事故、债务纠纷等进行审判。原因在于基层法院面临的案件并非难度大,而是数量众多。实际上,AI 法官已经能够处理基层案件,加快案件审理速度。《法制日报》报道指出,温州新昌法庭 AI 全科法官的试点中,一个案件用 AI 只要 10 天就能结案,而且基本实现网上办理,当事人甚至不用来一趟法庭,还能做到同案同判、当庭宣判,也避免了一些人情说情的情况。法官们对此项改革举双手欢迎,案件当事人也纷纷拍手叫好。
基于此,我方认为 AI 在这两个部分能带来明显的利好。一是在人手不足的情况下,避免了一些不得不采取的歧视性做法或权宜之计导致的拖延;二是 AI 可以摆脱人类本身的一些局限性,比如人情世故、偷懒等情况。所以,我方在论证责任上,只要举证在这两个领域的某些部分能够大幅提升 AI 的决策权比重,就是我方得证。
以上,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
AI在面试筛选和司法审判这两个部分能带来明显利好,一是在人手不足时避免歧视性做法或权宜之计导致的拖延,二是摆脱人类本身的局限性,所以只要举证在这两个领域的某些部分能够大幅提升AI的决策权比重,正方观点得证。
正方一辩,你好。我们对于赋予权利的意义,理解似乎不太一样。
我先请问你,你方觉得在封建时代被包办婚姻的女性有决定自己婚姻的权利吗?在封建时代那种完全的包办婚姻制度下,我认为确实没有。因为她们完全是按照父母之命、媒妁之言来决定婚姻的。
那我请问,如果在整个AI做决策的过程中,它完全是按照背后的代码控制来决策,为什么这能叫做有决策的权利?你方不会是认为,因为给了它标准,它按这套标准执行,就等于有决策权,我方不认可这一观点。
我方认为与包办婚姻例子的区别在于,我觉得这有点像女方给了AI一套自己的择偶标准,这样的类比可能更恰当。此时,我方认为AI具有决策权。
对方辩友,媒婆对我的婚姻有决策权吗?如果我给了媒婆一套标准,而且媒婆像人工智能AI这样非常智能,完全按照我这套标准筛选,我认为她有一定权力。就像您方所说的,在面试筛选中,媒婆把那些不符合标准的人都筛选掉了,请问这能算她决定了我的婚姻吗?我方认为,如果媒婆对于标准的执行程度能够像AI这么精准,那这个时候媒婆确实有决策权,相当于你没有其他选择了。比如按照身高一米以上、皮肤白、中国人等标准选了一些人,然后说媒婆决定了我的婚姻。但除了您方之外,应该没人会这么理解这个问题。你觉得是媒婆帮我制定了一套标准,所以她帮我做了决策。但实际上媒婆只是向我推荐了一个人,她只有推荐的权利,没有决策的权利。
您方说在基层法院,可以让AI来判决,没错吧?对,因为基层法院的一个特点是法官有自由裁量权,这部分您方认为可以交给AI。因为那些权责关系很明显,比如交通事故等有明确规定的部分,不需要做价值判断。我觉得在基层案件中,需要做价值判断的情况真的很少,你方可以举证说明,像交通事故、债务纠纷等案件中有哪些需要自由裁量的判断。我方确实一时想不到。对很多证据的采信与否,这应该算是一种价值判断,也要交给AI来做吗?
我觉得您这么问有点含糊。您的意思是不是说有些条件就要有效,银行很担心AI做价值判断,认为AI不能做价值判断,只能做如同加减乘除运算那样的事情,没错吧?认为AI做价值判断有问题,这也是您方的态度。我方认为它确实在那些基础运算方面是强项,但不能完全进行自我价值判断。我方认为“无价值不决策”,这是我方接下来要着重论证的观点,谢谢。
正方一辩,你好。我们对于赋予权利的意义,理解似乎不太一样。
我先请问你,你方觉得在封建时代被包办婚姻的女性有决定自己婚姻的权利吗?在封建时代那种完全的包办婚姻制度下,我认为确实没有。因为她们完全是按照父母之命、媒妁之言来决定婚姻的。
那我请问,如果在整个AI做决策的过程中,它完全是按照背后的代码控制来决策,为什么这能叫做有决策的权利?你方不会是认为,因为给了它标准,它按这套标准执行,就等于有决策权,我方不认可这一观点。
我方认为与包办婚姻例子的区别在于,我觉得这有点像女方给了AI一套自己的择偶标准,这样的类比可能更恰当。此时,我方认为AI具有决策权。
对方辩友,媒婆对我的婚姻有决策权吗?如果我给了媒婆一套标准,而且媒婆像人工智能AI这样非常智能,完全按照我这套标准筛选,我认为她有一定权力。就像您方所说的,在面试筛选中,媒婆把那些不符合标准的人都筛选掉了,请问这能算她决定了我的婚姻吗?我方认为,如果媒婆对于标准的执行程度能够像AI这么精准,那这个时候媒婆确实有决策权,相当于你没有其他选择了。比如按照身高一米以上、皮肤白、中国人等标准选了一些人,然后说媒婆决定了我的婚姻。但除了您方之外,应该没人会这么理解这个问题。你觉得是媒婆帮我制定了一套标准,所以她帮我做了决策。但实际上媒婆只是向我推荐了一个人,她只有推荐的权利,没有决策的权利。
您方说在基层法院,可以让AI来判决,没错吧?对,因为基层法院的一个特点是法官有自由裁量权,这部分您方认为可以交给AI。因为那些权责关系很明显,比如交通事故等有明确规定的部分,不需要做价值判断。我觉得在基层案件中,需要做价值判断的情况真的很少,你方可以举证说明,像交通事故、债务纠纷等案件中有哪些需要自由裁量的判断。我方确实一时想不到。对很多证据的采信与否,这应该算是一种价值判断,也要交给AI来做吗?
我觉得您这么问有点含糊。您的意思是不是说有些条件就要有效,银行很担心AI做价值判断,认为AI不能做价值判断,只能做如同加减乘除运算那样的事情,没错吧?认为AI做价值判断有问题,这也是您方的态度。我方认为它确实在那些基础运算方面是强项,但不能完全进行自我价值判断。我方认为“无价值不决策”,这是我方接下来要着重论证的观点,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方辩友:您好。您方说法律都是价值的体现,比如在交通事故中,交通定责由交警进行,法官将交警的定责加入到法律判决中,以此计算赔偿金额。在此过程中,法官是否并非进行价值抉择?交警只是执法者,这难道不是标准的只执行不决策吗?
所以我想问,您方说在您方的两大场景中,人工智能都能做出更好的选择。就以法律裁量为例,到底什么叫“更好”,这个“好”是如何定义的?
反方辩友:“好”就是更精准。您方说交警是执行人员,但我方讨论的是法官的判决。您方并未否认法官可以进行计算和判决。下面我举一个现状的例子,深圳二级法院连续三年受理案件超70万件,全员长期满负荷运转。若将人工智能引入判决,把交通事故这类简单的计算过程简化,现状是否会改善很多?引入人工智能辅助决策,效率同样会提升。
所以我方想问,您所说的“更精准”究竟是什么意思?人工智能如何进行价值判断?比如,如何区分交通事故中多大程度是无心之失,多大程度是有意为之?作为人工智能,该如何判断?
正方辩友:您方所说的是交警的工作,并非法官的工作。您方也认同要提高效率,只是质疑人工智能不够精准。我方可以给出精准的数据,深圳市中级人民法院人工智能辅助技术负责人表示,将220项中台数据通过训练实现175项诉讼材料后,发现人工智能的提取准确率达到99%以上。既然它如此准确,为何不用它来减轻大家的负担呢?
反方辩友:能准确识别案件中的各项要素,并不意味着能准确给出公允的评价,因为这涉及价值决策。我方的数据显示,在美国引入人工智能辅助决策后,对黑人的误判率比其他人高3倍。正是因为工具理性算法中存在歧视,导致了工具智盲。您所说的“准确”的标准是什么?在价值维度真的存在“准确”这个概念吗?
正方辩友:您所说的数据只能表明人工智能体现了背后判决法官的歧视,您方并未证明人工智能比法官的歧视更严重。我方已经证明人工智能在提取信息时更准确,能减轻工作量,这一点我方已经论证成立,谢谢。
反方辩友:任何涉及决策、自由裁量和价值判断的领域,都无法突破所谓的算法或工具智能。其本质在于人工智能根本没有价值选择。人类法官可以通过接受更良好的法律培训、更明确的法律督察来修正自己的道德规则和价值判断。但人工智能根本无法建立价值判断,所以才会出现我方所说的功利主义情况。以至于您所说的“准确”在决策层面根本就是一个伪概念。因此,正方根本无法论证这道辩题,这才是对方最大的危机。
正方辩友:您好。您方说法律都是价值的体现,比如在交通事故中,交通定责由交警进行,法官将交警的定责加入到法律判决中,以此计算赔偿金额。在此过程中,法官是否并非进行价值抉择?交警只是执法者,这难道不是标准的只执行不决策吗?
所以我想问,您方说在您方的两大场景中,人工智能都能做出更好的选择。就以法律裁量为例,到底什么叫“更好”,这个“好”是如何定义的?
反方辩友:“好”就是更精准。您方说交警是执行人员,但我方讨论的是法官的判决。您方并未否认法官可以进行计算和判决。下面我举一个现状的例子,深圳二级法院连续三年受理案件超70万件,全员长期满负荷运转。若将人工智能引入判决,把交通事故这类简单的计算过程简化,现状是否会改善很多?引入人工智能辅助决策,效率同样会提升。
所以我方想问,您所说的“更精准”究竟是什么意思?人工智能如何进行价值判断?比如,如何区分交通事故中多大程度是无心之失,多大程度是有意为之?作为人工智能,该如何判断?
正方辩友:您方所说的是交警的工作,并非法官的工作。您方也认同要提高效率,只是质疑人工智能不够精准。我方可以给出精准的数据,深圳市中级人民法院人工智能辅助技术负责人表示,将220项中台数据通过训练实现175项诉讼材料后,发现人工智能的提取准确率达到99%以上。既然它如此准确,为何不用它来减轻大家的负担呢?
反方辩友:能准确识别案件中的各项要素,并不意味着能准确给出公允的评价,因为这涉及价值决策。我方的数据显示,在美国引入人工智能辅助决策后,对黑人的误判率比其他人高3倍。正是因为工具理性算法中存在歧视,导致了工具智盲。您所说的“准确”的标准是什么?在价值维度真的存在“准确”这个概念吗?
正方辩友:您所说的数据只能表明人工智能体现了背后判决法官的歧视,您方并未证明人工智能比法官的歧视更严重。我方已经证明人工智能在提取信息时更准确,能减轻工作量,这一点我方已经论证成立,谢谢。
反方辩友:任何涉及决策、自由裁量和价值判断的领域,都无法突破所谓的算法或工具智能。其本质在于人工智能根本没有价值选择。人类法官可以通过接受更良好的法律培训、更明确的法律督察来修正自己的道德规则和价值判断。但人工智能根本无法建立价值判断,所以才会出现我方所说的功利主义情况。以至于您所说的“准确”在决策层面根本就是一个伪概念。因此,正方根本无法论证这道辩题,这才是对方最大的危机。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
谢谢各位。对方今天最大的问题是,他们所有的论证压根就不叫决策。何为决策?有选择的情况下才叫决策。对方为何把场景限定得如此狭小、描述得如此精确?在那个场景里,只有算出最优解并去执行这一种可能,这需要我们决策什么呢?需要我们选择什么呢?这不就是按部就班、按图索骥地去执行、去完成就好了吗?
所以,对方讲的无非是AI能够提高人类的工作效率,没有人否认这一点,AI是生产力。可是,当涉及到决策层,当效率不再是唯一的考量时,在涉及任何自由裁量、价值选择、人生判断等重大事项时,最终做决定的还是人。这也就是为什么我可以让朋友或者媒婆给我介绍对象,但他们决定不了我的人生大事,我的人生大事还是握在自己手里。正是因为对方在论证义务上,压根就没有论证己方观点。这是第一个问题。
而第二个问题,深入对方提出的两大场景,我们也发现,在对方的立场下,这两大场景里,AI是绝不可能拥有决策权的。你能让一个公司由AI来决定什么样的人更适合这个公司吗?明明公司计划今年要招很多人,可是AI决策后的结果,你敢不敢接受它说“今年就不要再招人了”?明明公司今年打算降本裁员,AI却对市场持乐观预期,说“再多招100人进来”,你会把公司的这种决策权交给AI吗?想必对方也不敢。
而这正是涉及到战略方向、价值判断、选择等真正的决策层面。这也正是我方指出的,因为AI没有自身的价值偏好,没有明确的价值选择,甚至没有做出价值选择的能力,所以算法永远无法突破。不知道对方是如何将人类的社会行为和这部分做比较的,我们没听到相关比较内容。而且,就算人类存在社会行为,在你所说的AI如此准确的情况下,AI不拥有决策权,也不但可以辅助我们决策,还能辅助监测和监察。所以,种种改变不把决策权交给AI也都能达成。而最后的价值危机这件事,是对方要面对的挑战。
谢谢各位。对方今天最大的问题是,他们所有的论证压根就不叫决策。何为决策?有选择的情况下才叫决策。对方为何把场景限定得如此狭小、描述得如此精确?在那个场景里,只有算出最优解并去执行这一种可能,这需要我们决策什么呢?需要我们选择什么呢?这不就是按部就班、按图索骥地去执行、去完成就好了吗?
所以,对方讲的无非是AI能够提高人类的工作效率,没有人否认这一点,AI是生产力。可是,当涉及到决策层,当效率不再是唯一的考量时,在涉及任何自由裁量、价值选择、人生判断等重大事项时,最终做决定的还是人。这也就是为什么我可以让朋友或者媒婆给我介绍对象,但他们决定不了我的人生大事,我的人生大事还是握在自己手里。正是因为对方在论证义务上,压根就没有论证己方观点。这是第一个问题。
而第二个问题,深入对方提出的两大场景,我们也发现,在对方的立场下,这两大场景里,AI是绝不可能拥有决策权的。你能让一个公司由AI来决定什么样的人更适合这个公司吗?明明公司计划今年要招很多人,可是AI决策后的结果,你敢不敢接受它说“今年就不要再招人了”?明明公司今年打算降本裁员,AI却对市场持乐观预期,说“再多招100人进来”,你会把公司的这种决策权交给AI吗?想必对方也不敢。
而这正是涉及到战略方向、价值判断、选择等真正的决策层面。这也正是我方指出的,因为AI没有自身的价值偏好,没有明确的价值选择,甚至没有做出价值选择的能力,所以算法永远无法突破。不知道对方是如何将人类的社会行为和这部分做比较的,我们没听到相关比较内容。而且,就算人类存在社会行为,在你所说的AI如此准确的情况下,AI不拥有决策权,也不但可以辅助我们决策,还能辅助监测和监察。所以,种种改变不把决策权交给AI也都能达成。而最后的价值危机这件事,是对方要面对的挑战。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
强调AI是生产力,能提高人类工作效率,但在涉及自由裁量、价值选择等重大事项时,最终做决定的还是人。同时指出不把决策权交给AI,AI也能辅助决策、监测和监察。
正方三辩:我先试个音,我声音可能比较小,能听得清楚吗? 反方二辩:听得很清楚。
正方三辩:先请问反方一辩,你方观点是,因为人工智能被代码掌控,它只是在执行人类设定的原则,所以人工智能在概念上和决策权不能共存,对吧? 反方一辩:我刚讲的不只是这个,概念上本身就不应认可这一点,就是按照你的说法,它按照代码运行,在概念上人工智能就不存在决策权这件事。
正方三辩:那我来问反方二辩,为什么你的一辩稿里能承认脸书这个人工智能是有决策权的? 反方二辩:我刚说的是不应该把任何自由意志覆盖的部分由人工智能来覆盖,在概念上不是你所指出的那个人工智能。
正方三辩:你明明能承认它是有决策权的,它依然是按照代码在运行,所以我觉得你纯粹是在混淆论点。没关系,我换个问题,今天我吃什么,人工智能可以参与我的决策权吧? 反方二辩:是可以。但是它也是根据我到底喜欢吃什么这些原则,刻在我脑子里的这些思维回路来确定的,我不觉得谁比谁高贵。
正方三辩:那我接着往下问。你方第二个重要论点是,使用人工智能会增加偏见和歧视。我给你举证,美国算法在保释决策里统计显示,它的种族偏见率是人类法官的一半,你方的举证是什么? 反方二辩:第一件事情,我方讲的是在整体的判案对比当中,与保释无关,我方举的是宏观的司法案例,所以你这个没有参考价值。
正方三辩:没关系,我刚刚举的是宏观的司法案例。接下来,在改进招聘人工智能的时候,用人工智能筛选时可以强行删除所有的性别关联词,加入公平性约束,使性别偏见率从12%降到3.5%,你告诉我人类怎么做到? 反方二辩:你刚才讲的一切不都是人类决策后让人工智能来执行吗?
正方三辩:回到我的定义之下,你也承认人工智能反而降低了偏见和歧视。那我接着往下问,有哪一个法官会愿意公开承认自己歧视黑人? 反方二辩:你的定义不叫歧视,而且我方举证了更多存在歧视的情况。
正方三辩:没问题,所以现在恰恰是法官不愿意公开承认,但内心会践行歧视的标准。如果我今天告诉你,人工智能这个模型可以展现它的思考过程,它是公开透明、可受检验的,它里面的代码是可以修正的,是不是恰恰可以执行公开的不歧视大家的标准? 反方二辩:你讲的这些和决策有什么关系吗?还是回到定义的问题,如果我方定义成立了,那下面这些你全都得认可。
正方三辩:没关系,我来问反方二辩,你告诉我,今天你建议让人工智能辅助决策,辅助和决策的区别是什么? 反方二辩:这就是参谋和首长的区别。
正方三辩:反方四辩,今天人工智能诊断结果和我的判断不一样,听谁的? 反方四辩:这就像媒婆和我的区别。
正方三辩:所以说你其实根本没有享受到人工智能辅助的好处。辅助和决策一定是并行的,谢谢。
正方三辩:我先试个音,我声音可能比较小,能听得清楚吗? 反方二辩:听得很清楚。
正方三辩:先请问反方一辩,你方观点是,因为人工智能被代码掌控,它只是在执行人类设定的原则,所以人工智能在概念上和决策权不能共存,对吧? 反方一辩:我刚讲的不只是这个,概念上本身就不应认可这一点,就是按照你的说法,它按照代码运行,在概念上人工智能就不存在决策权这件事。
正方三辩:那我来问反方二辩,为什么你的一辩稿里能承认脸书这个人工智能是有决策权的? 反方二辩:我刚说的是不应该把任何自由意志覆盖的部分由人工智能来覆盖,在概念上不是你所指出的那个人工智能。
正方三辩:你明明能承认它是有决策权的,它依然是按照代码在运行,所以我觉得你纯粹是在混淆论点。没关系,我换个问题,今天我吃什么,人工智能可以参与我的决策权吧? 反方二辩:是可以。但是它也是根据我到底喜欢吃什么这些原则,刻在我脑子里的这些思维回路来确定的,我不觉得谁比谁高贵。
正方三辩:那我接着往下问。你方第二个重要论点是,使用人工智能会增加偏见和歧视。我给你举证,美国算法在保释决策里统计显示,它的种族偏见率是人类法官的一半,你方的举证是什么? 反方二辩:第一件事情,我方讲的是在整体的判案对比当中,与保释无关,我方举的是宏观的司法案例,所以你这个没有参考价值。
正方三辩:没关系,我刚刚举的是宏观的司法案例。接下来,在改进招聘人工智能的时候,用人工智能筛选时可以强行删除所有的性别关联词,加入公平性约束,使性别偏见率从12%降到3.5%,你告诉我人类怎么做到? 反方二辩:你刚才讲的一切不都是人类决策后让人工智能来执行吗?
正方三辩:回到我的定义之下,你也承认人工智能反而降低了偏见和歧视。那我接着往下问,有哪一个法官会愿意公开承认自己歧视黑人? 反方二辩:你的定义不叫歧视,而且我方举证了更多存在歧视的情况。
正方三辩:没问题,所以现在恰恰是法官不愿意公开承认,但内心会践行歧视的标准。如果我今天告诉你,人工智能这个模型可以展现它的思考过程,它是公开透明、可受检验的,它里面的代码是可以修正的,是不是恰恰可以执行公开的不歧视大家的标准? 反方二辩:你讲的这些和决策有什么关系吗?还是回到定义的问题,如果我方定义成立了,那下面这些你全都得认可。
正方三辩:没关系,我来问反方二辩,你告诉我,今天你建议让人工智能辅助决策,辅助和决策的区别是什么? 反方二辩:这就是参谋和首长的区别。
正方三辩:反方四辩,今天人工智能诊断结果和我的判断不一样,听谁的? 反方四辩:这就像媒婆和我的区别。
正方三辩:所以说你其实根本没有享受到人工智能辅助的好处。辅助和决策一定是并行的,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
反方三辩:正方辩手,您方观点是人工智能作为参谋不具备决策权,对吧?
正方一辩:对,我觉得这是一个原则和例外的情况。就比如达成共识,如果人工智能只是帮我们提供信息、筛选信息,而不做出最后的决策,就不具备决策权。我想请问,在公司法律事务中,人工智能帮我筛选信息、分析证据,为什么这个时候要额外让它帮我做决策,额外效益是什么?
正方二辩:额外的效益就是,法官若不分析材料,怎么能做出比人工智能更好的决策呢?人工智能帮助分析完材料,法官浏览后做价值判断,为什么不可以?
反方三辩:不对,我今天讲的是在低级法院阶段,有很多其他案件,人工智能直接做决策、下判决。您方说人工智能可以做,但没有论证人工智能做参谋比做决策差在哪,也未完成额外利益的论证。我进一步请教,您方提到有很多人类会贪赃受贿,对吧?
正方二辩:对,没问题。
反方三辩:人工智能做监察并散布决策,把贪赃受贿的证据搞出来交给监察院,可不可以?从源头上解决问题不是更好吗?到目前为止,正方没有论证任何决策权带来的额外优势,那我来论证决策权带来了什么额外的劣势。我想请问,在法院的案例中,比如一个老人因意外撞了一辆奔驰豪车,此时要减轻其责任,请问人工智能怎么在这里做出精准的价值判断,法院应该怎么判?
正方四辩:原则输入进去它就怎么判呀。
反方三辩:法院在这里的判断是法官根据自己的常识推理。请问一个无辜老人撞了奔驰车,哪条法理说应该减轻责任?
正方四辩:对方辩友,法官不是通过常理,而是依据法条判案,这有什么问题?
反方三辩:那请您说说,我刚才说的那个案件里法条是怎么写的?
正方四辩:对方辩友,您要知道,法庭上对于故意杀人也是通过行为来判断,老人是无心撞伤他人,同样是依据行为判断,法官也不可能进行“诛心”判断。所以本质上这也是一个事实情况,当很多事实不清晰或事实清晰但价值有分歧的情况交给人工智能,就是用人工智能的价值观覆盖人类的价值观,这是我方论证的第一种不可取之处。我再论证第二种不可取之处,现在由于人工智能可以自主决策给用户推送什么样的信息,它判断推送种族歧视类的信息更容易获得用户量,这就导致了缅甸的大量大屠杀出现,请问这种自主决策有什么好处?
正方二辩:第一,您这个例子也承认决策权有一个原则,也可以是决策权。第二,我方讲了,哪怕有不良的人工智能,它的逻辑更容易被检验。比如法官歧视黑人,他心里歧视但表面不说,无法检验他,但人工智能至少是可检验的,这也是人工智能的一个更大好处。
反方三辩:所以人类的问题可以通过人工智能的监察来解决,但人工智能的问题由于它根本不报告给人类决策,一个有良知的正常人类审查官不会发现这件事情,就会导致更多的歧视、更多的屠杀现象出现,这部分决策权我方认为应该收回。第三个层次,现状是在暗网已经流通了很多自主决策、随意攻击用户的人工智能,您方觉得要不要收回决策权?
正方二辩:不会,它会展示它的思考过程。对于自主决策的人工智能,我们把它调好,让它更好地为人类服务。
反方三辩:换言之,对于在暗网攻击人类的人工智能,您方所谓的调教就是让它不要攻击,整体上应更多地收回它的决策权,而不是更多地赋予,谢谢。
反方三辩:正方辩手,您方观点是人工智能作为参谋不具备决策权,对吧?
正方一辩:对,我觉得这是一个原则和例外的情况。就比如达成共识,如果人工智能只是帮我们提供信息、筛选信息,而不做出最后的决策,就不具备决策权。我想请问,在公司法律事务中,人工智能帮我筛选信息、分析证据,为什么这个时候要额外让它帮我做决策,额外效益是什么?
正方二辩:额外的效益就是,法官若不分析材料,怎么能做出比人工智能更好的决策呢?人工智能帮助分析完材料,法官浏览后做价值判断,为什么不可以?
反方三辩:不对,我今天讲的是在低级法院阶段,有很多其他案件,人工智能直接做决策、下判决。您方说人工智能可以做,但没有论证人工智能做参谋比做决策差在哪,也未完成额外利益的论证。我进一步请教,您方提到有很多人类会贪赃受贿,对吧?
正方二辩:对,没问题。
反方三辩:人工智能做监察并散布决策,把贪赃受贿的证据搞出来交给监察院,可不可以?从源头上解决问题不是更好吗?到目前为止,正方没有论证任何决策权带来的额外优势,那我来论证决策权带来了什么额外的劣势。我想请问,在法院的案例中,比如一个老人因意外撞了一辆奔驰豪车,此时要减轻其责任,请问人工智能怎么在这里做出精准的价值判断,法院应该怎么判?
正方四辩:原则输入进去它就怎么判呀。
反方三辩:法院在这里的判断是法官根据自己的常识推理。请问一个无辜老人撞了奔驰车,哪条法理说应该减轻责任?
正方四辩:对方辩友,法官不是通过常理,而是依据法条判案,这有什么问题?
反方三辩:那请您说说,我刚才说的那个案件里法条是怎么写的?
正方四辩:对方辩友,您要知道,法庭上对于故意杀人也是通过行为来判断,老人是无心撞伤他人,同样是依据行为判断,法官也不可能进行“诛心”判断。所以本质上这也是一个事实情况,当很多事实不清晰或事实清晰但价值有分歧的情况交给人工智能,就是用人工智能的价值观覆盖人类的价值观,这是我方论证的第一种不可取之处。我再论证第二种不可取之处,现在由于人工智能可以自主决策给用户推送什么样的信息,它判断推送种族歧视类的信息更容易获得用户量,这就导致了缅甸的大量大屠杀出现,请问这种自主决策有什么好处?
正方二辩:第一,您这个例子也承认决策权有一个原则,也可以是决策权。第二,我方讲了,哪怕有不良的人工智能,它的逻辑更容易被检验。比如法官歧视黑人,他心里歧视但表面不说,无法检验他,但人工智能至少是可检验的,这也是人工智能的一个更大好处。
反方三辩:所以人类的问题可以通过人工智能的监察来解决,但人工智能的问题由于它根本不报告给人类决策,一个有良知的正常人类审查官不会发现这件事情,就会导致更多的歧视、更多的屠杀现象出现,这部分决策权我方认为应该收回。第三个层次,现状是在暗网已经流通了很多自主决策、随意攻击用户的人工智能,您方觉得要不要收回决策权?
正方二辩:不会,它会展示它的思考过程。对于自主决策的人工智能,我们把它调好,让它更好地为人类服务。
反方三辩:换言之,对于在暗网攻击人类的人工智能,您方所谓的调教就是让它不要攻击,整体上应更多地收回它的决策权,而不是更多地赋予,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
对方定义说到最后,其实就是AI不是人,它按照代码运行,所以没有决策权。而我方认为更合理的标准是在某个特定情况下是否有强制力。例如在面试筛选过程中,它不经过人工干预就将人筛掉,这表明它具备决策能力,我方认为这一标准更为合理。
接着,对方提到让法官浏览相关内容。但现实中,人们可能并不想进行浏览。以山东的一个案子为例,如此简单的案件却导致当事人被羁押4年。况且,我方退一步讲,如果有些问题必须经过道德层面才能解决,那可以增加一个机制。若当事人实在不服,可以上诉,上诉后再去排队等待处理,至少这样做没有坏处。
再接着,对方主要强调的是增加歧视的问题。然而,AI和人类最大的区别在于,AI透明可公开,而人类的想法难以捉摸。当下最大的不公平恰恰源于潜在的歧视。人们不会嘴上说不欢迎黑人、不欢迎LGBT群体,还会公开表示自己没有偏见,但却会以难以察觉的方式践行偏见。比如不会直说因为某人是女权主义者而不录用,而是称其工作态度不行、学术能力不足。但AI的标准严格按照代码模型执行,且这个模型可以公开接受检验。根据欧盟的AI法案,对于高风险AI系统,如招聘、司法领域,必须提供可解释性报告,允许第三方检测算法偏见,这是双方观点的最大区别。
最后,对方可能认为人类在一定程度上也能摒弃这种偏见,但这会引发更大的问题。比如我的欧美同学常抱怨职场上的政治正确现象,仅仅因为她是女性就获得升迁或录取。我不知道这是否属实,但我有解决办法,即引入AI,让其严格遵照公平的代码运行,让所有人都明白,被录取或得到晋升是因为折算后的分数更突出,这才是真正意义上连美国人都无法质疑的公平性。
谢谢!
对方定义说到最后,其实就是AI不是人,它按照代码运行,所以没有决策权。而我方认为更合理的标准是在某个特定情况下是否有强制力。例如在面试筛选过程中,它不经过人工干预就将人筛掉,这表明它具备决策能力,我方认为这一标准更为合理。
接着,对方提到让法官浏览相关内容。但现实中,人们可能并不想进行浏览。以山东的一个案子为例,如此简单的案件却导致当事人被羁押4年。况且,我方退一步讲,如果有些问题必须经过道德层面才能解决,那可以增加一个机制。若当事人实在不服,可以上诉,上诉后再去排队等待处理,至少这样做没有坏处。
再接着,对方主要强调的是增加歧视的问题。然而,AI和人类最大的区别在于,AI透明可公开,而人类的想法难以捉摸。当下最大的不公平恰恰源于潜在的歧视。人们不会嘴上说不欢迎黑人、不欢迎LGBT群体,还会公开表示自己没有偏见,但却会以难以察觉的方式践行偏见。比如不会直说因为某人是女权主义者而不录用,而是称其工作态度不行、学术能力不足。但AI的标准严格按照代码模型执行,且这个模型可以公开接受检验。根据欧盟的AI法案,对于高风险AI系统,如招聘、司法领域,必须提供可解释性报告,允许第三方检测算法偏见,这是双方观点的最大区别。
最后,对方可能认为人类在一定程度上也能摒弃这种偏见,但这会引发更大的问题。比如我的欧美同学常抱怨职场上的政治正确现象,仅仅因为她是女性就获得升迁或录取。我不知道这是否属实,但我有解决办法,即引入AI,让其严格遵照公平的代码运行,让所有人都明白,被录取或得到晋升是因为折算后的分数更突出,这才是真正意义上连美国人都无法质疑的公平性。
谢谢!
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
基本上,辅助决策与决策逻辑在参谋的例子里,在媒婆的例子里都比较清晰。它只是帮我筛选信息,但我要不要这个男人,我要不要这项决策,我说了算,决策权在我。而如果是媒婆帮我说了算,她讲这个男人你必须嫁,那才是决策权在她。而我方认为不能让 AI 这么做,这是第一个部分。
第二部分,对方想说 AI 的代码逻辑是公开的,似乎没有决策权。我给大家举个例子,一个女生把自己的婚恋观一条条,把她的大脑神经元一条条分析出来,她的父母再一个个地看,说这条不满意删掉,这条不满意改一下,这条不满意再删掉。我想请问,这个女生对她的婚恋真的有决策权吗?她的所有看似都是她大脑中的信息,本质上是她的父母为她做了每一个绝对性质的决策,这个时候这个女生是没有婚恋决策权的。所以在这个地方,对方越讲 AI 的代码是公开的,就越证明 AI 是没有决策权的。
而第三个部分,也就是对方讲的浏览信息的高效率。说实话,无论是在法庭审判,还是在对方讲的人力筛选上,我们真的无法分析这些信息吗?我们无法判断这些证据吗?而这个时候 AI 已经帮我判断好了,这个人有什么证据,那个人有什么证据,这些证据的可信度有多少,我来决策这些证据。最后在自由裁量时,这个老人该被判 5 年还是 3 年,赔 10 万还是 8 万,这些真正属于价值的、属于决策的部分,我们认为交给人类不但无损于效率,反而有助于提升人类对于人类社会的掌控,这是第三个部分。
第四个部分,对方在这场比赛中没有做比较。他们充其量论证了有些地方我们应该扩大辅助,可是反方明确地指出了,在脸书已经使用了种族袭杀式的推送与决策,在暗网当中已经使用了超级 CPD 这种自主恶意攻击式的决策。在这部分,正方完全承认应当收回决策。所以在这部分,正方哪怕按照他们的立论,也没有比较到底应该扩大决策还是收回决策。而反方在这里态度非常明确,当人工智能不具备像人类这样成熟的价值观的时候,它的所有决策在价值程度上要么呈现出无限恶意,要么呈现出无限随机,这时应该收回所有的决策权,完全交给人类做价值判断,这样才会更好。谢谢。
基本上,辅助决策与决策逻辑在参谋的例子里,在媒婆的例子里都比较清晰。它只是帮我筛选信息,但我要不要这个男人,我要不要这项决策,我说了算,决策权在我。而如果是媒婆帮我说了算,她讲这个男人你必须嫁,那才是决策权在她。而我方认为不能让 AI 这么做,这是第一个部分。
第二部分,对方想说 AI 的代码逻辑是公开的,似乎没有决策权。我给大家举个例子,一个女生把自己的婚恋观一条条,把她的大脑神经元一条条分析出来,她的父母再一个个地看,说这条不满意删掉,这条不满意改一下,这条不满意再删掉。我想请问,这个女生对她的婚恋真的有决策权吗?她的所有看似都是她大脑中的信息,本质上是她的父母为她做了每一个绝对性质的决策,这个时候这个女生是没有婚恋决策权的。所以在这个地方,对方越讲 AI 的代码是公开的,就越证明 AI 是没有决策权的。
而第三个部分,也就是对方讲的浏览信息的高效率。说实话,无论是在法庭审判,还是在对方讲的人力筛选上,我们真的无法分析这些信息吗?我们无法判断这些证据吗?而这个时候 AI 已经帮我判断好了,这个人有什么证据,那个人有什么证据,这些证据的可信度有多少,我来决策这些证据。最后在自由裁量时,这个老人该被判 5 年还是 3 年,赔 10 万还是 8 万,这些真正属于价值的、属于决策的部分,我们认为交给人类不但无损于效率,反而有助于提升人类对于人类社会的掌控,这是第三个部分。
第四个部分,对方在这场比赛中没有做比较。他们充其量论证了有些地方我们应该扩大辅助,可是反方明确地指出了,在脸书已经使用了种族袭杀式的推送与决策,在暗网当中已经使用了超级 CPD 这种自主恶意攻击式的决策。在这部分,正方完全承认应当收回决策。所以在这部分,正方哪怕按照他们的立论,也没有比较到底应该扩大决策还是收回决策。而反方在这里态度非常明确,当人工智能不具备像人类这样成熟的价值观的时候,它的所有决策在价值程度上要么呈现出无限恶意,要么呈现出无限随机,这时应该收回所有的决策权,完全交给人类做价值判断,这样才会更好。谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)