例如,《在恋爱关系中,应该追求等价的付出·在恋爱关系中,不应该追求等价的付出》一题,辩之竹内共收录26场比赛。我们为您提供这26场比赛的论点、判断标准提取,以及总计数百条论据的提取,还有Deepseek的辩题分析。这可以帮您更好备赛。
欢迎您点击下方按钮,前往查看。
点点。好的,那就首先。有请正方一辩。你把麦关下,关掉了。确认一下那个。第一个论点的举证是说,人在职场中的情绪并没有极其好使吧?没了。反应速度、危机情况都属于。人在紧急出发到先进个选择是对吧。是我的数据提供,80%人会犹豫的,这论我多么会感。首先确实人在天发生突变的情况是指定的,保证是我几个小时时际算计的结果,两个行为的定结果一定是这样的,然后确定完毕。我了,他不知道在干啥。人不一定是红的,人是会变化的,我建议进,我问一下你没有别的个意,您在电车站会怎么选?前方是人,右边是一个。过这么多车,走好最远的路线吧。不知道该做啥,您会怎么写?不是走好,你得选电视球放是。电视放就是之前。这条路上走出来的事情。应该放。同是他为他交,他应该能增加,而我给你举是80%,没有办法做这样的80%的选择思想实际中到人什么没人不知道,所以刚才选择你说该什就怎么样,听起来讲比较像是默认的情况,为什么在默认情况中一定要得干预的?就没有听过的举证。第一举证是在极端危急情况下。大部分的。相当甚至百分没有办法,我告诉你80%会到是在那个什么,你都会更加清晰,还是问题,你那个数据一定是切实的,一定个是求影响最终调查问卷,如果你遇到紧急情况,你怎么选择,是在你性安全情况,是我们具体的话,你商完之后可能会撞车,会撞的了一个人,如果那一个人你被撞的车那天你突然发现是你7点开会撞到一个人吗?身上素不让一激动,对各种断的丧尸判断。我只跟你说火焰自身怎么样。如果你要从大部分人选择。因为我没有办法拒绝那些凸起来的,就是肯定撞出来的车还是人。可以,这个我的意思是你在做这个选平你的,你的利好之说,我会更符合我预期,我打的是我也意识你的预期会变,所以即便你选择个预期,也就不一定是你这边显最第的。
但二确认一下,其实大家都可以告诉我说要尽行尊重用人告德西只能全大概就算。我是让AI去做决策。道德尊重,道德自由。销售。我给你两个第一是的学,他对数百个政策,民众都认为乘客在享受决策权,因为这个汽车本身是交给乘客,是一个消费者。步是计划学。所以。好,路上只有你一辆车,如果路上有两辆车,左边的小预售了,右,右边的预售相撞,凭借了不重要,凭借了一条一样的话就。不要发生。你没有回答我的问题,你没有回答我的问题,我的意思是你在尊重道德选择的时候,你要看这种道德选择会不会引发困扰,这是第一件事。第二个是到底这个选项能不能尊重,真的尊重每一个人的选项,即便是义务人,即便是后伙人,也有分散复杂无数的细化的选择,人的道德选择权到底怎么尊重的时代能够认这第三个确认的是,比方说提交不同的规则和确认论题,我没听说吧?做出了速度的。不行洗写一下吧。预我车的这个行为你没有听清,因为你没有听清楚问题预设王座预设网友,没有人说错,这是道德选择,但他们会成这一种事度道德和自由的背后可能会导致混乱,光不是是其因和在我上一次确认问题是说更方面规则顺超利好,第三个就错了。甚至也会产生事故啊,这个个南京本车嘛,对啊。如果有人利用了这种在道德中的偏好,制造一起诉入其杀人,最后分辨时得是故意的还是故意的,还是妻子的,这就这种规则是在这个代码里面在注。就是谁去说谁负责任。预色是看不出故意杀人的,他可以说我这个选择是我的道德选择,可是利用了道德选择实证的故意杀人,而分辨的出这是不是故意的,是追责的问题,会劝告这个自杀。
下面有请反方一辩陈词。一个用一个麦和主机,然后谢谢主席问候在场各位。无人驾驶技术只通过智能技术与控制系统综合运用,使载具在无需人类驾驶员直接操控的情况下自主感知环境等等。在当下辩题中提到,电车难题仍然是需要人类驾驶员完全自主抉择的领域,因此,今天双方所探讨的更是基于设想的未来高度自动驾驶甚至全自动驾驶的情景下的问题。基于此,我方展开论点如下,电车难题本质上是一个思想实验或思想模型,现实情况纷繁复杂,驾驶员为达成某种最优结果心情的决策偏好预设。可是在极端情况出现之后,你做出的选择并不是你以为的预设。如比利时芬的大学老鼠实验中,分思想和真实行动两组,有18%的人在真实情况下,其实并没有做出我以为会选功民主义的预设,即在真实的责任压力下可能失效。实验中部分被试坦言面对活体生物时想到宠物或手抖,情感意识理性,所以电车难题在思想上的实验和真实的行为选择会有很大差别。所以正方立场下,驾驶员以为自己会坚定的选择那一个人去牺牲,但当中看到那一个人长得很像我外祖母的时候,他会由于纠结而是去判断,从而一直不断的根据自己可能遇到的实际情况进行预设,但事实上根本预设不完。如MIT moral machine研究指出,仅当将十几种不同权重的偏好组合起来,就会产生数百万种的可能场景,传统方法无一逐一雄举或训练模型处理。
所以我方认为,正方立场下的预设决策偏好根本是不切实际的。第二,无人驾驶系统的默认预设是基于无数次车企政企测算10分的普遍规则,社会也不会因此混乱。北京晚高峰一小时就产生约588万条GPS轨迹点,对应三百三万三万三六千三百六十三个公交站点与784条线路动态余合。可以看到道路交通不是一辆车子的事情,路上不止我一辆车,两辆车并排,左边的小预售了,右,右边的预售相撞,凭借了不重要,凭借了一条一样的话就。不要发生。你没有回答我的问题,你没有回答我的问题,我的意思是你在尊重道德选择的时候,你要看这种道德选择会不会引发困扰,这是第一件事。第二个是到底这个选项能不能尊重,真的尊重每一个人的选项,即便是义务人,即便是后伙人,也有分散复杂无数的细化的选择,人的道德选择权到底怎么尊重的时代能够认这第三个确认的是,比方说提交不同的规则和确认论题,我没听说吧?做出了速度的。不行洗写一下吧。预我车的这个行为你没有听清,因为你没有听清楚问题预设王座预设网友,没有人说错,这是道德选择,但他们会成这一种事度道德和自由的背后可能会导致混乱,光不是是其因和在我上一次确认问题是说更方面规则顺超利好,第三个就错了。甚至也会产生事故啊,这个个南京本车嘛,对啊。如果有人利用了这种在道德中的偏好,制造一起诉入其杀人,最后分辨时得是故意的还是故意的,还是妻子的,这就这种规则是在这个代码里面在注。就是谁去说谁负责任。预色是看不出故意杀人的,他可以说我这个选择是我的道德选择,可是利用了道德选择实证的故意杀人,而分辨的出这是不是故意的,是追责的问题,会劝告这个自杀。
下面有请正方四辩质询反方一辩。嗯,可以听到。当下对啊,可以更改啊。允许预设就证明给了这个人的选择权。但是他往往的选择会在后边。这个系统怎么处理它,它肯定我觉得在目前技术层面来讲,要比一个人处理的要好,所以没必要让人再去处理了。因为它是让速不让道的,他他只会减缓速度,然后就没有电车难题,这种情况出现了。可是AI目前的最优解。我也相信在未来技术会更完善更发展的时候,根本不会出现电车难题这种情况。往前开啊。当然当然的知道。都有可能,所以我们要一个默认的去作为他会更安全,更保险一点,这是我方认为的。
可是,AI.当然。灾难最大化,可是这种情况下,两个车他们设定的都是一个最好的结果,就是按按系统默认来说,所以我觉得他们会减缓速度,并不会产生你这样的问题。我方真的统一标准是完全符合交通规法规的,以及有公已经已经出台的相关的政策规定的统一标准,所以不会出现您方刚刚所说的那些情况。
感谢下面有请正方二辩陈词。可以听到吗?嗯。首先您要是说人当场蒙圈,所以我们应该把选择交给AI,对不对?那这和提前预备预设选项有什么关系?我用默认选项不可以吗?我预设了AI才能做出最符合我预期的选择,或者选项就是我撞死谁了?不都是被AI绑架了吗?这些的时候你发现了吗?为什么只有我预设了AI才不会撞死人,我不预设厂家出厂设置的默认就是会让他撞死人吗?这是电车难题,默认你必须要撞死人,无论是撞多撞少,或者撞他人还是撞自己的区别,嗯,对啊,所以这个时候发现了呢,我们不管是人做选择还是AI做选择,我们都会导致一些人的死亡,并且这件事情跟有没有预设没有关系,人这个时候做不了选择,我们就把它交给AI的默认选项,其实这个上面我们没有分析,那我接下来跟你聊预示的这件事情,您刚刚所说的是我刚开始记这个预事,我一定更改它,对不对?那你的遇事无非就是道德绑架上呀,绑架这个驾驶员好,关于默认默认默认选项是怎么给出的,我们后后面会这个,你先回答我吧,就是不是现场很蒙圈,所以就是就是我我可以改他。大部分的情况下,人类没法做出一个理性选择,而且性能做更好,对以吗?所以这个时候你发现了吗?在具体情况的时候,我们很懵,明圈根本就没有办法像你方所所说的,我先预设一个选项,根据这场情况我在改变我的选项,所以这个时候你发现了吗?我们先前预设的和我们后天真实看到这个路况里,我们眼眼前的这个人,复杂的这个人,他他究竟是谁,我们这个时候做出的选择他是不一样的,并且我们是没有办法更改的。
那再问您第三件事情好了,您刚刚所说的就是会有一个追责难的问题,电车难题里会出现什么违法行为啊?你想改变的时候,但凡你能反应过来方向盘往哪开,那这个时候您说的是我们应该接管自动驾驶,对吧?所以这个时候您和您的第一个论点要冲突了,因为你说这个时候人类反应不过来,并该由人类做判断,我觉到这里您回答我电车难题会出现什么样的违法情况?想改的时候随时接管,不想改的时候交给AI,这不是我放的地方,给他交给AI,所以不用预设,因为你想改的时候,你随时可以接管,不用提前预设,你回答我吧,会出现什么违法情况。是你,你刚刚所说的是有个追责难的问题,在电视难题里我会出现需要什么情况下需要追责啊?这不是你方自己手机己的例子吗?说一个人要去预谋杀,哎,你方统一设,这是你的第二个论点的利好,你说预设了可以这个权责分明,我这个什么情况下,到底什么情况下是违法,这这车难题会出现什么样的违法情况?我把浮动不就是我失误撞,就是我选择撞向了其他的行人吗?那他本身没有太高分子的话,我是需要什么样行人走,而这如果是浮动,那我那我撞行人违法,那我撞谁不违法?我撞下另一个人就不违法了,对吧?我责任需要承担的高低有区别。嗯,所以你的意思是我们每个人通过预设,我们可以给自己预设一个是就是责任上的问题,我们的跟文意再解释一下吗?我觉得是你不太懂变车难题,一个最基本的情况是优先堡护乘客,优先堡护行人,所以当你意识到到优先堡护乘客的时候,必然会选择更加倾向于撞项责任,而对于他们这些没有违反当规则的人来说,可能你人事无辜的,所以都根据证是你会必该要承担责任,如果你方全部交给国家法律预设或者交给这个生产公司的默认执行的话,这个这个责任就是财国到家属人是上我提供,所以对方企业今天一直想把企业的默认选权后国家的默认选项描绘成一个可坏的选项。可我们现在发现,德国的自动驾驶伦理委员会在2017年就明确提出自动驾驶在面临两难情形的时候,企业应该遵循优先财产损失低于人身伤害、避免对少数人造成高风险等多项原则。中国关于交通事故中碰碰一当地发生变身难题的时候,也明确指出法律上只能最小化整体损害的措施,法律不允许预测先保受主以及先保行人的个性化算法。您方借您方那样恐怖的默认的预设,究竟是从哪条政策或者是现实得出的呢?因为如果他您方不预设,就是大家完全不预设,所有的事情必须完全规则预,企业若方你不形式上能分出来,你您方逃了,所以您方发现了吗?我们现在的的默认选项,我们现在的车企根据每个国家的国家去实行的这个默认选项,它就是能够保障更多人利益,而并不是并不是像您方所说的会导致一些更坏的结果,那我接着问你好了,每个人的预测是不是都不一样?你到现在连预测是啥样都没解决,而且最小化损失应该是你双方共同利好吧,我交给AI作弊能最小化损失吗?我们现在就是就给AI做了,所以你们要给我比啊,为什么预设因定比我们根据国家法规,我们中国社会共识设定的默认选项要更好,你们会发我每个人预设是不是不一样?你都这是啥呀,目前你也没说说出所引然来,我的认识不就是根据大家自己的选择吗?对啊,根据大家的选择,那我可不可以选择优先在在小孩和老人之间,我就先撞小孩。这么细节就是我刚给你讲的那个代码,应该念的很清楚啊,那三个代码你可以设置是优先,就是选择行人,行人优先发车辆不行,所以您的意思是您您今天只讨论您方提出的这3个预设,而我发现这3个预设在我们各个国家的法律里面已经包含进了默认预测当中,也就是利益最小化,所以您方的利好无法达成以上。所以你到最后还是要。
感谢下面有请反方二辩陈词。谢谢主席,我觉得对方辩友可能对辩题有一点误解,我们今天探讨的不是说我们要不要设计AI这个无人驾驶系统,我们探讨的是驾驶员有没有权利在AI的无人驾驶系统碰到一定问题的时候给他一个预设,所以驾驶员有没有权利才是我们今天探讨的核心。至少我们达成了一个共识,就是人是做不好这件事情,我们都要选AI来做,无非是因为正方你们觉得我们要预设,而反方认为我们要用一种默认的厂家自带的方式,而不能使用预设。我先来解决您方所说的那些听起来很合理但是完全不切实际的那些预设方案。首先你告诉我说,我在每一个交通事故、电车难题的当下,我可以选择改,可是问题是电车难题、交通事故往往都是千钧一发的,我怎么改?还是说我原本是想要减速的,我突然看清这个人啊,那可能是我不太想撞的人,然后这个时候我又不让他减速了,交通事故在这种游移之间变得更加严重了,怎么办?你又告诉我说,我可以开放选项,但是我可以不选了,但是路上那么多车,有的预设了选项,有的没有预设选项,假如彼此之间的预设发生了矛盾,又应该怎么办呢?所以说反方才坚定的认为我们要使用厂家默认的方案,而不能预设预设。预设默认的。默认的这种选项一定是优于自定义的预设的,因为我们的核心原因是把它从伦理决策的个人冲动上升为一种公共契约,避免整个道路上成为一种道德碰碰车。
首先,交通系统是实时耦合的复杂网络。北京市交通委官方数据显示,尽管高峰一个小时就产生了约588万条GPS轨迹点,任何一辆车的自定义撞谁的参数都会像多米诺、虎牌一样在百万级的节点中放大,引发不可预测的连锁冲突。你的预设可能会导致别的别人的建设难题,这件事情很可怕。其次,默认的算法不是我们工程师拍拍脑袋,而是政府、车企、保险、伦理委员会多方协商的社会最优解。欧盟2021年通过的人工智能法就明确要求自动驾驶系统在不可避免碰撞时,只能执行最小伤害且保持车道的统一策略,禁止厂商提供差异化的伦理选项,这种立法过程是特别复杂的,所以说我们不能轻易的就把它推翻,最后把电车难题植入驾驶算法本身,它其实是一个伪命题。中国国家标准的系统就规定了极端场景下车辆必须执行最小风险机动其减速至禁止,也就是让让速不让道,禁止横向变道,甩锅给其他行人或者车辆。我们唯一要做的就是让速不让道,我们不需要让AI去思考那么复杂的道德问题,最后回到我们的追责问题,现实里每一桩交通事故都是特别复杂的,在正方同学的眼里,好像我们只要开放了一个预设的选项,就可以特别清晰的判定给每一个人,但不是这样的,恰恰相反,只有我们维持一个默认的选项,才可以让这个社会上的每一辆无人驾驶车都在社会合理合法、合规的运行机制下合理的运行,而不侵占他人的合理合法的权益,这才是我们的利好,谢谢。
下面有请正方三辩质询反方二辩。可以啊,第一个问题,对方你要告诉我,秘书是当时交给AI系统临场判断,还是提前留有另一个,只要不是驾驶员的主题曲,预设这个方案。我觉得AI系统它之所以存在,就是因为我们给他写好了算法。所以它不是一个预设,它不是预设,它直接你说我翻译一下,所以你的意思就是有一个主体统一来对电车难题做出
点点。好的,那就首先。有请正方一辩。你把麦关下,关掉了。确认一下那个。第一个论点的举证是说,人在职场中的情绪并没有极其好使吧?没了。反应速度、危机情况都属于。人在紧急出发到先进个选择是对吧。是我的数据提供,80%人会犹豫的,这论我多么会感。首先确实人在天发生突变的情况是指定的,保证是我几个小时时际算计的结果,两个行为的定结果一定是这样的,然后确定完毕。我了,他不知道在干啥。人不一定是红的,人是会变化的,我建议进,我问一下你没有别的个意,您在电车站会怎么选?前方是人,右边是一个。过这么多车,走好最远的路线吧。不知道该做啥,您会怎么写?不是走好,你得选电视球放是。电视放就是之前。这条路上走出来的事情。应该放。同是他为他交,他应该能增加,而我给你举是80%,没有办法做这样的80%的选择思想实际中到人什么没人不知道,所以刚才选择你说该什就怎么样,听起来讲比较像是默认的情况,为什么在默认情况中一定要得干预的?就没有听过的举证。第一举证是在极端危急情况下。大部分的。相当甚至百分没有办法,我告诉你80%会到是在那个什么,你都会更加清晰,还是问题,你那个数据一定是切实的,一定个是求影响最终调查问卷,如果你遇到紧急情况,你怎么选择,是在你性安全情况,是我们具体的话,你商完之后可能会撞车,会撞的了一个人,如果那一个人你被撞的车那天你突然发现是你7点开会撞到一个人吗?身上素不让一激动,对各种断的丧尸判断。我只跟你说火焰自身怎么样。如果你要从大部分人选择。因为我没有办法拒绝那些凸起来的,就是肯定撞出来的车还是人。可以,这个我的意思是你在做这个选平你的,你的利好之说,我会更符合我预期,我打的是我也意识你的预期会变,所以即便你选择个预期,也就不一定是你这边显最第的。
但二确认一下,其实大家都可以告诉我说要尽行尊重用人告德西只能全大概就算。我是让AI去做决策。道德尊重,道德自由。销售。我给你两个第一是的学,他对数百个政策,民众都认为乘客在享受决策权,因为这个汽车本身是交给乘客,是一个消费者。步是计划学。所以。好,路上只有你一辆车,如果路上有两辆车,左边的小预售了,右,右边的预售相撞,凭借了不重要,凭借了一条一样的话就。不要发生。你没有回答我的问题,你没有回答我的问题,我的意思是你在尊重道德选择的时候,你要看这种道德选择会不会引发困扰,这是第一件事。第二个是到底这个选项能不能尊重,真的尊重每一个人的选项,即便是义务人,即便是后伙人,也有分散复杂无数的细化的选择,人的道德选择权到底怎么尊重的时代能够认这第三个确认的是,比方说提交不同的规则和确认论题,我没听说吧?做出了速度的。不行洗写一下吧。预我车的这个行为你没有听清,因为你没有听清楚问题预设王座预设网友,没有人说错,这是道德选择,但他们会成这一种事度道德和自由的背后可能会导致混乱,光不是是其因和在我上一次确认问题是说更方面规则顺超利好,第三个就错了。甚至也会产生事故啊,这个个南京本车嘛,对啊。如果有人利用了这种在道德中的偏好,制造一起诉入其杀人,最后分辨时得是故意的还是故意的,还是妻子的,这就这种规则是在这个代码里面在注。就是谁去说谁负责任。预色是看不出故意杀人的,他可以说我这个选择是我的道德选择,可是利用了道德选择实证的故意杀人,而分辨的出这是不是故意的,是追责的问题,会劝告这个自杀。
下面有请反方一辩陈词。一个用一个麦和主机,然后谢谢主席问候在场各位。无人驾驶技术只通过智能技术与控制系统综合运用,使载具在无需人类驾驶员直接操控的情况下自主感知环境等等。在当下辩题中提到,电车难题仍然是需要人类驾驶员完全自主抉择的领域,因此,今天双方所探讨的更是基于设想的未来高度自动驾驶甚至全自动驾驶的情景下的问题。基于此,我方展开论点如下,电车难题本质上是一个思想实验或思想模型,现实情况纷繁复杂,驾驶员为达成某种最优结果心情的决策偏好预设。可是在极端情况出现之后,你做出的选择并不是你以为的预设。如比利时芬的大学老鼠实验中,分思想和真实行动两组,有18%的人在真实情况下,其实并没有做出我以为会选功民主义的预设,即在真实的责任压力下可能失效。实验中部分被试坦言面对活体生物时想到宠物或手抖,情感意识理性,所以电车难题在思想上的实验和真实的行为选择会有很大差别。所以正方立场下,驾驶员以为自己会坚定的选择那一个人去牺牲,但当中看到那一个人长得很像我外祖母的时候,他会由于纠结而是去判断,从而一直不断的根据自己可能遇到的实际情况进行预设,但事实上根本预设不完。如MIT moral machine研究指出,仅当将十几种不同权重的偏好组合起来,就会产生数百万种的可能场景,传统方法无一逐一雄举或训练模型处理。
所以我方认为,正方立场下的预设决策偏好根本是不切实际的。第二,无人驾驶系统的默认预设是基于无数次车企政企测算10分的普遍规则,社会也不会因此混乱。北京晚高峰一小时就产生约588万条GPS轨迹点,对应三百三万三万三六千三百六十三个公交站点与784条线路动态余合。可以看到道路交通不是一辆车子的事情,路上不止我一辆车,两辆车并排,左边的小预售了,右,右边的预售相撞,凭借了不重要,凭借了一条一样的话就。不要发生。你没有回答我的问题,你没有回答我的问题,我的意思是你在尊重道德选择的时候,你要看这种道德选择会不会引发困扰,这是第一件事。第二个是到底这个选项能不能尊重,真的尊重每一个人的选项,即便是义务人,即便是后伙人,也有分散复杂无数的细化的选择,人的道德选择权到底怎么尊重的时代能够认这第三个确认的是,比方说提交不同的规则和确认论题,我没听说吧?做出了速度的。不行洗写一下吧。预我车的这个行为你没有听清,因为你没有听清楚问题预设王座预设网友,没有人说错,这是道德选择,但他们会成这一种事度道德和自由的背后可能会导致混乱,光不是是其因和在我上一次确认问题是说更方面规则顺超利好,第三个就错了。甚至也会产生事故啊,这个个南京本车嘛,对啊。如果有人利用了这种在道德中的偏好,制造一起诉入其杀人,最后分辨时得是故意的还是故意的,还是妻子的,这就这种规则是在这个代码里面在注。就是谁去说谁负责任。预色是看不出故意杀人的,他可以说我这个选择是我的道德选择,可是利用了道德选择实证的故意杀人,而分辨的出这是不是故意的,是追责的问题,会劝告这个自杀。
下面有请正方四辩质询反方一辩。嗯,可以听到。当下对啊,可以更改啊。允许预设就证明给了这个人的选择权。但是他往往的选择会在后边。这个系统怎么处理它,它肯定我觉得在目前技术层面来讲,要比一个人处理的要好,所以没必要让人再去处理了。因为它是让速不让道的,他他只会减缓速度,然后就没有电车难题,这种情况出现了。可是AI目前的最优解。我也相信在未来技术会更完善更发展的时候,根本不会出现电车难题这种情况。往前开啊。当然当然的知道。都有可能,所以我们要一个默认的去作为他会更安全,更保险一点,这是我方认为的。
可是,AI.当然。灾难最大化,可是这种情况下,两个车他们设定的都是一个最好的结果,就是按按系统默认来说,所以我觉得他们会减缓速度,并不会产生你这样的问题。我方真的统一标准是完全符合交通规法规的,以及有公已经已经出台的相关的政策规定的统一标准,所以不会出现您方刚刚所说的那些情况。
感谢下面有请正方二辩陈词。可以听到吗?嗯。首先您要是说人当场蒙圈,所以我们应该把选择交给AI,对不对?那这和提前预备预设选项有什么关系?我用默认选项不可以吗?我预设了AI才能做出最符合我预期的选择,或者选项就是我撞死谁了?不都是被AI绑架了吗?这些的时候你发现了吗?为什么只有我预设了AI才不会撞死人,我不预设厂家出厂设置的默认就是会让他撞死人吗?这是电车难题,默认你必须要撞死人,无论是撞多撞少,或者撞他人还是撞自己的区别,嗯,对啊,所以这个时候发现了呢,我们不管是人做选择还是AI做选择,我们都会导致一些人的死亡,并且这件事情跟有没有预设没有关系,人这个时候做不了选择,我们就把它交给AI的默认选项,其实这个上面我们没有分析,那我接下来跟你聊预示的这件事情,您刚刚所说的是我刚开始记这个预事,我一定更改它,对不对?那你的遇事无非就是道德绑架上呀,绑架这个驾驶员好,关于默认默认默认选项是怎么给出的,我们后后面会这个,你先回答我吧,就是不是现场很蒙圈,所以就是就是我我可以改他。大部分的情况下,人类没法做出一个理性选择,而且性能做更好,对以吗?所以这个时候你发现了吗?在具体情况的时候,我们很懵,明圈根本就没有办法像你方所所说的,我先预设一个选项,根据这场情况我在改变我的选项,所以这个时候你发现了吗?我们先前预设的和我们后天真实看到这个路况里,我们眼眼前的这个人,复杂的这个人,他他究竟是谁,我们这个时候做出的选择他是不一样的,并且我们是没有办法更改的。
那再问您第三件事情好了,您刚刚所说的就是会有一个追责难的问题,电车难题里会出现什么违法行为啊?你想改变的时候,但凡你能反应过来方向盘往哪开,那这个时候您说的是我们应该接管自动驾驶,对吧?所以这个时候您和您的第一个论点要冲突了,因为你说这个时候人类反应不过来,并该由人类做判断,我觉到这里您回答我电车难题会出现什么样的违法情况?想改的时候随时接管,不想改的时候交给AI,这不是我放的地方,给他交给AI,所以不用预设,因为你想改的时候,你随时可以接管,不用提前预设,你回答我吧,会出现什么违法情况。是你,你刚刚所说的是有个追责难的问题,在电视难题里我会出现需要什么情况下需要追责啊?这不是你方自己手机己的例子吗?说一个人要去预谋杀,哎,你方统一设,这是你的第二个论点的利好,你说预设了可以这个权责分明,我这个什么情况下,到底什么情况下是违法,这这车难题会出现什么样的违法情况?我把浮动不就是我失误撞,就是我选择撞向了其他的行人吗?那他本身没有太高分子的话,我是需要什么样行人走,而这如果是浮动,那我那我撞行人违法,那我撞谁不违法?我撞下另一个人就不违法了,对吧?我责任需要承担的高低有区别。嗯,所以你的意思是我们每个人通过预设,我们可以给自己预设一个是就是责任上的问题,我们的跟文意再解释一下吗?我觉得是你不太懂变车难题,一个最基本的情况是优先堡护乘客,优先堡护行人,所以当你意识到到优先堡护乘客的时候,必然会选择更加倾向于撞项责任,而对于他们这些没有违反当规则的人来说,可能你人事无辜的,所以都根据证是你会必该要承担责任,如果你方全部交给国家法律预设或者交给这个生产公司的默认执行的话,这个这个责任就是财国到家属人是上我提供,所以对方企业今天一直想把企业的默认选权后国家的默认选项描绘成一个可坏的选项。可我们现在发现,德国的自动驾驶伦理委员会在2017年就明确提出自动驾驶在面临两难情形的时候,企业应该遵循优先财产损失低于人身伤害、避免对少数人造成高风险等多项原则。中国关于交通事故中碰碰一当地发生变身难题的时候,也明确指出法律上只能最小化整体损害的措施,法律不允许预测先保受主以及先保行人的个性化算法。您方借您方那样恐怖的默认的预设,究竟是从哪条政策或者是现实得出的呢?因为如果他您方不预设,就是大家完全不预设,所有的事情必须完全规则预,企业若方你不形式上能分出来,你您方逃了,所以您方发现了吗?我们现在的的默认选项,我们现在的车企根据每个国家的国家去实行的这个默认选项,它就是能够保障更多人利益,而并不是并不是像您方所说的会导致一些更坏的结果,那我接着问你好了,每个人的预测是不是都不一样?你到现在连预测是啥样都没解决,而且最小化损失应该是你双方共同利好吧,我交给AI作弊能最小化损失吗?我们现在就是就给AI做了,所以你们要给我比啊,为什么预设因定比我们根据国家法规,我们中国社会共识设定的默认选项要更好,你们会发我每个人预设是不是不一样?你都这是啥呀,目前你也没说说出所引然来,我的认识不就是根据大家自己的选择吗?对啊,根据大家的选择,那我可不可以选择优先在在小孩和老人之间,我就先撞小孩。这么细节就是我刚给你讲的那个代码,应该念的很清楚啊,那三个代码你可以设置是优先,就是选择行人,行人优先发车辆不行,所以您的意思是您您今天只讨论您方提出的这3个预设,而我发现这3个预设在我们各个国家的法律里面已经包含进了默认预测当中,也就是利益最小化,所以您方的利好无法达成以上。所以你到最后还是要。
感谢下面有请反方二辩陈词。谢谢主席,我觉得对方辩友可能对辩题有一点误解,我们今天探讨的不是说我们要不要设计AI这个无人驾驶系统,我们探讨的是驾驶员有没有权利在AI的无人驾驶系统碰到一定问题的时候给他一个预设,所以驾驶员有没有权利才是我们今天探讨的核心。至少我们达成了一个共识,就是人是做不好这件事情,我们都要选AI来做,无非是因为正方你们觉得我们要预设,而反方认为我们要用一种默认的厂家自带的方式,而不能使用预设。我先来解决您方所说的那些听起来很合理但是完全不切实际的那些预设方案。首先你告诉我说,我在每一个交通事故、电车难题的当下,我可以选择改,可是问题是电车难题、交通事故往往都是千钧一发的,我怎么改?还是说我原本是想要减速的,我突然看清这个人啊,那可能是我不太想撞的人,然后这个时候我又不让他减速了,交通事故在这种游移之间变得更加严重了,怎么办?你又告诉我说,我可以开放选项,但是我可以不选了,但是路上那么多车,有的预设了选项,有的没有预设选项,假如彼此之间的预设发生了矛盾,又应该怎么办呢?所以说反方才坚定的认为我们要使用厂家默认的方案,而不能预设预设。预设默认的。默认的这种选项一定是优于自定义的预设的,因为我们的核心原因是把它从伦理决策的个人冲动上升为一种公共契约,避免整个道路上成为一种道德碰碰车。
首先,交通系统是实时耦合的复杂网络。北京市交通委官方数据显示,尽管高峰一个小时就产生了约588万条GPS轨迹点,任何一辆车的自定义撞谁的参数都会像多米诺、虎牌一样在百万级的节点中放大,引发不可预测的连锁冲突。你的预设可能会导致别的别人的建设难题,这件事情很可怕。其次,默认的算法不是我们工程师拍拍脑袋,而是政府、车企、保险、伦理委员会多方协商的社会最优解。欧盟2021年通过的人工智能法就明确要求自动驾驶系统在不可避免碰撞时,只能执行最小伤害且保持车道的统一策略,禁止厂商提供差异化的伦理选项,这种立法过程是特别复杂的,所以说我们不能轻易的就把它推翻,最后把电车难题植入驾驶算法本身,它其实是一个伪命题。中国国家标准的系统就规定了极端场景下车辆必须执行最小风险机动其减速至禁止,也就是让让速不让道,禁止横向变道,甩锅给其他行人或者车辆。我们唯一要做的就是让速不让道,我们不需要让AI去思考那么复杂的道德问题,最后回到我们的追责问题,现实里每一桩交通事故都是特别复杂的,在正方同学的眼里,好像我们只要开放了一个预设的选项,就可以特别清晰的判定给每一个人,但不是这样的,恰恰相反,只有我们维持一个默认的选项,才可以让这个社会上的每一辆无人驾驶车都在社会合理合法、合规的运行机制下合理的运行,而不侵占他人的合理合法的权益,这才是我们的利好,谢谢。
下面有请正方三辩质询反方二辩。可以啊,第一个问题,对方你要告诉我,秘书是当时交给AI系统临场判断,还是提前留有另一个,只要不是驾驶员的主题曲,预设这个方案。我觉得AI系统它之所以存在,就是因为我们给他写好了算法。所以它不是一个预设,它不是预设,它直接你说我翻译一下,所以你的意思就是有一个主体统一来对电车难题做出
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方四辩→反方一辩
正方四辩进一步阐述