例如,《在恋爱关系中,应该追求等价的付出·在恋爱关系中,不应该追求等价的付出》一题,辩之竹内共收录26场比赛。我们为您提供这26场比赛的论点、判断标准提取,以及总计数百条论据的提取,还有Deepseek的辩题分析。这可以帮您更好备赛。
欢迎您点击下方按钮,前往查看。
第一场应该是辛亥的朋友。好像不见了。没事,没关系,这种情况并不奇怪。这话我喜欢,这话我爱听,加油,老师们。
好的,研究一下比赛。确实感觉你憔悴了许多,我两天瘦了2斤,因为我一口饭都吃不下去。老师,人有的时候遇到太大的事儿,就是吃不下饭。我会努力的,没关系,一切都是可以解决的。
真的还没来吗?现在先开始,正方是什么意思呢?是来看看。对,有几个人是来看个热闹,结果就跟我们打一场。
我刚开完一个会。西西泽老师说年会,他跟我说他要开年会,我问:“你们公司要开年会吗?是原来的老公司吧。”
我第二场模辩是谁打呀?我找我朋友。我先说明一下,我想先看看感觉。打得不好,不要骂我。不会有人骂你的。
我在思考一个事情,猴子会不会以为是英国的晚上10点?他在英国吗?你问他一下。他在英国也应该起床了,现在英国是下午3点。那确实有点状况,没事儿不要紧。曲哥不是在吗?要是那人退出去了,正好我们来一场纯反的比赛,用你朴素的正方观点挑战一下我们。
这场打谁啊?对面还没来。不是,是几个来参与辩论,然后辛亥的朋友,还有杨志鹏没来。怀疑是不是时间上面有一点点差池。这种情况并不奇怪,你能和你的朋友沟通,出现这种情况很正常。你说的很有道理。
所以我们可以让何浩轩现在开始立论,曲哥来打反方。打电话联系一下,别这么不专业。没事,他可能有点状况。但那个打盘怎么说啊,也赶紧开始。我来答可以。这个环节,在对方三辩质询的时候,我们选一个人接。你能不能给他打电话。怎么了?打电话对于当代年轻人这么难吗?因为他没有回我消息,我怕他在英国会在上课。周日哪个学校上课,很有道理,可能调休了。你快点打吧,别害羞,赶紧打电话。
第一场应该是辛亥的朋友。好像不见了。没事,没关系,这种情况并不奇怪。这话我喜欢,这话我爱听,加油,老师们。
好的,研究一下比赛。确实感觉你憔悴了许多,我两天瘦了2斤,因为我一口饭都吃不下去。老师,人有的时候遇到太大的事儿,就是吃不下饭。我会努力的,没关系,一切都是可以解决的。
真的还没来吗?现在先开始,正方是什么意思呢?是来看看。对,有几个人是来看个热闹,结果就跟我们打一场。
我刚开完一个会。西西泽老师说年会,他跟我说他要开年会,我问:“你们公司要开年会吗?是原来的老公司吧。”
我第二场模辩是谁打呀?我找我朋友。我先说明一下,我想先看看感觉。打得不好,不要骂我。不会有人骂你的。
我在思考一个事情,猴子会不会以为是英国的晚上10点?他在英国吗?你问他一下。他在英国也应该起床了,现在英国是下午3点。那确实有点状况,没事儿不要紧。曲哥不是在吗?要是那人退出去了,正好我们来一场纯反的比赛,用你朴素的正方观点挑战一下我们。
这场打谁啊?对面还没来。不是,是几个来参与辩论,然后辛亥的朋友,还有杨志鹏没来。怀疑是不是时间上面有一点点差池。这种情况并不奇怪,你能和你的朋友沟通,出现这种情况很正常。你说的很有道理。
所以我们可以让何浩轩现在开始立论,曲哥来打反方。打电话联系一下,别这么不专业。没事,他可能有点状况。但那个打盘怎么说啊,也赶紧开始。我来答可以。这个环节,在对方三辩质询的时候,我们选一个人接。你能不能给他打电话。怎么了?打电话对于当代年轻人这么难吗?因为他没有回我消息,我怕他在英国会在上课。周日哪个学校上课,很有道理,可能调休了。你快点打吧,别害羞,赶紧打电话。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
此文本为比赛准备阶段的交流,未涉及立论、质询、对辩、驳论等正式辩论环节内容,因此不适用既定的分析输出格式。
我能问一下,这个质询是单方计时还是双方计时?
好的,是单方计时吗?不好意思,我刚没听见。是的,是单方计时,那没事了。也就是说,我可以不用直接打断。
不好意思,等一下,这个页面卡了,我刷新一下。应该不是页面卡了,是缩放比例的问题吧,那我试一试。
哦,真的不好意思,去重置一下。
好,欢迎随时开始。
第一个问题,如果行人出错,活该被撞,对吗?
我觉得在我们讨论的情况下,行人出错,比如承担一些擦伤之类的,我方觉得没问题。我们都在英国,或者说都待过英国,有人闯过红灯。所以闯的人活该被撞,对吧?我觉得真的活该。
我了解这是你们的态度,这是你们的第一个观点。
那现在第二个问题是,如果行人没有过错,就该保护,对吧?
如果行人没有过错,比如在现实情况中,双方都没有过错,处于一个困境上,我觉得保不保护再说。
那所以你们的态度是不保护,是不是?你说的是在这种情况下不保护什么?就是如果双方都没过错,突然陷入那个困境,我觉得保护谁没什么意义。
所以你觉得这种情况不值得讨论,但至少你们似乎不敢直接表明会保护。
你们说只有这样宣传,买的人才够多,大概是这个意思,应该没错吧?
我觉得这个解释有点粗糙。我方更想解释的是,作为消费者,我更希望购买一款能够保护我的产品,这是大众的心声。而如果我们朝着这个方向去做,同样的逻辑,今天一款无人驾驶车在路上开,我甚至不能够保证行人的安全,为什么这个产品会得到大家的支持?
我觉得无人车的技术水平,首先在大部分时候能做到比人类更好;其次,像我方一辩所举的例子,比如行人故意闯红灯,甚至恶意挑衅无人车,这在美国是真实发生的,那这个时候,我作为乘客,真的没办法,我认为宁肯牺牲行人也没毛病。
但是你们第二个论点的逻辑不对,你没有解释清楚。我刚才好奇的是,如果按照大家希望买到一款安全产品的逻辑,你作为购买者,购买到了安全的产品,可是作为生活在社会里与这个产品交互的人,你也希望它是安全的,所以你的第二个论点是自相矛盾的。但没关系,我听懂了你刚才想描述的那个场景,我在意见稿里直接会注明。
我能问一下,这个质询是单方计时还是双方计时?
好的,是单方计时吗?不好意思,我刚没听见。是的,是单方计时,那没事了。也就是说,我可以不用直接打断。
不好意思,等一下,这个页面卡了,我刷新一下。应该不是页面卡了,是缩放比例的问题吧,那我试一试。
哦,真的不好意思,去重置一下。
好,欢迎随时开始。
第一个问题,如果行人出错,活该被撞,对吗?
我觉得在我们讨论的情况下,行人出错,比如承担一些擦伤之类的,我方觉得没问题。我们都在英国,或者说都待过英国,有人闯过红灯。所以闯的人活该被撞,对吧?我觉得真的活该。
我了解这是你们的态度,这是你们的第一个观点。
那现在第二个问题是,如果行人没有过错,就该保护,对吧?
如果行人没有过错,比如在现实情况中,双方都没有过错,处于一个困境上,我觉得保不保护再说。
那所以你们的态度是不保护,是不是?你说的是在这种情况下不保护什么?就是如果双方都没过错,突然陷入那个困境,我觉得保护谁没什么意义。
所以你觉得这种情况不值得讨论,但至少你们似乎不敢直接表明会保护。
你们说只有这样宣传,买的人才够多,大概是这个意思,应该没错吧?
我觉得这个解释有点粗糙。我方更想解释的是,作为消费者,我更希望购买一款能够保护我的产品,这是大众的心声。而如果我们朝着这个方向去做,同样的逻辑,今天一款无人驾驶车在路上开,我甚至不能够保证行人的安全,为什么这个产品会得到大家的支持?
我觉得无人车的技术水平,首先在大部分时候能做到比人类更好;其次,像我方一辩所举的例子,比如行人故意闯红灯,甚至恶意挑衅无人车,这在美国是真实发生的,那这个时候,我作为乘客,真的没办法,我认为宁肯牺牲行人也没毛病。
但是你们第二个论点的逻辑不对,你没有解释清楚。我刚才好奇的是,如果按照大家希望买到一款安全产品的逻辑,你作为购买者,购买到了安全的产品,可是作为生活在社会里与这个产品交互的人,你也希望它是安全的,所以你的第二个论点是自相矛盾的。但没关系,我听懂了你刚才想描述的那个场景,我在意见稿里直接会注明。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
时间为3分钟。
各位好,针对刚才的问题,这是咱们今天要探讨的。其实我们要讨论的无非是,如果行人有错,是否就不用保护行人,并非如此。刚才我们谈及了诸多技术细节,但略有遗憾的是,我认为正方似乎忽略了最应讨论的问题。
当我们在讨论无人驾驶汽车保护优先级时,正方究竟在讨论什么问题?我方反倒觉得,正方所提及的行人过错场景,并不值得探讨。为何这么说?因为到了最危急的时刻,若发生碰撞,那也是无奈之举。然而,这是否就意味着我们更应优先保护行人,还是更应优先保护乘客呢?乍一看,这道题像是一道思想实验题,探讨的是在最危险时刻应保护何人,但实际并非如此。
实际上,我们探讨的是一个非常单纯的程序决策树问题,即无人驾驶程序设计的内部逻辑中,进行判断时应如何抉择。我方给出的观点很简单,为何保护行人至关重要?因为事实上,我们唯一需要做的就是识别行人。
我们来谈谈无人驾驶的迭代逻辑。无论采用激光雷达还是摄像机,无人驾驶的算法核心是识别道路状况,进而制定规避危险的方案。在激光雷达的识别中,无论是道路、道路线、其他车辆还是行人,只要识别到存在危险个体,就会执行一个判断循环逻辑,以此规避撞击事故的发生。所有的程序设计必然都是如此。
在实际案例中,我们面临的问题仅仅是识别算法的算力要求,即是否有足够的时间完成计算过程。去年最新的大会提出了使用特征算法,将特征算法提取出来,形成目标体。
所以,这道题不存在保护行人之外的第二个选择,因为我们所做的就是规避所有风险。
谢谢。
时间为3分钟。
各位好,针对刚才的问题,这是咱们今天要探讨的。其实我们要讨论的无非是,如果行人有错,是否就不用保护行人,并非如此。刚才我们谈及了诸多技术细节,但略有遗憾的是,我认为正方似乎忽略了最应讨论的问题。
当我们在讨论无人驾驶汽车保护优先级时,正方究竟在讨论什么问题?我方反倒觉得,正方所提及的行人过错场景,并不值得探讨。为何这么说?因为到了最危急的时刻,若发生碰撞,那也是无奈之举。然而,这是否就意味着我们更应优先保护行人,还是更应优先保护乘客呢?乍一看,这道题像是一道思想实验题,探讨的是在最危险时刻应保护何人,但实际并非如此。
实际上,我们探讨的是一个非常单纯的程序决策树问题,即无人驾驶程序设计的内部逻辑中,进行判断时应如何抉择。我方给出的观点很简单,为何保护行人至关重要?因为事实上,我们唯一需要做的就是识别行人。
我们来谈谈无人驾驶的迭代逻辑。无论采用激光雷达还是摄像机,无人驾驶的算法核心是识别道路状况,进而制定规避危险的方案。在激光雷达的识别中,无论是道路、道路线、其他车辆还是行人,只要识别到存在危险个体,就会执行一个判断循环逻辑,以此规避撞击事故的发生。所有的程序设计必然都是如此。
在实际案例中,我们面临的问题仅仅是识别算法的算力要求,即是否有足够的时间完成计算过程。去年最新的大会提出了使用特征算法,将特征算法提取出来,形成目标体。
所以,这道题不存在保护行人之外的第二个选择,因为我们所做的就是规避所有风险。
谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
无人驾驶汽车应优先保护行人,因为无人驾驶算法核心是识别道路状况规避危险,且实际只需识别行人,不存在保护行人之外的第二个选择。
正方二辩:今天你方希不希望在我们的社会当中,整个街道上危险发生次数大大降低,更少地产生一些交通事故?
反方一辩:当然,我们希望社会安全、世界和平。
正方二辩:我们今天发现,自动驾驶车辆在比如追尾、擦车事故当中,发生率比人类驾驶低 20% - 50%。官网的研究也表示,跟美国的人类驾驶员对比,自动驾驶安全性提高了 13 倍。那我们大力推广自动驾驶,尽量减少人的干预,是不是一个能让社会变得更好的选择?
反方一辩:你要看它实践的方式是什么。就以美国为例,它的实践方式可能是自动驾驶汽车最高只能开到 40 迈,那基本上就跟骑自行车差不多。
正方二辩:不管它最终实现方式是什么,我们最终目的都是希望去实现降低危险发生率这一目的。而我方今天告诉你,自动驾驶的推广取代人类驾驶可以让危险发生率降低。我方先论到这里。那进一步请教你,我方发现,在需要推广自动驾驶时,那些消费者普遍更加支持保护乘客优先于保护行人,为什么你方觉得要反其道而行之,和消费者对着干?
反方一辩:目前你并没有论证,你只是断言说你证明了你的这个目的。第二个部分是因为今天不止是消费者需要和这个产品交互。
正方二辩:我理解不止是消费者需要和这个产品交互,可是我好奇的是,今天哪一部分人更加影响自动驾驶能不能在全世界范围内铺开呢?是不是消费者?
反方一辩:因为所有的人都会影响这一产品在社会里面的地位,所以我们才在讨论。而且同时我并不觉得消费者可以直接介入算法的设计过程,恰恰是因为消费者并不想要去理解这些技术细节,所以我方才想跟各位解释,当我们在技术设计过程里面的时候,其实根本就不在意消费者本身的诉求,因为我们做的所有事情就是避开行人以及一切危险个体。
正方二辩:我方说自动驾驶汽车在遇到两难选择,必须牺牲一方的时候,我们优先保障乘客。这等于说在不需要牺牲任何一方,完全可以规避风险的时候,我们依然要撞行人吗?
反方一辩:不代表。
正方二辩:所以你方也承认,我方的立场并不代表我们不保护行人,而是一个优先级的问题。我方解决此问题。
正方二辩:今天你方希不希望在我们的社会当中,整个街道上危险发生次数大大降低,更少地产生一些交通事故?
反方一辩:当然,我们希望社会安全、世界和平。
正方二辩:我们今天发现,自动驾驶车辆在比如追尾、擦车事故当中,发生率比人类驾驶低 20% - 50%。官网的研究也表示,跟美国的人类驾驶员对比,自动驾驶安全性提高了 13 倍。那我们大力推广自动驾驶,尽量减少人的干预,是不是一个能让社会变得更好的选择?
反方一辩:你要看它实践的方式是什么。就以美国为例,它的实践方式可能是自动驾驶汽车最高只能开到 40 迈,那基本上就跟骑自行车差不多。
正方二辩:不管它最终实现方式是什么,我们最终目的都是希望去实现降低危险发生率这一目的。而我方今天告诉你,自动驾驶的推广取代人类驾驶可以让危险发生率降低。我方先论到这里。那进一步请教你,我方发现,在需要推广自动驾驶时,那些消费者普遍更加支持保护乘客优先于保护行人,为什么你方觉得要反其道而行之,和消费者对着干?
反方一辩:目前你并没有论证,你只是断言说你证明了你的这个目的。第二个部分是因为今天不止是消费者需要和这个产品交互。
正方二辩:我理解不止是消费者需要和这个产品交互,可是我好奇的是,今天哪一部分人更加影响自动驾驶能不能在全世界范围内铺开呢?是不是消费者?
反方一辩:因为所有的人都会影响这一产品在社会里面的地位,所以我们才在讨论。而且同时我并不觉得消费者可以直接介入算法的设计过程,恰恰是因为消费者并不想要去理解这些技术细节,所以我方才想跟各位解释,当我们在技术设计过程里面的时候,其实根本就不在意消费者本身的诉求,因为我们做的所有事情就是避开行人以及一切危险个体。
正方二辩:我方说自动驾驶汽车在遇到两难选择,必须牺牲一方的时候,我们优先保障乘客。这等于说在不需要牺牲任何一方,完全可以规避风险的时候,我们依然要撞行人吗?
反方一辩:不代表。
正方二辩:所以你方也承认,我方的立场并不代表我们不保护行人,而是一个优先级的问题。我方解决此问题。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
各位好,接下来我将进行反方二辩的质询小结。
我接着跟各位解释一些技术细节。为什么反方认为今天高分题根本不是一个选择题?大众可能会觉得这是一个选择题,因为人工智能自动驾驶非常高科技,所以在具体的行驶过程中,人们会认为需要选择是保护行人还是保护乘客。但从技术层面来看,它并非选择题,而是一个识别问题。
车辆行驶在路上,需要识别的是周遭是灌木丛、树干、其他车辆,还是自行车等个体,这才是我们所面临的真实问题。
在识别问题往下延伸的过程中,如果我们看到一些具体的无人驾驶车撞到行人的事故,比如美国之前在测试过程中,无人驾驶车撞到了突然进入道路的骑自行车的人。这里的问题在于,激光摄像头雷达识别不出那是一个行人。激光雷达识别出了这个物体,但它的内在程序逻辑判断其是一辆车而不是一个行人,也因此造成了车辆撞上行人。我们看起来好像是车辆保护了驾驶员,其实并非如此,恰恰是因为车辆判断不出那是一个行人。相反,如果车辆判断出那是一个行人,避开就好了。
所以我想跟各位解释,这道辩题不是一个选择题,而是一个判断题。摆在我们面前的技术问题,是为了识别这个人到底是行人、车辆,还是其他物体。而这一切的前提是,我们一定会保护行人。
谢谢。
各位好,接下来我将进行反方二辩的质询小结。
我接着跟各位解释一些技术细节。为什么反方认为今天高分题根本不是一个选择题?大众可能会觉得这是一个选择题,因为人工智能自动驾驶非常高科技,所以在具体的行驶过程中,人们会认为需要选择是保护行人还是保护乘客。但从技术层面来看,它并非选择题,而是一个识别问题。
车辆行驶在路上,需要识别的是周遭是灌木丛、树干、其他车辆,还是自行车等个体,这才是我们所面临的真实问题。
在识别问题往下延伸的过程中,如果我们看到一些具体的无人驾驶车撞到行人的事故,比如美国之前在测试过程中,无人驾驶车撞到了突然进入道路的骑自行车的人。这里的问题在于,激光摄像头雷达识别不出那是一个行人。激光雷达识别出了这个物体,但它的内在程序逻辑判断其是一辆车而不是一个行人,也因此造成了车辆撞上行人。我们看起来好像是车辆保护了驾驶员,其实并非如此,恰恰是因为车辆判断不出那是一个行人。相反,如果车辆判断出那是一个行人,避开就好了。
所以我想跟各位解释,这道辩题不是一个选择题,而是一个判断题。摆在我们面前的技术问题,是为了识别这个人到底是行人、车辆,还是其他物体。而这一切的前提是,我们一定会保护行人。
谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
无明显攻击内容。
谢谢主席。
先说一下我方目前已有的结论。
第一,我们从数据研究发现,自动驾驶在安全性上整体优于人类驾驶。因此,我们需要大力推广自动驾驶,使其在全球范围内铺开,从而降低整体事故发生率。而要在全球范围内推广,首先需要让消费者愿意为自动驾驶车辆买单。无论是PU研究中心的研究,还是麦肯锡的调查都显示,消费者更倾向于购买优先保护乘客的自动驾驶汽车,而非优先保护行人的自动驾驶汽车。当车企决定优先保护行人时,会大大降低消费者的购买欲望,进而导致自动驾驶汽车无法在全球范围内推广。
对方辩友表示,除消费者外,社会其他群体也会对自动驾驶汽车的推广产生影响。我方承认会存在不同的社会声音,但对方始终没有论证,与直接进行消费的消费者群体相比,其他社会声音究竟如何影响和阻碍自动驾驶汽车的进一步发展。
第二,对方辩友始终强调一个问题,他们认为自动驾驶汽车出现的与行人相撞或车内事故,都是因为识别能力不足,只要能识别出行人和足够的障碍,自动驾驶汽车就不会出现问题。但我方要指出,算法并非完美,它可能会出错。正如对方辩友所说,算法可能在识别过程中运算超载,可能本身过于复杂,也可能出现其他bug。在这种情况下,我方认为自动驾驶汽车应像机器人三定律那样,在核心集成逻辑中设计好必须保护乘客,即保护自己的消费者,因为无人驾驶汽车本身就是为乘客服务的。
谢谢。
谢谢主席。
先说一下我方目前已有的结论。
第一,我们从数据研究发现,自动驾驶在安全性上整体优于人类驾驶。因此,我们需要大力推广自动驾驶,使其在全球范围内铺开,从而降低整体事故发生率。而要在全球范围内推广,首先需要让消费者愿意为自动驾驶车辆买单。无论是PU研究中心的研究,还是麦肯锡的调查都显示,消费者更倾向于购买优先保护乘客的自动驾驶汽车,而非优先保护行人的自动驾驶汽车。当车企决定优先保护行人时,会大大降低消费者的购买欲望,进而导致自动驾驶汽车无法在全球范围内推广。
对方辩友表示,除消费者外,社会其他群体也会对自动驾驶汽车的推广产生影响。我方承认会存在不同的社会声音,但对方始终没有论证,与直接进行消费的消费者群体相比,其他社会声音究竟如何影响和阻碍自动驾驶汽车的进一步发展。
第二,对方辩友始终强调一个问题,他们认为自动驾驶汽车出现的与行人相撞或车内事故,都是因为识别能力不足,只要能识别出行人和足够的障碍,自动驾驶汽车就不会出现问题。但我方要指出,算法并非完美,它可能会出错。正如对方辩友所说,算法可能在识别过程中运算超载,可能本身过于复杂,也可能出现其他bug。在这种情况下,我方认为自动驾驶汽车应像机器人三定律那样,在核心集成逻辑中设计好必须保护乘客,即保护自己的消费者,因为无人驾驶汽车本身就是为乘客服务的。
谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
对辩双方各有1分30秒,应该是正方先开始。我试一下,没错,可以。我先重置一下。
好,开始。同学你好,你说它不是一个选择题,是一个识别题,所以你觉得只要技术不够强就能两全其美,是这个意思吗?
是的。我想请教你方,你方二辩、三辩刚才说算法会出错,那如果算法都出错了,你怎么相信自动驾驶?算法会不断迭代,在算法不断迭代的过程中,我问你,你既然觉得它是一个识别问题,你认为我们两方观点的区别是什么?对于反方来说,根本不存在保护乘客这个选项,因为识别出来后,自然双方都能保护到。所以当算法在迭代过程中,你却在探讨自动驾驶是一个完全不依靠人类而依靠程序的过程,且这个东西会出错,这不是自砸招牌吗?这和你们的第二个论点自相矛盾。
谢谢。到这里我明白,对方觉得如果技术发展得足够强,不会有这样的两难困境。接下来我方要证明的是,在两难困境出现时,应该优先保护乘客,还是优先保护行人。我问你,无人驾驶的算法除了有识别系统,还有决策系统。如果突然有一个人“鬼探头”突然出现,此时有两个选择,一是撞上铁栏,二是撞上旁边的路人,在这样的两难境地,你怎么解决?
为什么不刹车呢?
我给你的这两个困境,只有这两种选择,因为刹车制动不能保证避免撞到行人。所以这种情况下,你要选择撞向行人还是撞向铁栏?我想知道你的态度。
这并不存在两难困境,这是一个虚假的情境。为什么呢?因为我们为了保证车辆的制动距离,会在不同的范围内设计限速。就以英国为例,在市区内可能只能开到每小时20 - 30公里。所以在极端情境下进行讨论,根本不存在这样的困难。在非极端情境下,撞到行人的可能性不大。
我不太明白你为什么觉得这种情况不存在。就像“鬼探头”情况,在刹车制动无法完成刹车距离时,车辆只能选择撞向路边的花坛,或者撞向行人。你不敢回答这个问题,说明你对两难境地没有解决办法。另外,在现在的道路交通事故中,80%是因为行人自身违规。在你看来,行人违规的情况下,撞了也没事,这是你的态度吗?
我方的态度是,即使行人有过错,但我们应该预见他们可能会有过错,从而保护他们。我们规定两难情境的像素,就是为了解决两难问题,不然你觉得规定像素是用来做什么的?
谢谢。到这里可以明确,在行人有过错的情况下,对方认为不应该撞向行人,应该保护行人。
对辩双方各有1分30秒,应该是正方先开始。我试一下,没错,可以。我先重置一下。
好,开始。同学你好,你说它不是一个选择题,是一个识别题,所以你觉得只要技术不够强就能两全其美,是这个意思吗?
是的。我想请教你方,你方二辩、三辩刚才说算法会出错,那如果算法都出错了,你怎么相信自动驾驶?算法会不断迭代,在算法不断迭代的过程中,我问你,你既然觉得它是一个识别问题,你认为我们两方观点的区别是什么?对于反方来说,根本不存在保护乘客这个选项,因为识别出来后,自然双方都能保护到。所以当算法在迭代过程中,你却在探讨自动驾驶是一个完全不依靠人类而依靠程序的过程,且这个东西会出错,这不是自砸招牌吗?这和你们的第二个论点自相矛盾。
谢谢。到这里我明白,对方觉得如果技术发展得足够强,不会有这样的两难困境。接下来我方要证明的是,在两难困境出现时,应该优先保护乘客,还是优先保护行人。我问你,无人驾驶的算法除了有识别系统,还有决策系统。如果突然有一个人“鬼探头”突然出现,此时有两个选择,一是撞上铁栏,二是撞上旁边的路人,在这样的两难境地,你怎么解决?
为什么不刹车呢?
我给你的这两个困境,只有这两种选择,因为刹车制动不能保证避免撞到行人。所以这种情况下,你要选择撞向行人还是撞向铁栏?我想知道你的态度。
这并不存在两难困境,这是一个虚假的情境。为什么呢?因为我们为了保证车辆的制动距离,会在不同的范围内设计限速。就以英国为例,在市区内可能只能开到每小时20 - 30公里。所以在极端情境下进行讨论,根本不存在这样的困难。在非极端情境下,撞到行人的可能性不大。
我不太明白你为什么觉得这种情况不存在。就像“鬼探头”情况,在刹车制动无法完成刹车距离时,车辆只能选择撞向路边的花坛,或者撞向行人。你不敢回答这个问题,说明你对两难境地没有解决办法。另外,在现在的道路交通事故中,80%是因为行人自身违规。在你看来,行人违规的情况下,撞了也没事,这是你的态度吗?
我方的态度是,即使行人有过错,但我们应该预见他们可能会有过错,从而保护他们。我们规定两难情境的像素,就是为了解决两难问题,不然你觉得规定像素是用来做什么的?
谢谢。到这里可以明确,在行人有过错的情况下,对方认为不应该撞向行人,应该保护行人。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
单边计时1分30秒。
第一个问题,如果压根儿就不存在两难困境,请问无人驾驶汽车为什么会遇到危险?是因为算法不够完善。至少证明在现在的算法情况下,就会遇到两难的困境。所以问题就是在现状这个算法遇到两难困境的时候,它该怎么决策,这才是这道题应该讨论的。如果今天讨论一个完美算法该怎么做,本身就不存在两难困境,也就不存在保护优先的问题,这是第一个部分。
第二个部分,你说无人驾驶汽车研究了很多程序要保护行人。我明白现在无人驾驶有很多研究的前沿是要如何避障。我想问,无人驾驶汽车要保护行人,等于在危险的两难情况之下要优先保护行人吗?这里的问题是在城市里面你怎么定义危险情况。我之所以说这是一个判断认知问题,是因为在编写程序的时候,并不存在一个每时每刻都在进行的循环逻辑,即判断这是不是一个危机情况。在运行程序时,它是一套自然进行的算法,然后做出不同的决策。这就是我觉得你刚才没有听懂我想要解释的问题的原因。所以我们现在会发生事故,并不是因为程序选择了保护驾驶员,而是因为程序识别不出来那是个人。
我听懂了,你讲的核心逻辑是现在有很多前沿技术在保护行人,但我想说,要保护行人不等于要优先保护行人,这是第二个部分。
第三个部分,你的态度是行人有错也要保护,对吧?我想问,你这种态度会带来什么好的道路交通安全情况吗?你打算论证这件事吗?你觉得这是常识,那我们来看一看到底是不是这样。比如美国加州和亚利桑那州的调查显示,很多行人甚至是非机动车驾驶员会利用现在程序当中这种优先保护行人的程序来故意违反交通规则,仗着自己是行人就可以横穿马路、违反交通规则。越来越多的行人因为这样的算法违反交通规则,这是安全的表现吗?谢谢,这不就是现在的因果关系吗?
单边计时1分30秒。
第一个问题,如果压根儿就不存在两难困境,请问无人驾驶汽车为什么会遇到危险?是因为算法不够完善。至少证明在现在的算法情况下,就会遇到两难的困境。所以问题就是在现状这个算法遇到两难困境的时候,它该怎么决策,这才是这道题应该讨论的。如果今天讨论一个完美算法该怎么做,本身就不存在两难困境,也就不存在保护优先的问题,这是第一个部分。
第二个部分,你说无人驾驶汽车研究了很多程序要保护行人。我明白现在无人驾驶有很多研究的前沿是要如何避障。我想问,无人驾驶汽车要保护行人,等于在危险的两难情况之下要优先保护行人吗?这里的问题是在城市里面你怎么定义危险情况。我之所以说这是一个判断认知问题,是因为在编写程序的时候,并不存在一个每时每刻都在进行的循环逻辑,即判断这是不是一个危机情况。在运行程序时,它是一套自然进行的算法,然后做出不同的决策。这就是我觉得你刚才没有听懂我想要解释的问题的原因。所以我们现在会发生事故,并不是因为程序选择了保护驾驶员,而是因为程序识别不出来那是个人。
我听懂了,你讲的核心逻辑是现在有很多前沿技术在保护行人,但我想说,要保护行人不等于要优先保护行人,这是第二个部分。
第三个部分,你的态度是行人有错也要保护,对吧?我想问,你这种态度会带来什么好的道路交通安全情况吗?你打算论证这件事吗?你觉得这是常识,那我们来看一看到底是不是这样。比如美国加州和亚利桑那州的调查显示,很多行人甚至是非机动车驾驶员会利用现在程序当中这种优先保护行人的程序来故意违反交通规则,仗着自己是行人就可以横穿马路、违反交通规则。越来越多的行人因为这样的算法违反交通规则,这是安全的表现吗?谢谢,这不就是现在的因果关系吗?
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
反方三辩:盘位是一对一,我可以从正方一辩、二辩、四辩中挑一人来进行质询。
我开始提问。第一个问题,你们想要构建两难情境,那怎么判断现在是两难呢?即便不是两难,至少你们所说的两方中总有一方会受到伤害。如果说两方都能发展得更好,那又如何比较这个辩题呢?我方认为两种情况都有可能。
我方想要告诉各位的是,反方提供了一条绝对安全的路径,我之后会进行解释。
接下来想问,你似乎试图说明在广告宣传过程中,消费者会更愿意选择保护消费者的产品,没错吧?
正方:对,有一个很朴素的意愿。
反方三辩:假如现在有两款汽车,一款汽车的广告语是不会发生任何事故,另一款汽车保证的是当需要在乘务员和行人之间做出选择时撞行人。为什么大家会更倾向于第二款呢?因为目前不存在能处理好两种情况的汽车。此时,广告语就变成了保护我和不保护我的汽车,你会选择哪一个呢?我方认为选择保护自己的汽车是无可厚非的。
当第一种情况可以达成时,大家都会选择前者,这是你们承认的一个前提性逻辑,这也是我方想要和你们探讨如何达到这个目的的方式。
最后一个问题,我很好奇,如果今天企业在计算之后发现,与其投入精力发展算法,不如直接撞行人然后赔偿行人的钱来得更少,那企业为什么会有动力去发展算法呢?你要证明为什么行人优先可以倒逼算法的发展,不能说因为算法总会发展,所以保护责任政策更好,这个逻辑你要理清楚。我方待会儿会论证为什么它会促使企业发展算法。
好的,谢谢。
反方三辩:盘位是一对一,我可以从正方一辩、二辩、四辩中挑一人来进行质询。
我开始提问。第一个问题,你们想要构建两难情境,那怎么判断现在是两难呢?即便不是两难,至少你们所说的两方中总有一方会受到伤害。如果说两方都能发展得更好,那又如何比较这个辩题呢?我方认为两种情况都有可能。
我方想要告诉各位的是,反方提供了一条绝对安全的路径,我之后会进行解释。
接下来想问,你似乎试图说明在广告宣传过程中,消费者会更愿意选择保护消费者的产品,没错吧?
正方:对,有一个很朴素的意愿。
反方三辩:假如现在有两款汽车,一款汽车的广告语是不会发生任何事故,另一款汽车保证的是当需要在乘务员和行人之间做出选择时撞行人。为什么大家会更倾向于第二款呢?因为目前不存在能处理好两种情况的汽车。此时,广告语就变成了保护我和不保护我的汽车,你会选择哪一个呢?我方认为选择保护自己的汽车是无可厚非的。
当第一种情况可以达成时,大家都会选择前者,这是你们承认的一个前提性逻辑,这也是我方想要和你们探讨如何达到这个目的的方式。
最后一个问题,我很好奇,如果今天企业在计算之后发现,与其投入精力发展算法,不如直接撞行人然后赔偿行人的钱来得更少,那企业为什么会有动力去发展算法呢?你要证明为什么行人优先可以倒逼算法的发展,不能说因为算法总会发展,所以保护责任政策更好,这个逻辑你要理清楚。我方待会儿会论证为什么它会促使企业发展算法。
好的,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
倒逼企业发展的前提至少是企业要有足够的资金,足够的研发资金来不断地优化自己的算法,而这个前提就在于无人驾驶汽车要得到推广。
所以在推广这个维度上,我方二辩很早就取过大量的数据,已经证明了这件事情。我认为对方压根就没有在这个辩题上进行论证,他们证明的是今天有一条两全其美的道路,那当然好了,可是这根本没有证明到无人驾驶汽车现在遇到危险的时候应该以谁优先。所以对方的立论没有针对这条辩题,我就不想赘述了。
回过头来,对方的态度是很危险的。他们的态度是既然有错就要去做,因为他们认为这样的发展会更好。可是我方引用的联合调查显示,当行人、非机动车驾驶员探测到机动车的算法程序会有优先保护自己的措施时,他们会更加肆无忌惮地去违反交通规则。
而在这样的情况下,联合调查进一步发现,这会造成交通堵塞以及更多安全事故的发生。我举个很简单的例子,大家都经历过在一个大型活动之后,外面的两三条街交通事故特别多。为什么?因为一群人手拉着手横穿马路,肆无忌惮,觉得自己是行人就可以很猖狂。可是这样的情况真的有利于交通的安全吗?根本就不是。对方辩友表面上秉持的是人道主义的大局观,实际上是违反规则,纵容行人违反规则,从而导致交通更加混乱。
反过头来,我方讲得很简单,乘客在乘车时是没有过错的。因为我方今天的研究发现,如今无人驾驶汽车遵守交通规则的比率高达98%,甚至更高,这意味着无人驾驶汽车在道路上行驶时是完全遵守交通规则的。而我方今天的驾驶理念就是在告诉大家,我们应该对那些遵守规则的人进行优先保护,我们应该让遵守规则的人不要寒心。只有这样,整个社会才会养成良好的遵守规则的氛围,让规则来保护大家,比那种人道主义的圣母心来保护大家更好。谢谢。
倒逼企业发展的前提至少是企业要有足够的资金,足够的研发资金来不断地优化自己的算法,而这个前提就在于无人驾驶汽车要得到推广。
所以在推广这个维度上,我方二辩很早就取过大量的数据,已经证明了这件事情。我认为对方压根就没有在这个辩题上进行论证,他们证明的是今天有一条两全其美的道路,那当然好了,可是这根本没有证明到无人驾驶汽车现在遇到危险的时候应该以谁优先。所以对方的立论没有针对这条辩题,我就不想赘述了。
回过头来,对方的态度是很危险的。他们的态度是既然有错就要去做,因为他们认为这样的发展会更好。可是我方引用的联合调查显示,当行人、非机动车驾驶员探测到机动车的算法程序会有优先保护自己的措施时,他们会更加肆无忌惮地去违反交通规则。
而在这样的情况下,联合调查进一步发现,这会造成交通堵塞以及更多安全事故的发生。我举个很简单的例子,大家都经历过在一个大型活动之后,外面的两三条街交通事故特别多。为什么?因为一群人手拉着手横穿马路,肆无忌惮,觉得自己是行人就可以很猖狂。可是这样的情况真的有利于交通的安全吗?根本就不是。对方辩友表面上秉持的是人道主义的大局观,实际上是违反规则,纵容行人违反规则,从而导致交通更加混乱。
反过头来,我方讲得很简单,乘客在乘车时是没有过错的。因为我方今天的研究发现,如今无人驾驶汽车遵守交通规则的比率高达98%,甚至更高,这意味着无人驾驶汽车在道路上行驶时是完全遵守交通规则的。而我方今天的驾驶理念就是在告诉大家,我们应该对那些遵守规则的人进行优先保护,我们应该让遵守规则的人不要寒心。只有这样,整个社会才会养成良好的遵守规则的氛围,让规则来保护大家,比那种人道主义的圣母心来保护大家更好。谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
各位好,我本来想在小结先解释一个概念,但听完正方小结之后,我得先证明一个小知识点,反方并非出于圣母心。反方今天秉持的是一个非常基础的道德存在概念,即路权的概念。
就好像在英国,当行人过马路时,我们会默认行人拥有更高的路权。这与如果有一匹马在道路上行进,或者有骑自行车的人在道路上行进,车辆需要更多地主动规避以保护他们安全的理由是一样的。这并非出于圣母心,而是因为作为同样道路的使用者,我们需要将更多的权利倾向于弱势方,以保障他们的权益。就像车辆离马太近,马可能会受惊,从而导致更大的危险,所以要优先保护他们的安全。这也是为什么在英国有很多人会仗着自己行人的身份横穿马路。
回到我方更想聊的问题,我们到底怎样才可以倒逼企业发展。正方的态度是,今天存在一个两难困境,在这个场景里,要更优先地保障驾驶员的安全。但这样能倒逼企业发展吗?显然不能。恰恰是因为有了这个理由,企业会说自己就是这么宣传的,大家也都知道是更多地保护驾驶员的安全,这样不就够了。恰恰是正方的态度会让企业失去进步的动力。甚至,正方到现在也一直没有解释为什么消费者会愿意接受一辆危险的自动驾驶汽车行驶在道路上,因为我们所有人都享用着公共交通道路的补助,所以这也体现了正方逻辑的不自洽。
恰恰是反方的态度,因为我们既要保障行人,又要保障驾驶员的安全,所以要规避这部分事故的发生,反方才能够推动行业的进步。
谢谢。
各位好,我本来想在小结先解释一个概念,但听完正方小结之后,我得先证明一个小知识点,反方并非出于圣母心。反方今天秉持的是一个非常基础的道德存在概念,即路权的概念。
就好像在英国,当行人过马路时,我们会默认行人拥有更高的路权。这与如果有一匹马在道路上行进,或者有骑自行车的人在道路上行进,车辆需要更多地主动规避以保护他们安全的理由是一样的。这并非出于圣母心,而是因为作为同样道路的使用者,我们需要将更多的权利倾向于弱势方,以保障他们的权益。就像车辆离马太近,马可能会受惊,从而导致更大的危险,所以要优先保护他们的安全。这也是为什么在英国有很多人会仗着自己行人的身份横穿马路。
回到我方更想聊的问题,我们到底怎样才可以倒逼企业发展。正方的态度是,今天存在一个两难困境,在这个场景里,要更优先地保障驾驶员的安全。但这样能倒逼企业发展吗?显然不能。恰恰是因为有了这个理由,企业会说自己就是这么宣传的,大家也都知道是更多地保护驾驶员的安全,这样不就够了。恰恰是正方的态度会让企业失去进步的动力。甚至,正方到现在也一直没有解释为什么消费者会愿意接受一辆危险的自动驾驶汽车行驶在道路上,因为我们所有人都享用着公共交通道路的补助,所以这也体现了正方逻辑的不自洽。
恰恰是反方的态度,因为我们既要保障行人,又要保障驾驶员的安全,所以要规避这部分事故的发生,反方才能够推动行业的进步。
谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
双方各有3分钟的时间,正方先开始。
谢谢。第一个问题,影响推动企业的进步。我刚给出的路径是,让更多的人购买智能源的无人驾驶车,以此来推广智能技术。反方有什么其他路径?是融资。
不好意思,我这边网卡了,没听清你说话。麻烦重新计时,时间回到3分钟可以吗?没问题。
我往下问,你说融资可以达成这个结果,且双方都可以融资。那你怎么说服一个人去买一辆不保护乘客的车呢?
这里的探讨区别在于场域。你方想要聊的是广告宣传,但我方认为,相较于你方,宣传保护驾驶员和乘客安全以及应对事故发生的情况,才是更好的选择。所以拉回来,从我方角度看,到底怎样才能判断在当前情况下一定必须牺牲一个人呢?不对,我现在是在比较哪一方更能促进无人驾驶的发展。你也说了技术要发展,我比较的是路径,而你只告诉我融资可以推动发展。
我再问你,在无人驾驶的情况下,人们会认为它比有人驾驶更安全。所以当无人驾驶推广开来后,行人也会更安全,这件事有无相对的反例呢?并没有相对的反例。因为相关数据本身并不周全,无人驾驶更安全是因为它比其他道路使用者行驶得更慢,这也是部分人不喜欢它的理由。
回答我的问题,你方是以什么来推动无人驾驶进步的?推动进步在于让更多人选择,从而有更多资金去研究更好的技术。
你有证明它行驶更慢所以更安全吗?事实是美国无人驾驶的案例摆在那里。所以你还是没有回答我的问题,你一直断言更多人会愿意以这种方式推动进步,但你所说的也只是更多人会购买,对吧?
对,所以我在和你比较路径,你还没能给我一个有效路径。在中国萝卜快跑项目中,没有对无人驾驶车进行限速,只告知它和其他车享有相同路权,而在自动驾驶的追尾和其他事故中,其发生率比人类驾驶低了50%。在这种无人驾驶使交通环境更安全的情况下,你推行行人优先,除了放纵行人的一些不良行为之外,还有什么意义呢?
等一下,不好意思,我没听懂无人驾驶更安全和我们更应该保障行人和消费者权益有什么关系。在我方看来,如果保障了乘客,会有更多人愿意接纳无人驾驶,更多人愿意购买无人驾驶车,才能使无人驾驶在交通领域得到推广。但无人驾驶推广后整体道路更安全,这不是你方自己也承认的两方都更安全的例子吗?不对。所以你要向我证明,如果今天保护行人也能让大家更多地接纳无人驾驶,我方觉得没问题,这是双赢的。但问题是你没有证明,行人优先为什么能使大家更接纳无人驾驶?我刚告诉你大家更愿意选择保护乘客的无人驾驶,所以在这件事上你需要进行比较,这是我对你的质疑。
第二件事,同学,我问你,自动驾驶对规则的遵守率高达98%,为什么你觉得行人破坏规则我还要礼让他呢?
我懂了,引入一个概念。刚才我方同学跟你方解释过,我听懂你方的逻辑了。你方是不是想说,消费者会更愿意选择保护驾驶员的汽车,所以你方觉得通过这种方式推广无人驾驶能让大家更安全。但我方刚才的质疑是,大家为什么会更倾向于选择保护驾驶员,而不是选择不会发生事故的选项呢?我总觉得你方同学在强调一个更好的车,那大家当然愿意选。但问题是在乘客保护优先和行人保护优先两个理念当中,政府选择乘客保护优先更好。这一点我们已经讨论很多了,我追问一下我方思辨的问题。今天我好好在马路上开车,结果一个违反规则的人成了“大爷”,我还要让着他停下,就因为他们是更脆弱的道路使用者,这是什么道理?所以我想问,你们没有论证这个问题,在保护行人的前提下,同时保护好行人和驾驶人的现状下,为什么保护驾驶员这条原则不会成为一个甩锅的理由?
我确定一下,我们在制定规则的时候保护行人,等于规则制定完之后,他们还有违反规则的自由吗?如果制定规则的时候不保护……对,所以制定规则时保护行人,不就证明反方观点了吗?当然不是,因为这道题讨论的是追责,在道路交通安全法已经制定的情况下,行人频繁违规后,你是否还要纵容行人的行为?我方认为不要。那你方坚持这种行为,就回答一下加州的例子,很多行人仗着你不敢怎么样,就横穿马路,造成交通堵塞,甚至更多交通事故,这是你方认为更好的情况吗?
不是,所以我想确认你方的态度是不是制定规则时要保护行人,但实在不行就放任?制定规则的时候,要通盘考虑交通安全的各种情况。但我追问一下加州的例子,道路交通更加堵塞,事故更多,这是你方认为更好的局面吗?你方不是举例说无人驾驶更安全了吗?事实就是对方同学所说,因为行人是弱者,他们就可以无条件违反规则。加州和亚利桑那州的事例已经证明,这样的行为无助于社会的发展。
谢谢。
双方各有3分钟的时间,正方先开始。
谢谢。第一个问题,影响推动企业的进步。我刚给出的路径是,让更多的人购买智能源的无人驾驶车,以此来推广智能技术。反方有什么其他路径?是融资。
不好意思,我这边网卡了,没听清你说话。麻烦重新计时,时间回到3分钟可以吗?没问题。
我往下问,你说融资可以达成这个结果,且双方都可以融资。那你怎么说服一个人去买一辆不保护乘客的车呢?
这里的探讨区别在于场域。你方想要聊的是广告宣传,但我方认为,相较于你方,宣传保护驾驶员和乘客安全以及应对事故发生的情况,才是更好的选择。所以拉回来,从我方角度看,到底怎样才能判断在当前情况下一定必须牺牲一个人呢?不对,我现在是在比较哪一方更能促进无人驾驶的发展。你也说了技术要发展,我比较的是路径,而你只告诉我融资可以推动发展。
我再问你,在无人驾驶的情况下,人们会认为它比有人驾驶更安全。所以当无人驾驶推广开来后,行人也会更安全,这件事有无相对的反例呢?并没有相对的反例。因为相关数据本身并不周全,无人驾驶更安全是因为它比其他道路使用者行驶得更慢,这也是部分人不喜欢它的理由。
回答我的问题,你方是以什么来推动无人驾驶进步的?推动进步在于让更多人选择,从而有更多资金去研究更好的技术。
你有证明它行驶更慢所以更安全吗?事实是美国无人驾驶的案例摆在那里。所以你还是没有回答我的问题,你一直断言更多人会愿意以这种方式推动进步,但你所说的也只是更多人会购买,对吧?
对,所以我在和你比较路径,你还没能给我一个有效路径。在中国萝卜快跑项目中,没有对无人驾驶车进行限速,只告知它和其他车享有相同路权,而在自动驾驶的追尾和其他事故中,其发生率比人类驾驶低了50%。在这种无人驾驶使交通环境更安全的情况下,你推行行人优先,除了放纵行人的一些不良行为之外,还有什么意义呢?
等一下,不好意思,我没听懂无人驾驶更安全和我们更应该保障行人和消费者权益有什么关系。在我方看来,如果保障了乘客,会有更多人愿意接纳无人驾驶,更多人愿意购买无人驾驶车,才能使无人驾驶在交通领域得到推广。但无人驾驶推广后整体道路更安全,这不是你方自己也承认的两方都更安全的例子吗?不对。所以你要向我证明,如果今天保护行人也能让大家更多地接纳无人驾驶,我方觉得没问题,这是双赢的。但问题是你没有证明,行人优先为什么能使大家更接纳无人驾驶?我刚告诉你大家更愿意选择保护乘客的无人驾驶,所以在这件事上你需要进行比较,这是我对你的质疑。
第二件事,同学,我问你,自动驾驶对规则的遵守率高达98%,为什么你觉得行人破坏规则我还要礼让他呢?
我懂了,引入一个概念。刚才我方同学跟你方解释过,我听懂你方的逻辑了。你方是不是想说,消费者会更愿意选择保护驾驶员的汽车,所以你方觉得通过这种方式推广无人驾驶能让大家更安全。但我方刚才的质疑是,大家为什么会更倾向于选择保护驾驶员,而不是选择不会发生事故的选项呢?我总觉得你方同学在强调一个更好的车,那大家当然愿意选。但问题是在乘客保护优先和行人保护优先两个理念当中,政府选择乘客保护优先更好。这一点我们已经讨论很多了,我追问一下我方思辨的问题。今天我好好在马路上开车,结果一个违反规则的人成了“大爷”,我还要让着他停下,就因为他们是更脆弱的道路使用者,这是什么道理?所以我想问,你们没有论证这个问题,在保护行人的前提下,同时保护好行人和驾驶人的现状下,为什么保护驾驶员这条原则不会成为一个甩锅的理由?
我确定一下,我们在制定规则的时候保护行人,等于规则制定完之后,他们还有违反规则的自由吗?如果制定规则的时候不保护……对,所以制定规则时保护行人,不就证明反方观点了吗?当然不是,因为这道题讨论的是追责,在道路交通安全法已经制定的情况下,行人频繁违规后,你是否还要纵容行人的行为?我方认为不要。那你方坚持这种行为,就回答一下加州的例子,很多行人仗着你不敢怎么样,就横穿马路,造成交通堵塞,甚至更多交通事故,这是你方认为更好的情况吗?
不是,所以我想确认你方的态度是不是制定规则时要保护行人,但实在不行就放任?制定规则的时候,要通盘考虑交通安全的各种情况。但我追问一下加州的例子,道路交通更加堵塞,事故更多,这是你方认为更好的局面吗?你方不是举例说无人驾驶更安全了吗?事实就是对方同学所说,因为行人是弱者,他们就可以无条件违反规则。加州和亚利桑那州的事例已经证明,这样的行为无助于社会的发展。
谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
总结陈词时间是3分30秒。
各位,有一点让我很困惑,就是正方一直拿着数据跟我说,自动驾驶更安全。正三辩也拿数据说,因为行人不遵守道路法规,使得自动驾驶变得更危险了。那么,自动驾驶到底是更危险还是更安全,你们到底想表达什么?
其实,在某种意义上,正反双方达成了一个共识,即在制定标准、设计程序时,我们永远以保护行人为优先级。我方认为,这似乎就是反方辩题的论证过程,即人在这个制定过程中是具有更高优先级的考量。我甚至从技术角度向各位阐释了为什么在算法设计过程中,行人甚至是唯一的考量。
我理解正方今天整个比赛的逻辑,因为在正方的观念里始终存在一个概念,即如果到了极限,AI终究比不过人类,人类的想象力非常奇特,所以一定会出现AI无法触及的情况,在那种情况下,我们就要进行选择。而我恰恰想和各位讨论的是,这个两难问题可能并不存在,或者说这并不是一个值得讨论的问题。为什么呢?因为当你认可两难问题的存在,其实就是认可了程序会存在漏洞,这就给了程序不进步一个借口。为什么这么说呢?因为这是一个两难困境,城市发展到这个程度,程序不够优化,所以我们没办法,可能更多只能保护驾驶者。
各位,往阴暗处想,当公司以这个借口告知你们时,你们想象一下,他们不优化程序的理由,到底是因为程序优化不了,还是因为优化程序花费的钱更多?事实上,公司不就是这么做的吗?之前我忘记是宝马还是奔驰,不就是欺骗消费者,认为进行赔偿比召回存在安全隐患的车辆更经济吗?所以我想说不是这样的,这是我们推动城市进步、真正让道路变得更安全的方式吗?显然不是。
所以回过头来讲,恰恰是正方在纵容两难问题继续存在。正方说,今天更多地保护驾驶员,会更好地促进消费者购买。可是,购买之后的钱是被赚走了,还是被用来优化程序,正方其实从未论证过。
而反方想告诉各位的是,真正能倒逼企业做出选择的是什么?是让企业以行人为优先级。同时,企业为了把车卖出去,只能解决两难问题,让这个世界上不存在两难困境。这代表着所有人都能得到保护,这才是正确的途径。
谢谢!
总结陈词时间是3分30秒。
各位,有一点让我很困惑,就是正方一直拿着数据跟我说,自动驾驶更安全。正三辩也拿数据说,因为行人不遵守道路法规,使得自动驾驶变得更危险了。那么,自动驾驶到底是更危险还是更安全,你们到底想表达什么?
其实,在某种意义上,正反双方达成了一个共识,即在制定标准、设计程序时,我们永远以保护行人为优先级。我方认为,这似乎就是反方辩题的论证过程,即人在这个制定过程中是具有更高优先级的考量。我甚至从技术角度向各位阐释了为什么在算法设计过程中,行人甚至是唯一的考量。
我理解正方今天整个比赛的逻辑,因为在正方的观念里始终存在一个概念,即如果到了极限,AI终究比不过人类,人类的想象力非常奇特,所以一定会出现AI无法触及的情况,在那种情况下,我们就要进行选择。而我恰恰想和各位讨论的是,这个两难问题可能并不存在,或者说这并不是一个值得讨论的问题。为什么呢?因为当你认可两难问题的存在,其实就是认可了程序会存在漏洞,这就给了程序不进步一个借口。为什么这么说呢?因为这是一个两难困境,城市发展到这个程度,程序不够优化,所以我们没办法,可能更多只能保护驾驶者。
各位,往阴暗处想,当公司以这个借口告知你们时,你们想象一下,他们不优化程序的理由,到底是因为程序优化不了,还是因为优化程序花费的钱更多?事实上,公司不就是这么做的吗?之前我忘记是宝马还是奔驰,不就是欺骗消费者,认为进行赔偿比召回存在安全隐患的车辆更经济吗?所以我想说不是这样的,这是我们推动城市进步、真正让道路变得更安全的方式吗?显然不是。
所以回过头来讲,恰恰是正方在纵容两难问题继续存在。正方说,今天更多地保护驾驶员,会更好地促进消费者购买。可是,购买之后的钱是被赚走了,还是被用来优化程序,正方其实从未论证过。
而反方想告诉各位的是,真正能倒逼企业做出选择的是什么?是让企业以行人为优先级。同时,企业为了把车卖出去,只能解决两难问题,让这个世界上不存在两难困境。这代表着所有人都能得到保护,这才是正确的途径。
谢谢!
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
强调反方观点,即在制定标准、设计程序时以保护行人为优先级,认为这是正确途径,能倒逼企业解决两难问题,让所有人都得到保护。