例如,《在恋爱关系中,应该追求等价的付出·在恋爱关系中,不应该追求等价的付出》一题,辩之竹内共收录26场比赛。我们为您提供这26场比赛的论点、判断标准提取,以及总计数百条论据的提取,还有Deepseek的辩题分析。这可以帮您更好备赛。
欢迎您点击下方按钮,前往查看。
能听见吗?现在正方选手可以开始试音了。现在会不会好一点,现在好了,可以开始。
正方二辩可以听到吗?可以听清。正方三辩可以听到吗?可以听清。正方四辩可以听到吗?可以听清。
反方一辩,可以听到吗?可以听清。反方二辩在吗?不好意思,刚刚没开麦。反方二辩可以听见吗?可以听清。反方三辩,请问可以听到吗?听得清。反方四辩可以听清吗?可以听清。
能听见吗?现在正方选手可以开始试音了。现在会不会好一点,现在好了,可以开始。
正方二辩可以听到吗?可以听清。正方三辩可以听到吗?可以听清。正方四辩可以听到吗?可以听清。
反方一辩,可以听到吗?可以听清。反方二辩在吗?不好意思,刚刚没开麦。反方二辩可以听见吗?可以听清。反方三辩,请问可以听到吗?听得清。反方四辩可以听清吗?可以听清。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
文本主要是进行辩手试音,依次询问正方二辩、三辩、四辩以及反方一辩、二辩、三辩、四辩是否能听清,确保辩手的音频设备正常工作。
我方认为应该允许人工智能参与军事规划与决策。
军事规划与决策是指军事人员依据多种因素对军事行动的目标、任务、力量运用进行筹划并做出决定的过程。当今人工智能的崛起影响着各行各业,其影响力逐渐渗透到军事领域。依据杭州智国的统计以及预测数据,到2030年,全球军用人工智能市场销售额将飙升至153.8亿美元,2023年到2024年期间的年复合增长率高达13.9%。这表明军用人工智能市场将在未来几年保持强劲的发展势头。
正如美国国防部发布的国防部数据战略明确提出,当前世界已经进入算法时代,智能化战争势不可当。国际人道主义法的本质在于保护平民、战俘、伤者、病患者,并且对作战方法和手段加以限制的原则和规则,目的在于尽量减轻武装冲突给人们带来的痛苦。根据国际人道法五大原则,我方提出以下判断标准:人工智能参与军事规划与决策,能够推动国际人道主义法在军事中的发展。
基于以上,我方提出第一个论点,人工智能的广泛运用与精确度不断提升,能够更好地满足核心原则。以以色列军方应用的福音系统为例,该系统通过整合卫星图像、通信数据等多元信息,将目标分析时间从一周缩短至30分钟,显著提升了对哈马斯军事目标的定位效率。同时,AI的客观性与数据处理能力可减少人类因认知偏差或压力导致的误判。例如,洛克希德·马丁公司的AI驱动无人机系统,通过多传感器融合与实时环境建模,能够在动态战场中识别伪装目标并评估附带损伤,其算法可量化与计算攻击行为的军事必要性与平民伤害比例,相对于人类更易满足比例原则的刚性要求。
因此,人工智能在军事中的大规模应用并非突然兴起。通过赋予作战系统学习和思考能力,AI持续推动作战系统的应用与提升,未来AI将更深入地参与军事信息的分析,这一趋势不可逆转,AI在军事中的全面运用已是必然。故我们今天应该讨论的是AI必然存在的背景下,如何才能让新型科技向好发展。
故我方提出第二个论点,从非战军事行动角度来看,人工智能在战场的普及性不断提高,依托战争背景,积累大量战略数据,通过训练军事AI,能够实现在战场上人道主义的实践。例如,X12是由美国国防创新部门合作开发的开源项目,通过机器算法和卫星图像快速识别灾区建筑物和基础设施损坏并分类,准确率高达80% - 90%。其优势在于通过空中视角快速发现地面人员未察觉的受损区域,极大支持了人道主义救援行动。
AI在军事领域的发展已成必然趋势,既能提升作战效率,也能支持人道主义,合理引导AI的发展,服务于人类安全与全球福祉。
综上,我方坚定认为应该支持人工智能进行军事规划与决策。
我方认为应该允许人工智能参与军事规划与决策。
军事规划与决策是指军事人员依据多种因素对军事行动的目标、任务、力量运用进行筹划并做出决定的过程。当今人工智能的崛起影响着各行各业,其影响力逐渐渗透到军事领域。依据杭州智国的统计以及预测数据,到2030年,全球军用人工智能市场销售额将飙升至153.8亿美元,2023年到2024年期间的年复合增长率高达13.9%。这表明军用人工智能市场将在未来几年保持强劲的发展势头。
正如美国国防部发布的国防部数据战略明确提出,当前世界已经进入算法时代,智能化战争势不可当。国际人道主义法的本质在于保护平民、战俘、伤者、病患者,并且对作战方法和手段加以限制的原则和规则,目的在于尽量减轻武装冲突给人们带来的痛苦。根据国际人道法五大原则,我方提出以下判断标准:人工智能参与军事规划与决策,能够推动国际人道主义法在军事中的发展。
基于以上,我方提出第一个论点,人工智能的广泛运用与精确度不断提升,能够更好地满足核心原则。以以色列军方应用的福音系统为例,该系统通过整合卫星图像、通信数据等多元信息,将目标分析时间从一周缩短至30分钟,显著提升了对哈马斯军事目标的定位效率。同时,AI的客观性与数据处理能力可减少人类因认知偏差或压力导致的误判。例如,洛克希德·马丁公司的AI驱动无人机系统,通过多传感器融合与实时环境建模,能够在动态战场中识别伪装目标并评估附带损伤,其算法可量化与计算攻击行为的军事必要性与平民伤害比例,相对于人类更易满足比例原则的刚性要求。
因此,人工智能在军事中的大规模应用并非突然兴起。通过赋予作战系统学习和思考能力,AI持续推动作战系统的应用与提升,未来AI将更深入地参与军事信息的分析,这一趋势不可逆转,AI在军事中的全面运用已是必然。故我们今天应该讨论的是AI必然存在的背景下,如何才能让新型科技向好发展。
故我方提出第二个论点,从非战军事行动角度来看,人工智能在战场的普及性不断提高,依托战争背景,积累大量战略数据,通过训练军事AI,能够实现在战场上人道主义的实践。例如,X12是由美国国防创新部门合作开发的开源项目,通过机器算法和卫星图像快速识别灾区建筑物和基础设施损坏并分类,准确率高达80% - 90%。其优势在于通过空中视角快速发现地面人员未察觉的受损区域,极大支持了人道主义救援行动。
AI在军事领域的发展已成必然趋势,既能提升作战效率,也能支持人道主义,合理引导AI的发展,服务于人类安全与全球福祉。
综上,我方坚定认为应该支持人工智能进行军事规划与决策。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
人工智能参与军事规划与决策,能够推动国际人道主义法在军事中的发展。
哈尔滨驳论的时间为1分30秒,一起计时。
第一件事,你方今天无非告诉我,用AI在军事当中能够提高精度,减少人类的误判。可是,今天的问题在于,兰德公司的研究表明,2025年AI主导的局部冲突误击平民的风险会上升22%。要知道,人道法的宗旨是保护平民、战俘和伤者,而如今它误击平民的风险上升了22%。所以可见,人工智能运用在军事作战当中会造成更加不人道的现象。
后面再举个例子,2003年美国导弹系统错误地标记了友军的战斗机,指挥人员只有几秒钟的反应时间,选择相信AI,结果造成了友军的伤亡。这就是你方所讲的所谓“高效”,也就是你刚刚所说的将决策时间从一周缩短到30分钟。然而,这种“高效”会带来因误判而产生的更大问题。
红十字国际委员会的法律顾问周文博士也指出,决策者往往没有足够的时间去评估、质疑人工智能决策支持系统输出的内容。所以,当人工智能22%的误判发生时,人没有时间去进行纠正,这是第一点。
第二点,你提到人工智能如何向好发展,好像想用人工智能去开展救援行动。可是,前面我们已经列举了很多军用人工智能的情况,当我们发现美国、以色列等大国在巴以冲突、俄乌战争中都将其运用到武器当中时,真正运用到救援行动中的情况是很少的。
哈尔滨驳论的时间为1分30秒,一起计时。
第一件事,你方今天无非告诉我,用AI在军事当中能够提高精度,减少人类的误判。可是,今天的问题在于,兰德公司的研究表明,2025年AI主导的局部冲突误击平民的风险会上升22%。要知道,人道法的宗旨是保护平民、战俘和伤者,而如今它误击平民的风险上升了22%。所以可见,人工智能运用在军事作战当中会造成更加不人道的现象。
后面再举个例子,2003年美国导弹系统错误地标记了友军的战斗机,指挥人员只有几秒钟的反应时间,选择相信AI,结果造成了友军的伤亡。这就是你方所讲的所谓“高效”,也就是你刚刚所说的将决策时间从一周缩短到30分钟。然而,这种“高效”会带来因误判而产生的更大问题。
红十字国际委员会的法律顾问周文博士也指出,决策者往往没有足够的时间去评估、质疑人工智能决策支持系统输出的内容。所以,当人工智能22%的误判发生时,人没有时间去进行纠正,这是第一点。
第二点,你提到人工智能如何向好发展,好像想用人工智能去开展救援行动。可是,前面我们已经列举了很多军用人工智能的情况,当我们发现美国、以色列等大国在巴以冲突、俄乌战争中都将其运用到武器当中时,真正运用到救援行动中的情况是很少的。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
谢谢主席,问候在场各位。
开宗明义,根据 IT 专业社区 CSPN 定义,人工智能进行规划与决策,是指人工智能跟进目标制定方案,并通过一系列步骤达成实践目标的过程,完全不同于单纯提供数据的行为。它不像查询数据那样简单,不能说它对本场辩论进行了规划和决策。同时我们必须注意到,与普通角色不同,每个军事决策都涉及数以万计的真实生命。在谷歌等科技巨头纷纷删除人工智能不能用于武器和监控的承诺,各大国在公开文献中表明将人工智能发展为战争机器的现状下,我方认为,如果允许人工智能进行军事规划与决策,必然会造成不可挽回的人道主义危机。
首先,人工智能的低准确率使其在进行军事规划与决策时会造成大量误判。根据莱安德公司模拟推演的结果,2025 年 AI 主导的局部冲突中,误伤平民的风险上升 22%。这种风险在实际应用中也得到了证实。联合国驻乌克兰侦察小组最近报告显示,配备 AI 人脸识别功能的短程无人机正在以极快的速度残杀平民,这是平民的死亡数量首次超过传统导弹武器。无独有偶,2021 年 6 月,土耳其无人机在自主模式下猎杀一个人类目标,造成无人机自主杀人的惨案。今年 3 月,一架搭载决策系统的无人机因算法漏洞将婚礼现场预判为军事目标,造成 27 人伤亡。由此可见,军事人工智能并非如支持者所言可以减少无辜伤亡,其低准确率反而使其朝着无差别杀人机器的方向发展。
其次,军事智能的运用迫使战争走向非人道方向。现任红十字国际委员会法律顾问周文博士表示,在需要对武力使用做出军事决策的高压环境下,决策者往往没有足够的时间去评估或质疑人工智能决策输出的内容。例如,2003 年 3 月,美国“爱国者”导弹系统曾错误地将友军的“龙卷风”战斗机标记为来袭导弹,指挥人员在只有几秒钟反应时间的压力状态下选择发射导弹,造成了两名飞行员的死亡。也就是说,在战争中,如果要保证决策的高效性,人工智能低准确率的决策将会在没有人类评估的情况下被直接使用,这无疑会造成不可挽回的惨剧。
更可怕的是,当人工智能具备杀伤力远超于传统武器的杀人机器进入战场,人类为了赢得战争可能会变得不择手段。例如,以色列国防军为了杀死尽可能多的哈马斯而扩大了福音人工智能系统的军事行动范围,大大放宽了限制平民伤亡的规定。他们的“薰衣草”系统每击杀一名低级哈马斯成员,允许误杀 4 - 20 名平民,高级指挥官可以多杀超过 100 名平民。在本轮巴以冲突中,已有近三十万平民丧生,近 200 万人流离失所。在另一场人工智能战争——俄乌战争中,平民也死伤惨重。乌克兰死亡平民超过 12600 人,其中包括 2900 名儿童,但战争仍在继续。
综上,低准确率、高杀伤力的人工智能一旦运用在军事规划和决策中,必然造成无可挽回的人道主义危机。因此,我方认为不应该引入人工智能进行军事规划和决策。
谢谢主席,问候在场各位。
开宗明义,根据 IT 专业社区 CSPN 定义,人工智能进行规划与决策,是指人工智能跟进目标制定方案,并通过一系列步骤达成实践目标的过程,完全不同于单纯提供数据的行为。它不像查询数据那样简单,不能说它对本场辩论进行了规划和决策。同时我们必须注意到,与普通角色不同,每个军事决策都涉及数以万计的真实生命。在谷歌等科技巨头纷纷删除人工智能不能用于武器和监控的承诺,各大国在公开文献中表明将人工智能发展为战争机器的现状下,我方认为,如果允许人工智能进行军事规划与决策,必然会造成不可挽回的人道主义危机。
首先,人工智能的低准确率使其在进行军事规划与决策时会造成大量误判。根据莱安德公司模拟推演的结果,2025 年 AI 主导的局部冲突中,误伤平民的风险上升 22%。这种风险在实际应用中也得到了证实。联合国驻乌克兰侦察小组最近报告显示,配备 AI 人脸识别功能的短程无人机正在以极快的速度残杀平民,这是平民的死亡数量首次超过传统导弹武器。无独有偶,2021 年 6 月,土耳其无人机在自主模式下猎杀一个人类目标,造成无人机自主杀人的惨案。今年 3 月,一架搭载决策系统的无人机因算法漏洞将婚礼现场预判为军事目标,造成 27 人伤亡。由此可见,军事人工智能并非如支持者所言可以减少无辜伤亡,其低准确率反而使其朝着无差别杀人机器的方向发展。
其次,军事智能的运用迫使战争走向非人道方向。现任红十字国际委员会法律顾问周文博士表示,在需要对武力使用做出军事决策的高压环境下,决策者往往没有足够的时间去评估或质疑人工智能决策输出的内容。例如,2003 年 3 月,美国“爱国者”导弹系统曾错误地将友军的“龙卷风”战斗机标记为来袭导弹,指挥人员在只有几秒钟反应时间的压力状态下选择发射导弹,造成了两名飞行员的死亡。也就是说,在战争中,如果要保证决策的高效性,人工智能低准确率的决策将会在没有人类评估的情况下被直接使用,这无疑会造成不可挽回的惨剧。
更可怕的是,当人工智能具备杀伤力远超于传统武器的杀人机器进入战场,人类为了赢得战争可能会变得不择手段。例如,以色列国防军为了杀死尽可能多的哈马斯而扩大了福音人工智能系统的军事行动范围,大大放宽了限制平民伤亡的规定。他们的“薰衣草”系统每击杀一名低级哈马斯成员,允许误杀 4 - 20 名平民,高级指挥官可以多杀超过 100 名平民。在本轮巴以冲突中,已有近三十万平民丧生,近 200 万人流离失所。在另一场人工智能战争——俄乌战争中,平民也死伤惨重。乌克兰死亡平民超过 12600 人,其中包括 2900 名儿童,但战争仍在继续。
综上,低准确率、高杀伤力的人工智能一旦运用在军事规划和决策中,必然造成无可挽回的人道主义危机。因此,我方认为不应该引入人工智能进行军事规划和决策。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
谢谢主席。
首先,针对反方二辩提出的我方 AI 救援案例较少,目前在医院救援应用较少这一观点,我方认为,只要存在 AI 用于救援的情况,就必然存在其对人道主义的利好。我们无需证明它会使人道主义救援的案例增多,只需证明它一旦存在,就意味着救援领域在进步。
同时,在非战争时期,AI 在军事规划和决策中不仅能够提高精准度。例如,K 达和 Mercy Cross 合作开发的 Measure AI,能够为救援专家提供基于最佳实践和数据驱动的方案,帮助救援人员进行快速分析,并辅助项目设计与实施决策。因此,AI 在救援中的表现不仅有实际案例支撑,而且效果出色。
对于对方提出的 AI 精准度较低的问题,我方有数据表明,在图像识别领域,中国人民解放军 31621 部队的数据显示,人工智能开发应用的识别率可以达到 95%以上,其准确性远超人类水平。而人类在认知过程中也存在大量误判的情况。我们需要对人与 AI 的准确率进行比较,但我并未从对方辩友的发言中听到 AI 的准确率一定比人类低的论证,这是我希望得到回应的问题。
谢谢主席。
首先,针对反方二辩提出的我方 AI 救援案例较少,目前在医院救援应用较少这一观点,我方认为,只要存在 AI 用于救援的情况,就必然存在其对人道主义的利好。我们无需证明它会使人道主义救援的案例增多,只需证明它一旦存在,就意味着救援领域在进步。
同时,在非战争时期,AI 在军事规划和决策中不仅能够提高精准度。例如,K 达和 Mercy Cross 合作开发的 Measure AI,能够为救援专家提供基于最佳实践和数据驱动的方案,帮助救援人员进行快速分析,并辅助项目设计与实施决策。因此,AI 在救援中的表现不仅有实际案例支撑,而且效果出色。
对于对方提出的 AI 精准度较低的问题,我方有数据表明,在图像识别领域,中国人民解放军 31621 部队的数据显示,人工智能开发应用的识别率可以达到 95%以上,其准确性远超人类水平。而人类在认知过程中也存在大量误判的情况。我们需要对人与 AI 的准确率进行比较,但我并未从对方辩友的发言中听到 AI 的准确率一定比人类低的论证,这是我希望得到回应的问题。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
下面进入正方发言。
首先,我想请问对方辩友,是否有例证表明AI的精准率比人更低?兰德公司研究显示,无人机平民伤亡风险比之前上升了22%。我来问一个关于累计战场数据较好发展的例子,用VR技术分析建筑就能叫做规划与决策吗?显然不是。我方观点是,AI参与规划与决策,是指AI参与到规划决策的方方面面。
我想问,局部冲突增长了20%,局部冲突中的平均伤亡增长22%,是由哪些因素导致的?是完全由AI决策导致的吗?而我方已经举例说明,AI在精准度上能够达到95%以上,而人导致的误伤率则高达24%,这是否能够证明AI的精准度比人更高呢?
图像识别精准并不代表不会误杀平民,如今我已举证误杀平民的概率在升高。我再来问关于支持救援行动的问题,中国指挥控制学会研究表明,不使用AI会延续传播偏见,即在救助时会出现歧视残疾人、种族歧视、性别歧视等情况,这是人道的行为吗?
您方说AI具有这些偏见,但我方只要在AI的系统中进行特定输入,告知其战时应遵守的法则,或者不应歧视残疾人,就能够解决这一问题。
再来谈谈精准度,我方已经说明,通过美国的芯片系统,AI打击的精准度能够达到85% - 90%,这不仅仅是图像识别。在1991年的海湾战争中,由于信息化水平有限,系统不完善,在高强度冲突中,海湾战争的误伤率高达24%,这个问题该如何解决呢?
所以问题在于,应用AI本身会导致偏见,您还要用它来进行援助吗?我再问一遍,我方所说的不是用AI进行援助,而是AI参与援助,这样大家能够更精准地定位伤者位置,而不是像人一样,看到是残疾人就不进行援助。
您方也承认,我方的AI比人更精准,而人存在更多的误伤率。您方还说人无法识别AI的错误,但我想问,在短短的几秒钟内,人类能够做出正确的军事谋略和决策吗?您方似乎只想用AI来定位,但简单的定位以及用VR分析建筑的数据,似乎并不能称之为规划与决策,这是您方第一层反驳存在的问题。
第二层反驳是,应用AI本身会延续传播偏见,这意味着在AI进行规划与决策时,健康的人或男性在其思维中可能比女性更容易受到保护。这在救援行动中会导致比人类更多的歧视行为,是更不人道的部分。
关于武器的伤害,我已给出数据,在俄乌战争中,乌克兰死亡的平民超过12600人,包括2600名儿童,并且战争仍在继续,您拿AI来归责合适吗?
我方补充的是有意义的人为参与选择。您无非是说,好像AI做错了,人可以进行具体验证,但周文博士的倾向性研究以及2003年美国导弹系统错误标记友军战斗机的例子都表明,在AI如此高效的情况下,人也被迫要高效起来,没有那么多时间去检查AI。所以AI的误判加上高效,再加上人被迫高效,这是更可怕的事情,人会倾向于听从AI,而不再进行评估。
下面进入正方发言。
首先,我想请问对方辩友,是否有例证表明AI的精准率比人更低?兰德公司研究显示,无人机平民伤亡风险比之前上升了22%。我来问一个关于累计战场数据较好发展的例子,用VR技术分析建筑就能叫做规划与决策吗?显然不是。我方观点是,AI参与规划与决策,是指AI参与到规划决策的方方面面。
我想问,局部冲突增长了20%,局部冲突中的平均伤亡增长22%,是由哪些因素导致的?是完全由AI决策导致的吗?而我方已经举例说明,AI在精准度上能够达到95%以上,而人导致的误伤率则高达24%,这是否能够证明AI的精准度比人更高呢?
图像识别精准并不代表不会误杀平民,如今我已举证误杀平民的概率在升高。我再来问关于支持救援行动的问题,中国指挥控制学会研究表明,不使用AI会延续传播偏见,即在救助时会出现歧视残疾人、种族歧视、性别歧视等情况,这是人道的行为吗?
您方说AI具有这些偏见,但我方只要在AI的系统中进行特定输入,告知其战时应遵守的法则,或者不应歧视残疾人,就能够解决这一问题。
再来谈谈精准度,我方已经说明,通过美国的芯片系统,AI打击的精准度能够达到85% - 90%,这不仅仅是图像识别。在1991年的海湾战争中,由于信息化水平有限,系统不完善,在高强度冲突中,海湾战争的误伤率高达24%,这个问题该如何解决呢?
所以问题在于,应用AI本身会导致偏见,您还要用它来进行援助吗?我再问一遍,我方所说的不是用AI进行援助,而是AI参与援助,这样大家能够更精准地定位伤者位置,而不是像人一样,看到是残疾人就不进行援助。
您方也承认,我方的AI比人更精准,而人存在更多的误伤率。您方还说人无法识别AI的错误,但我想问,在短短的几秒钟内,人类能够做出正确的军事谋略和决策吗?您方似乎只想用AI来定位,但简单的定位以及用VR分析建筑的数据,似乎并不能称之为规划与决策,这是您方第一层反驳存在的问题。
第二层反驳是,应用AI本身会延续传播偏见,这意味着在AI进行规划与决策时,健康的人或男性在其思维中可能比女性更容易受到保护。这在救援行动中会导致比人类更多的歧视行为,是更不人道的部分。
关于武器的伤害,我已给出数据,在俄乌战争中,乌克兰死亡的平民超过12600人,包括2600名儿童,并且战争仍在继续,您拿AI来归责合适吗?
我方补充的是有意义的人为参与选择。您无非是说,好像AI做错了,人可以进行具体验证,但周文博士的倾向性研究以及2003年美国导弹系统错误标记友军战斗机的例子都表明,在AI如此高效的情况下,人也被迫要高效起来,没有那么多时间去检查AI。所以AI的误判加上高效,再加上人被迫高效,这是更可怕的事情,人会倾向于听从AI,而不再进行评估。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
海论反方一四辩环节2分30秒双边计时,然后持方有5秒的发言时间。
第一个问题,一个国家为了保护自己的国民而提高国防系统的强度,是否应当?当美国、加拿大等国都在发展他们的AI军事化技术时,我们必须提高自己的,将AI技术运用到我们的国防系统中去保护我们的国民,而这恰恰符合人道法。
在人道法中,我们应该保护受伤的士兵。我们的立场是都不用,美国不用,我们也不用。我刚问的是在人道法中,我们应该保护受伤的士兵,对吧?那AI的偏见显示,它更不倾向于保护已经受伤的士兵。我们救援的是自己的士兵,我们的军队应该保护自己的士兵。那么在保护士兵的过程中,是不是应该减少医疗兵的死亡?
但现在AI显示,因为士兵受伤了,且是医疗方。我们已经提出了机制,首先AI的定位、规划等都比人类更加精准,其次我们救援的是自己的士兵。在军事行动中,如果这样都会出现歧视,在这种情况下,如果您方想要举证出现了歧视与偏见,那是您方的论证义务。
下一个问题,如果我们发展了AI技术,能否在和平时期与落后的国家交流和发展AI技术?
交流技术方面,若我有杀伤性武器,不会将其给对方。我的意思是提高他们国家本身对于AI的理解,事实上中国在“一带一路”中已经与很多国家交流发展AI技术。要发展高精尖AI技术需要技术基础,我们帮他们提高技术基础,也正是在帮助他们在国防上获得保护的力量。
还有一个问题,您方刚刚举证,以色列允许15 - 20个人杀死伊哈马斯时,允许15 - 20人的平民被杀,但事实上现在AI只杀了4万人,而他们人定的数据对应的情况是杀更多人,这样AI杀的人反而比他们人定的数据更少。
海论反方一四辩环节2分30秒双边计时,然后持方有5秒的发言时间。
第一个问题,一个国家为了保护自己的国民而提高国防系统的强度,是否应当?当美国、加拿大等国都在发展他们的AI军事化技术时,我们必须提高自己的,将AI技术运用到我们的国防系统中去保护我们的国民,而这恰恰符合人道法。
在人道法中,我们应该保护受伤的士兵。我们的立场是都不用,美国不用,我们也不用。我刚问的是在人道法中,我们应该保护受伤的士兵,对吧?那AI的偏见显示,它更不倾向于保护已经受伤的士兵。我们救援的是自己的士兵,我们的军队应该保护自己的士兵。那么在保护士兵的过程中,是不是应该减少医疗兵的死亡?
但现在AI显示,因为士兵受伤了,且是医疗方。我们已经提出了机制,首先AI的定位、规划等都比人类更加精准,其次我们救援的是自己的士兵。在军事行动中,如果这样都会出现歧视,在这种情况下,如果您方想要举证出现了歧视与偏见,那是您方的论证义务。
下一个问题,如果我们发展了AI技术,能否在和平时期与落后的国家交流和发展AI技术?
交流技术方面,若我有杀伤性武器,不会将其给对方。我的意思是提高他们国家本身对于AI的理解,事实上中国在“一带一路”中已经与很多国家交流发展AI技术。要发展高精尖AI技术需要技术基础,我们帮他们提高技术基础,也正是在帮助他们在国防上获得保护的力量。
还有一个问题,您方刚刚举证,以色列允许15 - 20个人杀死伊哈马斯时,允许15 - 20人的平民被杀,但事实上现在AI只杀了4万人,而他们人定的数据对应的情况是杀更多人,这样AI杀的人反而比他们人定的数据更少。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
攻防转换节点:无明显攻防转换,正方三辩持续提出问题进行质询。
你今天告诉我说AI比人类更精确,但在以色列冲突中,其福音系统杀死了3万平民,而哈马斯总人数都不超过2万,这种情况下所谓的精确体现在哪里?
我们所说的精确是指人工智能的深度学习效率更高、准确性更高,它可以进行针对性处理。但在实际战争运用中,并没有体现出更精确,反而造成了更多平民死亡。每杀死1名哈马斯成员,就允许15 - 20名平民死亡,这是多么可怕的情况。
我们再来看严重的平民伤亡问题。你方允许AI参与军事行动,那如何解决这样的伤亡问题?这本身就是非人道的行为,可能不是AI的问题,但至少这种对平民伤亡的漠视是不道德的。
你方认为造成平民伤亡是人的问题,我给你举个例子,俄乌战争中,人工智能造成了12600人的伤亡,你认为俄乌战争不人道,还是将所有造成平民伤亡的国家都归咎为不人道?
你有什么证据证明这是AI造成的伤亡?我举的这两个例子,恰恰是目前仅有的运用人工智能的军事冲突。在现有的框架下,我再问你,你解决这种伤亡问题的政策是什么?
对于这种问题,你能举出一些非武装人员死亡的例子吗?还是只能举军官的例子?我举的就是平民的例子。如果女方没有任何政策来救治这些已经伤亡的平民,我方认为你方未能达成论证,即人工智能会导致这个问题。在我方框架下,会探讨如何解决这样的伤亡问题。
你方认为AEF系统本身是军事指挥系统,没有偏见。我方可以举出反例。
你今天告诉我说AI比人类更精确,但在以色列冲突中,其福音系统杀死了3万平民,而哈马斯总人数都不超过2万,这种情况下所谓的精确体现在哪里?
我们所说的精确是指人工智能的深度学习效率更高、准确性更高,它可以进行针对性处理。但在实际战争运用中,并没有体现出更精确,反而造成了更多平民死亡。每杀死1名哈马斯成员,就允许15 - 20名平民死亡,这是多么可怕的情况。
我们再来看严重的平民伤亡问题。你方允许AI参与军事行动,那如何解决这样的伤亡问题?这本身就是非人道的行为,可能不是AI的问题,但至少这种对平民伤亡的漠视是不道德的。
你方认为造成平民伤亡是人的问题,我给你举个例子,俄乌战争中,人工智能造成了12600人的伤亡,你认为俄乌战争不人道,还是将所有造成平民伤亡的国家都归咎为不人道?
你有什么证据证明这是AI造成的伤亡?我举的这两个例子,恰恰是目前仅有的运用人工智能的军事冲突。在现有的框架下,我再问你,你解决这种伤亡问题的政策是什么?
对于这种问题,你能举出一些非武装人员死亡的例子吗?还是只能举军官的例子?我举的就是平民的例子。如果女方没有任何政策来救治这些已经伤亡的平民,我方认为你方未能达成论证,即人工智能会导致这个问题。在我方框架下,会探讨如何解决这样的伤亡问题。
你方认为AEF系统本身是军事指挥系统,没有偏见。我方可以举出反例。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
您方今天只是说以色列使用AI系统对巴勒斯坦进行了惨无人道的屠杀,所以AI是坏的。那请问,以前八国联军用火炮对我们进行惨无人道的侵略,难道我们教育公司不去发展火炮等着挨打吗?
还有,您方所说的以色列制定了杀一个哈马斯可以杀15 - 20个平民的规则,但问题是,原定3万哈马斯的名单,现在只死了4万人,比人类所定的规则要少太多了。这说明其实AI自己在主动地去规避附带伤害。
您方一直在说今天AI有多坏,但实际上坏的是人。所以,在我们知道周围有坏人的情况下,我们恰恰需要发展武器来保护自己,而且我们还可以分享武器给那些较为落后的国家,去保护这个世界。我们还可以通过人道援助的方式救死扶伤。
强国侵略弱国,不是因为弱国的弱小。如果您方一直只是说我方不应该用AI,要停止技术的发展,事实上这是做不到的。我们没有办法限制AI,这是大势所趋。如果我们想要让弱国获得保障,让自己的安全获得保障,我们应该发展一些技术,然后把它分享给其他人,让大家变得更强大,这才是最好的维护人道主义的方式。
谢谢。
您方今天只是说以色列使用AI系统对巴勒斯坦进行了惨无人道的屠杀,所以AI是坏的。那请问,以前八国联军用火炮对我们进行惨无人道的侵略,难道我们教育公司不去发展火炮等着挨打吗?
还有,您方所说的以色列制定了杀一个哈马斯可以杀15 - 20个平民的规则,但问题是,原定3万哈马斯的名单,现在只死了4万人,比人类所定的规则要少太多了。这说明其实AI自己在主动地去规避附带伤害。
您方一直在说今天AI有多坏,但实际上坏的是人。所以,在我们知道周围有坏人的情况下,我们恰恰需要发展武器来保护自己,而且我们还可以分享武器给那些较为落后的国家,去保护这个世界。我们还可以通过人道援助的方式救死扶伤。
强国侵略弱国,不是因为弱国的弱小。如果您方一直只是说我方不应该用AI,要停止技术的发展,事实上这是做不到的。我们没有办法限制AI,这是大势所趋。如果我们想要让弱国获得保障,让自己的安全获得保障,我们应该发展一些技术,然后把它分享给其他人,让大家变得更强大,这才是最好的维护人道主义的方式。
谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
我先说一下声音的问题。
接下来聊一聊,今天AI已经发展了十年,我们也共享了这么多年,为什么在仅有的两场有AI参与的战争中,还会造成如此多平民伤亡,这是美方根本无法控制的。
我们先从论点讲起,对方称军事系统能提升20%的效率,还说每杀死一个敌人就能顺带杀死15 - 20个以上平民。如今攻击范围扩大,只要在攻击范围内的人都会被杀死,哪怕实际是平民。所以对方根本无法论证这是经济且人道的发展。
其次,对方提到更容易发现目标,但这不仅局限于军事系统,它不具备针对性,而且使用这种方式会让救援残疾人员面临更大风险。因此,我方根本不认为这种所谓的人道主义技术有什么好处。
我们来看政策方面,因为美方政府一直在宣称,如果可以将技术分享给大家,就能用更强的技术保护大家。然而保护了10年,现状依旧如此。这说明所谓的技术分享并没有带来任何好处。
而且我方已经举证,未来需要由专业人才去评估使用AI会面临怎样的风险。而我方非常强调,要全面把控,让其不要滥用AI。
我先说一下声音的问题。
接下来聊一聊,今天AI已经发展了十年,我们也共享了这么多年,为什么在仅有的两场有AI参与的战争中,还会造成如此多平民伤亡,这是美方根本无法控制的。
我们先从论点讲起,对方称军事系统能提升20%的效率,还说每杀死一个敌人就能顺带杀死15 - 20个以上平民。如今攻击范围扩大,只要在攻击范围内的人都会被杀死,哪怕实际是平民。所以对方根本无法论证这是经济且人道的发展。
其次,对方提到更容易发现目标,但这不仅局限于军事系统,它不具备针对性,而且使用这种方式会让救援残疾人员面临更大风险。因此,我方根本不认为这种所谓的人道主义技术有什么好处。
我们来看政策方面,因为美方政府一直在宣称,如果可以将技术分享给大家,就能用更强的技术保护大家。然而保护了10年,现状依旧如此。这说明所谓的技术分享并没有带来任何好处。
而且我方已经举证,未来需要由专业人才去评估使用AI会面临怎样的风险。而我方非常强调,要全面把控,让其不要滥用AI。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
好同学,联合国驻乌克兰监察小组的报告显示,带有AI功能的短程无人机杀伤平民的1月份单月数据已经超过了火炮导弹。不同武器的伤害,AI武器已比火炮导弹时期高很多。
你方提出问题,英法联军敲开我们大门时,枪支火炮的杀伤力远远超过我们赤手空拳的人。我想问,那个时候我们应该不发展枪支火炮吗?你今天所说的是别人有先进武器,我们不应落后,但我指出的是,AI本身的误伤率很高。如果枪炮本身是开一枪有50%概率杀伤平民的武器,那我们当然不应该发展这种武器。
不对,AI的效率在这些年中大幅度上升。如果你觉得它现在不够强,就应该去发展它。就像我们刚刚提到救援行动,你说残疾人会因为不利于军事行动而得不到支援。但如果是这样,我们更应该发展AI,让资源更加丰富,从而保证他们能获得资源。
你所说的是用AI发展资源与军事规划无关。第二个问题是你仍在强调AI提升效率,但没有解决AI误伤平民的问题。现实是,乌军在以色列内屠杀一名哈马斯士官时,会多杀十几个平民,这种高误伤率你方如何控制?
实际上,原则是人类给AI制定的,但AI实际杀伤的人数比这个原则少得多。它录入了3万哈马斯的名单,到现在为止死亡4万人,比预定比例小很多。这说明AI倾向于保护,比人类更在乎伦理。
我来讲解一下AI的运作方式,它通过监测手机信号来查明建筑情况,只要误差率在25%以内就会发射。AI算法以手机信号为依据进行发射,其控制率由人设置,这是基于比例原则。如果想说AI会造成比人更大的伤害,为何在人类制定了如此糟糕的原则下,AI的表现比原则好很多?
你举证AI主导的军事战争比原来的战争误杀平民比例提高了22%,请说明这个数据的来源。兰德公司模拟推演结果显示,2025年AI主导的局部冲突误伤平民的风险上升了22%。在风险升高的情况下,你方要对那些被误伤的平民说“我们再发展两年,你或许就不会死了”吗?
我方认为,由于AI的程序由人设置,人设定了允许的误伤率。但我方已经算过,AI本身比人更加尊重生命。
你方说AI可能存在偏见和偏差,无法照顾到残疾人。但我方认为,既然AI能应用于人道主义援助,就必然证明它在这方面相较于没有AI时已有显著的数据提升。
现在,在AI主导下,误杀率提升了22%,AI把婚礼现场识别为军事目标,导致27人死亡,且AI在无人控制的情况下就可以进行杀人,你方所说的人道主义提升体现在哪里?
你方的意思是,这22%的提升全是AI造成的,人一点都没有参与吗?不是的,我从机制上证明了AI自身的误判因素导致了误伤率上升,这与人类无关。
我们来比较一下,AI的误判和人的误判到底哪个更高?我方已举证,AI的识别精准度达到85% - 90%,这并非仅指图像识别度。我方还举例海湾战争中,人类的误伤率高达24%,并且人是有情感的动物,其判断更多依赖经验而非数据。面对比人更高的精准度,你方为何认为不应该使用AI呢?
联合国驻乌克兰的监察小组报告显示,带有AI人脸识别的无人机致死平民的数量已经超过了传统武器,此时你如何比较?
这里有两个层面,第一层,AI精准度高,能更精准地行动,防止误伤平民;第二层,你方又说它精准度高仍会导致非武装人员死亡,这是因为人给它设定了为攻击军事目标可造成他人伤亡的规则,所以AI才会认为打死一两个平民以达成目的是可行的。这是人在起作用,不能因为人而否定这项技术。
你说AI致死平民数量远超传统武器,又说它准确率高,难道它是专门针对平民窟吗?你方也提到因为AI准确率高会导致很多人死亡,我方一直论证的是AI精度高,而你方也承认人会干预,那么你方如何看待将这样强大的武器交到不人道的人手中这个问题?
我方有很多制度建设,是不是只要我方举证有完善的制度建设并能保证执行就可以呢?但到现在,在巴以战争中仍有很多人因人工智能死亡,说明你方的制度建设根本没用。现在请你方给出数据,人工智能到底救了多少人,完成了多少援助,你刚才所说的很多年之前海外战争的事情,有具体数据吗?
法律刑法存在,但仍有很多人杀人。所以你至少要向我证明你的制度能有效控制AI的使用,而不是空口说有制度,就认为它未来会有更好的发展。
我方一直强调,是AI本身的精度引发了更多问题。AI是高强度武器,且人类无法很好地控制它时,我方认为应该全面禁止AI在军事中的应用,未来契约中也应有这一点。
好同学,联合国驻乌克兰监察小组的报告显示,带有AI功能的短程无人机杀伤平民的1月份单月数据已经超过了火炮导弹。不同武器的伤害,AI武器已比火炮导弹时期高很多。
你方提出问题,英法联军敲开我们大门时,枪支火炮的杀伤力远远超过我们赤手空拳的人。我想问,那个时候我们应该不发展枪支火炮吗?你今天所说的是别人有先进武器,我们不应落后,但我指出的是,AI本身的误伤率很高。如果枪炮本身是开一枪有50%概率杀伤平民的武器,那我们当然不应该发展这种武器。
不对,AI的效率在这些年中大幅度上升。如果你觉得它现在不够强,就应该去发展它。就像我们刚刚提到救援行动,你说残疾人会因为不利于军事行动而得不到支援。但如果是这样,我们更应该发展AI,让资源更加丰富,从而保证他们能获得资源。
你所说的是用AI发展资源与军事规划无关。第二个问题是你仍在强调AI提升效率,但没有解决AI误伤平民的问题。现实是,乌军在以色列内屠杀一名哈马斯士官时,会多杀十几个平民,这种高误伤率你方如何控制?
实际上,原则是人类给AI制定的,但AI实际杀伤的人数比这个原则少得多。它录入了3万哈马斯的名单,到现在为止死亡4万人,比预定比例小很多。这说明AI倾向于保护,比人类更在乎伦理。
我来讲解一下AI的运作方式,它通过监测手机信号来查明建筑情况,只要误差率在25%以内就会发射。AI算法以手机信号为依据进行发射,其控制率由人设置,这是基于比例原则。如果想说AI会造成比人更大的伤害,为何在人类制定了如此糟糕的原则下,AI的表现比原则好很多?
你举证AI主导的军事战争比原来的战争误杀平民比例提高了22%,请说明这个数据的来源。兰德公司模拟推演结果显示,2025年AI主导的局部冲突误伤平民的风险上升了22%。在风险升高的情况下,你方要对那些被误伤的平民说“我们再发展两年,你或许就不会死了”吗?
我方认为,由于AI的程序由人设置,人设定了允许的误伤率。但我方已经算过,AI本身比人更加尊重生命。
你方说AI可能存在偏见和偏差,无法照顾到残疾人。但我方认为,既然AI能应用于人道主义援助,就必然证明它在这方面相较于没有AI时已有显著的数据提升。
现在,在AI主导下,误杀率提升了22%,AI把婚礼现场识别为军事目标,导致27人死亡,且AI在无人控制的情况下就可以进行杀人,你方所说的人道主义提升体现在哪里?
你方的意思是,这22%的提升全是AI造成的,人一点都没有参与吗?不是的,我从机制上证明了AI自身的误判因素导致了误伤率上升,这与人类无关。
我们来比较一下,AI的误判和人的误判到底哪个更高?我方已举证,AI的识别精准度达到85% - 90%,这并非仅指图像识别度。我方还举例海湾战争中,人类的误伤率高达24%,并且人是有情感的动物,其判断更多依赖经验而非数据。面对比人更高的精准度,你方为何认为不应该使用AI呢?
联合国驻乌克兰的监察小组报告显示,带有AI人脸识别的无人机致死平民的数量已经超过了传统武器,此时你如何比较?
这里有两个层面,第一层,AI精准度高,能更精准地行动,防止误伤平民;第二层,你方又说它精准度高仍会导致非武装人员死亡,这是因为人给它设定了为攻击军事目标可造成他人伤亡的规则,所以AI才会认为打死一两个平民以达成目的是可行的。这是人在起作用,不能因为人而否定这项技术。
你说AI致死平民数量远超传统武器,又说它准确率高,难道它是专门针对平民窟吗?你方也提到因为AI准确率高会导致很多人死亡,我方一直论证的是AI精度高,而你方也承认人会干预,那么你方如何看待将这样强大的武器交到不人道的人手中这个问题?
我方有很多制度建设,是不是只要我方举证有完善的制度建设并能保证执行就可以呢?但到现在,在巴以战争中仍有很多人因人工智能死亡,说明你方的制度建设根本没用。现在请你方给出数据,人工智能到底救了多少人,完成了多少援助,你刚才所说的很多年之前海外战争的事情,有具体数据吗?
法律刑法存在,但仍有很多人杀人。所以你至少要向我证明你的制度能有效控制AI的使用,而不是空口说有制度,就认为它未来会有更好的发展。
我方一直强调,是AI本身的精度引发了更多问题。AI是高强度武器,且人类无法很好地控制它时,我方认为应该全面禁止AI在军事中的应用,未来契约中也应有这一点。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
很简单一个道理,我们双方无非就是在讨论AI今天在战场上的实际运用到底是什么样子的。我质疑对方辩友,对方辩友跟我们想要描绘的AI图景是,AI现在好像杀了很多人,但这一切或许是因为人不够人道。
非常不巧的是,在现阶段实际战场的应用中,我们没有看到任何一起AI彰显人道的案例,这与对方的意愿相违背。他们意想AI可以作为一个和平的媒介、友好的象征进行传播,可现实情况下,AI就是无情的杀人工具。
我要向你指证的不是AI在人的控制下胡作非为,或许已经造成了恶劣的屠杀。现实情况是,AI本身的精度也令人堪忧。你们一直只认可在实验室里,在和平的环境下,在大家努力搭建的实验场地中,它有很高的准确率。可是,真实的战场上情况是什么样呢?在乌克兰,无人机不顾平民的伤害,肆意扔弹;在以色列,只要看到有哈马斯,就对一片区域进行打击。这一切并非仅仅因为人太坏,而是我们去检验AI是如何筛选目标时,发现它通过看手机信号、过去的照片等非常模糊的依据去判断,就决定进行袭击,这才是AI在当今战场上的现状,并非人坏,而是AI本身的精度不够导致了更多的伤亡。
我们蓝盾工作的数据显示,排除了您方所谓的民族主义思想之后,它在实验室里面误伤平民的概率也提高了22%,这就是我方所指出的AI本身精度的问题,导致了它不可能成为所谓和平的象征,也不能成为维护主权的合适武器。没有哪个国家维护主权的方式是拿炸弹肆意地投向民居,这是一种不人道、无理取闹的行为,如同一个小孩儿在被欺负时,开始攻击身边的每一个人。
AI今天不可以成为对方口中我们可以去分享、可以从高技术传递到新技术来帮助大家一起变强的工具。我们应该像对待核武器一样,面对这种大规模杀伤性且不可被规制的武器时,带头出来说,我们不要把这个东西应用在军事领域。因为我们看到了,在乌克兰有多少孩子吃不上饭,有多少人天天生活在炮火轰击的恐惧之下,这种惨绝人寰的图景告诉我们,我们要做的不是把这种具有危险的武器带给别人。在新世纪冷战时期,我们评判某些国家是帝国主义,而不是和平主义者。所以对方辩友不要再拿这种危险的武器来给大家,我们希望可以带给大家真正的和平。
以上。
很简单一个道理,我们双方无非就是在讨论AI今天在战场上的实际运用到底是什么样子的。我质疑对方辩友,对方辩友跟我们想要描绘的AI图景是,AI现在好像杀了很多人,但这一切或许是因为人不够人道。
非常不巧的是,在现阶段实际战场的应用中,我们没有看到任何一起AI彰显人道的案例,这与对方的意愿相违背。他们意想AI可以作为一个和平的媒介、友好的象征进行传播,可现实情况下,AI就是无情的杀人工具。
我要向你指证的不是AI在人的控制下胡作非为,或许已经造成了恶劣的屠杀。现实情况是,AI本身的精度也令人堪忧。你们一直只认可在实验室里,在和平的环境下,在大家努力搭建的实验场地中,它有很高的准确率。可是,真实的战场上情况是什么样呢?在乌克兰,无人机不顾平民的伤害,肆意扔弹;在以色列,只要看到有哈马斯,就对一片区域进行打击。这一切并非仅仅因为人太坏,而是我们去检验AI是如何筛选目标时,发现它通过看手机信号、过去的照片等非常模糊的依据去判断,就决定进行袭击,这才是AI在当今战场上的现状,并非人坏,而是AI本身的精度不够导致了更多的伤亡。
我们蓝盾工作的数据显示,排除了您方所谓的民族主义思想之后,它在实验室里面误伤平民的概率也提高了22%,这就是我方所指出的AI本身精度的问题,导致了它不可能成为所谓和平的象征,也不能成为维护主权的合适武器。没有哪个国家维护主权的方式是拿炸弹肆意地投向民居,这是一种不人道、无理取闹的行为,如同一个小孩儿在被欺负时,开始攻击身边的每一个人。
AI今天不可以成为对方口中我们可以去分享、可以从高技术传递到新技术来帮助大家一起变强的工具。我们应该像对待核武器一样,面对这种大规模杀伤性且不可被规制的武器时,带头出来说,我们不要把这个东西应用在军事领域。因为我们看到了,在乌克兰有多少孩子吃不上饭,有多少人天天生活在炮火轰击的恐惧之下,这种惨绝人寰的图景告诉我们,我们要做的不是把这种具有危险的武器带给别人。在新世纪冷战时期,我们评判某些国家是帝国主义,而不是和平主义者。所以对方辩友不要再拿这种危险的武器来给大家,我们希望可以带给大家真正的和平。
以上。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
首先,您方一直在说关于歧视的问题,我想问一下,这个歧视问题到底是由人导致的,还是由机器导致的?您方一直强调AA也会有歧视问题,但并未说明这种歧视究竟是由哪一方造成的。
关于您所说的精准性问题,您一直强调AI误杀率高、精准度低。您所说的精准度,是指AI在进攻过程中会随意打击吗?我方认为,AI的精准度比人高。您所说的误差率高,是因为人操作导致其发射到某个地方,还是单纯因为AI本身呢?
您方一直在强调AI杀了很多人,但即便没有AI,那些发起战争的国家仍然会有其他办法屠杀民众,不能将屠杀的责任归咎于AI,这是人的问题,而非AI的过错。
关于您方提到需要我方举例说明AI进行保护的情况,我方有例子,即以色列的铁穹系统。该系统的成功拦截率非常高,高达90%以上,意味着在10枚来袭的火箭弹中,有9枚可以被铁穹系统成功拦截。这难道不是人工智能参与军事决策与规划、保护平民的一种措施吗?
您方只看到战争的死亡人数,却未分辨责任到底在于人还是人工智能,一直将责任归结到人工智能身上。但正是因为有需求,我们才会使用它,这是科技进步的体现,不能因噎废食地否定人工智能。如果换个角度思考,科技在进步,我们可以建设完善人工智能的不足。
事物的发展是前进且曲折的,您方一直强调人工智能的不足之处,却不往前看,不能因为当前人工智能法律和技术不完善就完全否认它。目前人工智能存在的问题,可以通过制定相关法律规定以及完善技术来加强国际人道的落实。
好,谢谢。
另外,我们想问一下,您方提到提高22%的平民伤亡率,所依据的兰德公司的数据从哪里来的,我们没有找到。我这就找一下。
首先,您方一直在说关于歧视的问题,我想问一下,这个歧视问题到底是由人导致的,还是由机器导致的?您方一直强调AA也会有歧视问题,但并未说明这种歧视究竟是由哪一方造成的。
关于您所说的精准性问题,您一直强调AI误杀率高、精准度低。您所说的精准度,是指AI在进攻过程中会随意打击吗?我方认为,AI的精准度比人高。您所说的误差率高,是因为人操作导致其发射到某个地方,还是单纯因为AI本身呢?
您方一直在强调AI杀了很多人,但即便没有AI,那些发起战争的国家仍然会有其他办法屠杀民众,不能将屠杀的责任归咎于AI,这是人的问题,而非AI的过错。
关于您方提到需要我方举例说明AI进行保护的情况,我方有例子,即以色列的铁穹系统。该系统的成功拦截率非常高,高达90%以上,意味着在10枚来袭的火箭弹中,有9枚可以被铁穹系统成功拦截。这难道不是人工智能参与军事决策与规划、保护平民的一种措施吗?
您方只看到战争的死亡人数,却未分辨责任到底在于人还是人工智能,一直将责任归结到人工智能身上。但正是因为有需求,我们才会使用它,这是科技进步的体现,不能因噎废食地否定人工智能。如果换个角度思考,科技在进步,我们可以建设完善人工智能的不足。
事物的发展是前进且曲折的,您方一直强调人工智能的不足之处,却不往前看,不能因为当前人工智能法律和技术不完善就完全否认它。目前人工智能存在的问题,可以通过制定相关法律规定以及完善技术来加强国际人道的落实。
好,谢谢。
另外,我们想问一下,您方提到提高22%的平民伤亡率,所依据的兰德公司的数据从哪里来的,我们没有找到。我这就找一下。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)