反方一辩:未来十年,人工智能立法应优先技术促进。
感谢主席问候。在场各位,风险治理与技术促进是人工智能立法发展过程当中的两个方向。前者侧重于从宏观的框架入手,提前判断人工智能的潜在风险,并对风险进行限制;后者则更注重人工智能发展的实际应用和技术升级。两者并不是一种完全倾向另一者的关系,只是需要在未来10年根据战略规划和AI现状做出优先级选择。基于此,我方坚定认为,未来10年人工智能立法应该优先技术促进。
首先,技术促进型立法,更契合我国目前推动人工智能快速发展和转型升级的战略需求。正如习近平总书记在二十届中央政治局第二十次集体学习时指出,人工智能要持续加强基础研究,集中力量攻克各种核心技术,以人工智能引领科研范式变革,加速各领域科技创新突破。国务院也在《关于深入实施人工智能+的行动意见》当中明确提出,要推动人工智能与经济社会各领域深度融合,促进生产力革命性跃迁和生产关系深层次变革。这充分表明,目前国家战略层面对人工智能技术发展具有迫切需求。而当下人工智能的发展核心依赖于大数据学习,且需要通过持续实践来完成技术迭代。《人工智能立法的国际比较与中国选择》一文当中同样指出,重监管的立法模式很可能会抑制AI创新的步伐,而促进行立法则可以通过政策引导、资源倾斜和制度保障,为AI技术的研发与应用提供正向激励。
其次,法制法律的规范和治理往往存在滞后性,技术促进所带来的发展可以进一步暴露现状下急需解决的问题,而这是风险治理的前提所在。根据摩尔定律,互联网等高新技术产业的更新周期约为两年,但是立法程序复杂,耗时冗长。按照全国人大常委会的立法程序,最快也需要三次上会审议,现有记录当中,最快的立法周期是两年,通常需要3~5年才能通过。由此可见,立法的速度远赶不上新技术发展的速度。立法往往都是在技术已经落地实践之后完成的。以公司法的更新为例,立法者一开始很难预料到公司集团化运营时会出现的问题,但是促进金融商业发展之后,公司集团化运营的实践更加普遍,关联公司利用法人独立地位规避债务的问题得以暴露。2024年7月1日生效的新公司法加入了横向法人格否认制度,对此问题进行了有效规制。可见,所有新技术、新领域的风险暴露,都在实践投入后,在发展过程当中发现问题、解决问题,是比纸上谈兵更优的立法选择。人工智能立法一视同理,无论是面对信息泄露的差分隐私和联合学习技术,还是美国针对算法歧视推出的算法问责法案,都反映了我们可以先促进人工智能技术发展,当问题暴露之后,再对风险进行针对性的治理。
综上所述,未来10年人工智能立法应该优先技术促进。以上,感谢。
反方一辩:未来十年,人工智能立法应优先技术促进。
感谢主席问候。在场各位,风险治理与技术促进是人工智能立法发展过程当中的两个方向。前者侧重于从宏观的框架入手,提前判断人工智能的潜在风险,并对风险进行限制;后者则更注重人工智能发展的实际应用和技术升级。两者并不是一种完全倾向另一者的关系,只是需要在未来10年根据战略规划和AI现状做出优先级选择。基于此,我方坚定认为,未来10年人工智能立法应该优先技术促进。
首先,技术促进型立法,更契合我国目前推动人工智能快速发展和转型升级的战略需求。正如习近平总书记在二十届中央政治局第二十次集体学习时指出,人工智能要持续加强基础研究,集中力量攻克各种核心技术,以人工智能引领科研范式变革,加速各领域科技创新突破。国务院也在《关于深入实施人工智能+的行动意见》当中明确提出,要推动人工智能与经济社会各领域深度融合,促进生产力革命性跃迁和生产关系深层次变革。这充分表明,目前国家战略层面对人工智能技术发展具有迫切需求。而当下人工智能的发展核心依赖于大数据学习,且需要通过持续实践来完成技术迭代。《人工智能立法的国际比较与中国选择》一文当中同样指出,重监管的立法模式很可能会抑制AI创新的步伐,而促进行立法则可以通过政策引导、资源倾斜和制度保障,为AI技术的研发与应用提供正向激励。
其次,法制法律的规范和治理往往存在滞后性,技术促进所带来的发展可以进一步暴露现状下急需解决的问题,而这是风险治理的前提所在。根据摩尔定律,互联网等高新技术产业的更新周期约为两年,但是立法程序复杂,耗时冗长。按照全国人大常委会的立法程序,最快也需要三次上会审议,现有记录当中,最快的立法周期是两年,通常需要3~5年才能通过。由此可见,立法的速度远赶不上新技术发展的速度。立法往往都是在技术已经落地实践之后完成的。以公司法的更新为例,立法者一开始很难预料到公司集团化运营时会出现的问题,但是促进金融商业发展之后,公司集团化运营的实践更加普遍,关联公司利用法人独立地位规避债务的问题得以暴露。2024年7月1日生效的新公司法加入了横向法人格否认制度,对此问题进行了有效规制。可见,所有新技术、新领域的风险暴露,都在实践投入后,在发展过程当中发现问题、解决问题,是比纸上谈兵更优的立法选择。人工智能立法一视同理,无论是面对信息泄露的差分隐私和联合学习技术,还是美国针对算法歧视推出的算法问责法案,都反映了我们可以先促进人工智能技术发展,当问题暴露之后,再对风险进行针对性的治理。
综上所述,未来10年人工智能立法应该优先技术促进。以上,感谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
未来十年人工智能立法的优先级应根据国家战略规划和AI发展现状确定,选择更能适应技术发展规律、符合国家需求的立法方向
正方一辩·开篇陈词
正式进入比赛环节,首先由正方一辩开始,开篇陈词的时间为3分钟发言及计时。谢谢主席,问候在场各位。今天我方的观点是,未来10年人工智能立法应优先风险治理。
风险治理是指基于风险规制,以风险为核心考虑要素,按照风险类别和级别确定优先治理的风险场景。今天我们讨论的立法指的是全国人民代表大会及其常务委员会制定的具有普遍约束力和国家强制力的规范性文件。未来10年,人工智能立法应优先风险治理还是技术促进?我方认为应当按照以下标准判断:未来10年何者更能回应人工智能立法诉求的迫切性与实际解决效能。基于此,我方将从两方面进行论述。
第一,立法优先风险治理的需求性更大。人工智能技术的迭代日新月异,已催生现实且紧迫的法律治理风险。立法的风险治理在技术促进中具有优先位阶。人工智能在深度伪造技术、生物基因等关键领域均已带来远超技术优化可以解决的风险,其安全属性缺失的负面影响远大于技术本身尚不完善所带来的发展损益。例如,贺建奎基因编辑技术事件,核心问题在于突破医疗目的伦理,当时该领域仅靠伦理约束,缺乏明确法律规制,最终因技术滥用引发全球争议,倒逼后续明确相关技术应用场景与法律责任。风险治理的核心并非干预技术进步,而是划定行为禁区,通过风险治理防范技术脱轨,否则救济成本远高于事前预防。但当前法律体系对于更多前沿风险尚未做出明确的规制,而技术发展现有规范已能覆盖核心研发需求,后续细化更需结合区域特色产业规定,无需普适性立法优先介入。纵观国际,第78届联合国大会上,我国在内120多个会员国一致认为,人工智能发展核心无不指向安全与伦理规制,意味着国际社会已达成鲜明的安全叙事共识。
第二,优先风险治理立法的解决力更强。人工智能的风险治理需要提前划定权利边界、责任范围,采取风险分级等灵活监管手段,为低风险应用提供宽松环境,对高风险应用进行重点规制。而法律作为社会关系的调整器,必须完成主体责任规则的逻辑闭环,这一闭环能够有效回应风险治理的需求。例如,对于生成式人工智能(如根据训练数据生成新数据的技术),法律可以采取风险分级的方式:规定普通生成内容不违反法律强制性规定即可;非必要学术研究的训练数据不应当包含敏感信息;必要学术研究的生成过程应当记录明晰、可供相关单位检查等内容,为不同应用主体划定权利责任范围,从而规制生成式人工智能因缺乏有效监管而引发的深度伪造风险。优先风险治理立法既防范潜在风险,又为创新发展预留空间,确保法律既能回应现实需求,又能引领未来发展。
综上,我方坚定认为,未来10年人工智能立法应优先风险治理。
正方一辩·开篇陈词
正式进入比赛环节,首先由正方一辩开始,开篇陈词的时间为3分钟发言及计时。谢谢主席,问候在场各位。今天我方的观点是,未来10年人工智能立法应优先风险治理。
风险治理是指基于风险规制,以风险为核心考虑要素,按照风险类别和级别确定优先治理的风险场景。今天我们讨论的立法指的是全国人民代表大会及其常务委员会制定的具有普遍约束力和国家强制力的规范性文件。未来10年,人工智能立法应优先风险治理还是技术促进?我方认为应当按照以下标准判断:未来10年何者更能回应人工智能立法诉求的迫切性与实际解决效能。基于此,我方将从两方面进行论述。
第一,立法优先风险治理的需求性更大。人工智能技术的迭代日新月异,已催生现实且紧迫的法律治理风险。立法的风险治理在技术促进中具有优先位阶。人工智能在深度伪造技术、生物基因等关键领域均已带来远超技术优化可以解决的风险,其安全属性缺失的负面影响远大于技术本身尚不完善所带来的发展损益。例如,贺建奎基因编辑技术事件,核心问题在于突破医疗目的伦理,当时该领域仅靠伦理约束,缺乏明确法律规制,最终因技术滥用引发全球争议,倒逼后续明确相关技术应用场景与法律责任。风险治理的核心并非干预技术进步,而是划定行为禁区,通过风险治理防范技术脱轨,否则救济成本远高于事前预防。但当前法律体系对于更多前沿风险尚未做出明确的规制,而技术发展现有规范已能覆盖核心研发需求,后续细化更需结合区域特色产业规定,无需普适性立法优先介入。纵观国际,第78届联合国大会上,我国在内120多个会员国一致认为,人工智能发展核心无不指向安全与伦理规制,意味着国际社会已达成鲜明的安全叙事共识。
第二,优先风险治理立法的解决力更强。人工智能的风险治理需要提前划定权利边界、责任范围,采取风险分级等灵活监管手段,为低风险应用提供宽松环境,对高风险应用进行重点规制。而法律作为社会关系的调整器,必须完成主体责任规则的逻辑闭环,这一闭环能够有效回应风险治理的需求。例如,对于生成式人工智能(如根据训练数据生成新数据的技术),法律可以采取风险分级的方式:规定普通生成内容不违反法律强制性规定即可;非必要学术研究的训练数据不应当包含敏感信息;必要学术研究的生成过程应当记录明晰、可供相关单位检查等内容,为不同应用主体划定权利责任范围,从而规制生成式人工智能因缺乏有效监管而引发的深度伪造风险。优先风险治理立法既防范潜在风险,又为创新发展预留空间,确保法律既能回应现实需求,又能引领未来发展。
综上,我方坚定认为,未来10年人工智能立法应优先风险治理。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
未来10年何者更能回应人工智能立法诉求的迫切性与实际解决效能。
由正方三辩进行攻辩小结、发言及计时。
首先,今天我们讨论的法是按照对方所说的全国人大所立的内容法。第一点,为什么我们要讨论人工智能促进法呢?因为国家层面已经有一个促进整个科学技术发展的法案,这个法案涵盖了各方面内容,包括政策普惠等,因此没有必要在人工智能领域重复立法。
第二,我们应该把人工智能促进方面更多地交给政府,通过政策法规,根据各个地区的情况因地制宜地促进其发展。而对方认为要由人大进行立法以防治风险,这是为什么呢?我们需要在全国建立统一的风险防治基础,否则像美国那样每个州都建立各自的风险防治体系,反而会拖累发展,这就是人大立法的总体法律原因。
第二件事,人工智能的发展已经不再是简单的技术发展、发现问题再解决问题的过程。1980年英国学者科林·格里奇还提出了“格里奇困境”这一命题,即新技术在发展初期其社会影响很难被预见,当人类有能力识别其不确定影响时,由于技术的广泛应用,控制技术的难度也异常大。并且中国科学院自动化研究所研究员曾毅提供了量化研究的观点支撑,对全球40个国家AI治理的高层级评估显示,各国在不同维度上的差异表现巨大。而且人工智能的安全性并未随技术的进步而显著提升,即使是上个月发布的大语言模型,相比于三个月之前,也没有变得更安全。
因此,人工智能发展极快,风险暴露也极多。当我们发现风险时,往往已经滞后。比如,假设三年后才能规避某个问题,那么在这三年内,该问题早已带来很多风险。就像人工智能的深度伪造技术,利用其模仿他人进行诈骗,等我们发现并立法时,诈骗分子可能早已获利丰厚。所以对于人工智能,由于其带来的风险巨大,我们必须先手防治,才能防止危险进一步扩大化。并且在宏观上,习近平总书记在中央政治局第二十次会议时也强调,我们应该发展更安全可靠的人工智能。
由正方三辩进行攻辩小结、发言及计时。
首先,今天我们讨论的法是按照对方所说的全国人大所立的内容法。第一点,为什么我们要讨论人工智能促进法呢?因为国家层面已经有一个促进整个科学技术发展的法案,这个法案涵盖了各方面内容,包括政策普惠等,因此没有必要在人工智能领域重复立法。
第二,我们应该把人工智能促进方面更多地交给政府,通过政策法规,根据各个地区的情况因地制宜地促进其发展。而对方认为要由人大进行立法以防治风险,这是为什么呢?我们需要在全国建立统一的风险防治基础,否则像美国那样每个州都建立各自的风险防治体系,反而会拖累发展,这就是人大立法的总体法律原因。
第二件事,人工智能的发展已经不再是简单的技术发展、发现问题再解决问题的过程。1980年英国学者科林·格里奇还提出了“格里奇困境”这一命题,即新技术在发展初期其社会影响很难被预见,当人类有能力识别其不确定影响时,由于技术的广泛应用,控制技术的难度也异常大。并且中国科学院自动化研究所研究员曾毅提供了量化研究的观点支撑,对全球40个国家AI治理的高层级评估显示,各国在不同维度上的差异表现巨大。而且人工智能的安全性并未随技术的进步而显著提升,即使是上个月发布的大语言模型,相比于三个月之前,也没有变得更安全。
因此,人工智能发展极快,风险暴露也极多。当我们发现风险时,往往已经滞后。比如,假设三年后才能规避某个问题,那么在这三年内,该问题早已带来很多风险。就像人工智能的深度伪造技术,利用其模仿他人进行诈骗,等我们发现并立法时,诈骗分子可能早已获利丰厚。所以对于人工智能,由于其带来的风险巨大,我们必须先手防治,才能防止危险进一步扩大化。并且在宏观上,习近平总书记在中央政治局第二十次会议时也强调,我们应该发展更安全可靠的人工智能。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
姐姐。
下来是攻辩环节,由正方先开始,时间为两分钟,发言及计时。
你好,可以听得到吗?
可以,能听见的。好,你方认为我方的立法优先风险治理是不是会阻碍所有的技术发展?在目前,我们根据论文显示,它会对人工智能的创新性进行一定的抑制。
哦,所以说,不会阻碍所有技术的发展,对不对?也不会阻碍所有你说的技术的升级,只是你担心会阻碍创新性技术的升级的话,如果你发现了问题,我方也会解决。但我没有为你解决的问题,所以至少在我方立场下,我方也可以进行技术升级。而我方第三点后续会跟你论证,为什么更加灵活的政策是我方认为更适宜促进技术发展的,而风险治理必须得有立法保障。
第二个问题,在你方的立场下,技术发展和风险冲突的时候,你会怎么选择?
我们不会冲突,首先我们是先发展,发展之后,你才会发现问题,这是一个先后环节。所以你说的技术发展过程中暴露的问题是风险治理的基础,所以你是打算等所有的问题都暴露了再去制定风险治理的法?
哦,对的。是因为如果你不知道风险是什么,所以如果我方论证到现在,我们已经能够大体知道风险是什么,并且,如果未来风险继续发展,你可能是遏制不了的,是不是这个风险立法才应该被优先因果导致?我们是首先发展技术,之后才能发现问题。所以说,在目前你导致我方根据后续论证,现有发言基础已经足够暴露出问题,而如果你任由这个问题发展,反而你后续遏制不了。
我问你,今天我问你啊,噬菌体在理论上是能够帮助罕见病遗传治疗的,是能够帮助罕见病治疗的,但当它被用在人类基因改造的时候,我们严厉遏制了,你觉得是为什么?
但是因为我们已经发现,在发展这个技术的过程中,发现它有问题,所以我们对技术进行限制。如果再往后进一步,它会遏制到人类的伦理突破人伦底线,而当人伦的底线可能被突破的时候,我们永远先守护的是风险,而非技术发展。
姐姐。
下来是攻辩环节,由正方先开始,时间为两分钟,发言及计时。
你好,可以听得到吗?
可以,能听见的。好,你方认为我方的立法优先风险治理是不是会阻碍所有的技术发展?在目前,我们根据论文显示,它会对人工智能的创新性进行一定的抑制。
哦,所以说,不会阻碍所有技术的发展,对不对?也不会阻碍所有你说的技术的升级,只是你担心会阻碍创新性技术的升级的话,如果你发现了问题,我方也会解决。但我没有为你解决的问题,所以至少在我方立场下,我方也可以进行技术升级。而我方第三点后续会跟你论证,为什么更加灵活的政策是我方认为更适宜促进技术发展的,而风险治理必须得有立法保障。
第二个问题,在你方的立场下,技术发展和风险冲突的时候,你会怎么选择?
我们不会冲突,首先我们是先发展,发展之后,你才会发现问题,这是一个先后环节。所以你说的技术发展过程中暴露的问题是风险治理的基础,所以你是打算等所有的问题都暴露了再去制定风险治理的法?
哦,对的。是因为如果你不知道风险是什么,所以如果我方论证到现在,我们已经能够大体知道风险是什么,并且,如果未来风险继续发展,你可能是遏制不了的,是不是这个风险立法才应该被优先因果导致?我们是首先发展技术,之后才能发现问题。所以说,在目前你导致我方根据后续论证,现有发言基础已经足够暴露出问题,而如果你任由这个问题发展,反而你后续遏制不了。
我问你,今天我问你啊,噬菌体在理论上是能够帮助罕见病遗传治疗的,是能够帮助罕见病治疗的,但当它被用在人类基因改造的时候,我们严厉遏制了,你觉得是为什么?
但是因为我们已经发现,在发展这个技术的过程中,发现它有问题,所以我们对技术进行限制。如果再往后进一步,它会遏制到人类的伦理突破人伦底线,而当人伦的底线可能被突破的时候,我们永远先守护的是风险,而非技术发展。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
接下来由反方三辩进行攻辩小结,时间为两分钟,发言及计时。
感谢主席。解决两个事情。第一件事情是对方对于现状的误解。对于AI发展到现在已经出现的问题和能看到的风险,对方认为现在是缺乏相应的法治土壤与规制的。可是在前场对方举出的所有例子,我们都有回应告诉你,现在中国的法制和规则已经完全能够去解决这些问题。比如说,对方提到的深度伪造导致的换脸和信息泄露,现在已经有《个人信息保护法》,在事前需要获得授权才能获取信息;而如果在事后侵犯他人信息,有相应的侵权法可以规制,包括著作权方面,也已有北京互联网第一例判例起到指导作用。所以对方现在提出的现有风险,我们发现现在的法制体系下已经有了相应的事前和事后完善的规制。如果现在的法律体系下仍然有人犯法,为什么对方辩友告诉我,您方指出立法就能解决问题?就像现在杀人已有相应的死刑和刑法罪名,但仍然有人犯法。为什么通过新立法就能解决没有人再犯法的问题?这是您方需要举证的。
第二件事情是对于未来可能发生的新风险。我们知道法律具有滞后性,而对方的误解在于认为现在的角度下,对于未来无法预测的新问题进行提前规制可以有效。我方认为,对未来无法预测的问题先行立法,只会限制技术发展,同时也无法真正回应实践需求。比如说曾经英国出台的机动车驾驶“红旗法案”,当时机动车尚未完全发展成熟,法案要求汽车速度不能超过马车,直接限制了汽车在英国的后续发展,导致英国汽车在此后的30年被德国、法国、意大利甩在身后,一蹶不振。由此可见,对方辩友对于未来无法预料的问题,您方现在的立法很有可能会抑制将来的技术发展。包括现在的欧盟,在前段时间的人工智能峰会上,法国总统马克龙已表示要放松在AI方面的监管。感谢。
接下来由反方三辩进行攻辩小结,时间为两分钟,发言及计时。
感谢主席。解决两个事情。第一件事情是对方对于现状的误解。对于AI发展到现在已经出现的问题和能看到的风险,对方认为现在是缺乏相应的法治土壤与规制的。可是在前场对方举出的所有例子,我们都有回应告诉你,现在中国的法制和规则已经完全能够去解决这些问题。比如说,对方提到的深度伪造导致的换脸和信息泄露,现在已经有《个人信息保护法》,在事前需要获得授权才能获取信息;而如果在事后侵犯他人信息,有相应的侵权法可以规制,包括著作权方面,也已有北京互联网第一例判例起到指导作用。所以对方现在提出的现有风险,我们发现现在的法制体系下已经有了相应的事前和事后完善的规制。如果现在的法律体系下仍然有人犯法,为什么对方辩友告诉我,您方指出立法就能解决问题?就像现在杀人已有相应的死刑和刑法罪名,但仍然有人犯法。为什么通过新立法就能解决没有人再犯法的问题?这是您方需要举证的。
第二件事情是对于未来可能发生的新风险。我们知道法律具有滞后性,而对方的误解在于认为现在的角度下,对于未来无法预测的新问题进行提前规制可以有效。我方认为,对未来无法预测的问题先行立法,只会限制技术发展,同时也无法真正回应实践需求。比如说曾经英国出台的机动车驾驶“红旗法案”,当时机动车尚未完全发展成熟,法案要求汽车速度不能超过马车,直接限制了汽车在英国的后续发展,导致英国汽车在此后的30年被德国、法国、意大利甩在身后,一蹶不振。由此可见,对方辩友对于未来无法预料的问题,您方现在的立法很有可能会抑制将来的技术发展。包括现在的欧盟,在前段时间的人工智能峰会上,法国总统马克龙已表示要放松在AI方面的监管。感谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
好的,接下来进入自由辩论环节,由正方先开始发言。解析时对方辩友,我比较好奇,既然你方说我们会一直发展,最主要从哪方面抑制,还有就是英国他现在是因为他在人工智能使用上管束的太多了,所以他才对他进行了很多的加速。首先我方强调的是我们要监管的是它的使用,那我问你监管使用为什么会抑制它的发展?
首先今天人工智能它的发展是需要吸取各种数据才能进行对它进一步的完善,它的大语言模型才能够进一步发展。如果说您方今天要限制,如果说您方要管制它,那你就会对它的数据的吸收保证就会进行一定的限制,让它无法获得充足的学习的语料库。
我接着问你,好了,同学,今天你告诉我说已经有科技促进法,这一步法来促进科技发展,那我想问你,这一步法它有具体说它怎样去保证科技人工智能这样具体的科技发展吗?被盗行医删掉的是一些违规的行医手段,我们依旧保留合格的医生开刀的权利。我确实承认,搬掉一部分不愿意本身泄露自己个人信息的信息,会让AI的语料库降低,限制它的技术,让它技术发展变得慢一点。但这但这不才是符合AI是服务于人的这么一个目的吗?
好,所以说您方没有回应我关于立法的问题,您方告诉我的那个立法科技促进法,它只是一个一般法,可是我们在一般法之外还有特殊法。我方今天就是要立关于人工智能的特殊法,关于人工智能它怎样去促进它的融资,怎样去对于它的发展的一个渠道,上市的渠道进行一个新的一个促进。所以说这是第一点,您方今天关于我方立法的一个攻击是不成立的。
问您第二个点好,您方告诉我说个人信息可是个人信息我们现在已经在各保法下已经能够获得判决,已经能够对于侵犯个人信息的各种企业进行一个惩罚,你方告诉我,为什么你方今天还要单独在立一部人工智能法出来对他进行规制呢?
首先你行里的立法要求就是不合理的,其实你跟我说人民智能很重要,人民智能要的立法,我觉得科学技术发展很是,我觉得航天航空技术发展很重要,航天航空技重要的一步,特别特别特别法本身这样的立法需求本身就是不合理的,因为今天我们科学需求太多了,不可能对每一个科学知识都进行专项立法,哪怕这样技术很重要。然后这件是你方本,你方跟我说他要学习与要不,无非还是在说我们要从前端的话的使用上去进行治理,如我方现在跟你强调是我们要从监管手上去进行治理。给你一个实力的如果对自动驾驶的攻击管理模式去自有代表性,它是根据技术的成熟度不同的制定道路使用规则,而非限制研发。这种模式是中国的价驶特施,里程按人到2025年到达了美国。限制研发这种模式,使中国的价值测试里程快速增长,2025年到达了美国的1.2倍,这就是监管使用的优势在实验中的日益体现。所以说我不懂,那我们去监管使用这种方式,反而可以促进发展的时候,哪里不好了。
好,同学,您方刚刚提到航空领域,确实我国在航空领域真的有航空法来对它进行一个促进和保障,所以说我们发现一般法和特殊法,下位法对于上位法的细化,这在我国立法底下是可以接受的,所以人工智能领域依然成立。
现在问你好了同学,我想问你一个问题,你是什么时候觉得你要去立法,去规制人工智能,是不是你发现他有这个问题产生了之后,你才知道要去立一部专门的法规呢?如果你要支持下位法对上位法的细化,你就不要拿现在已经有个人信息保护来反对我AI的信息,也需要立一部特别的法。
我来问你,你所有的利好是不是基于现在只有一般法,就现在一般法已经指出了,我们要大力的鼓励AI去融资,给AI足够的资金支持你,你想立特殊版的原因是不是只是为了因地制宜的让他能够实践下来,来告诉来告诉我,为什么个人信息保护法已经不满足现在人工智能的需求了,到底多出来的那一部分在哪里?你现在只能跟我论证,我是不清AI盗用信息是会被惩罚的,但是现在AI经过我的授权,利用我的信息去生成了一张和我相似的图片,这是无法被保证的权益是你现在的话无法去收入的。
所以我接下来问你,你只想要一个特殊的处理方法,现在的到现在的话,这个人工人工智能科学技术促进法的情况下,我方倡导各地的政府能够因地制宜的去落实各地人工智能的扶持政策,树立也也能也能达到你所谓的利好。
同学,您刚刚说到的是关于人工智能利用他人的数据来生成一个新的作品,这种对于数据、个人隐私的侵犯,但是北京市互联网法院2023号、049云初1127号判决已经对于人工智能利用他人的信息、他人的数据生成新作品这样的行为进行了规制,解决了在知识产权领域、个人企个人数据领域的侵权问题。所以我方没有看见你方今天单立一部法规的必要。
我进一步问你好了,同学,如果今天你根本都不知道人工智能这个东西的存在,你是不是根本就立不出人工智能这部法?
Teacher学,其实我们是一个成文法国家,至少不是判例法国家了,同学你别告诉我,判例对于指导真正实践指导我们就我我们至少至少在我们国家法律,法律制度不是这么用的啊。然后然后这然后第二件事情是今天我们那个科学技术进度法第85条已经说了,我们要促进科学技术的融资和税收,政府采购各方面的鼓励,所以今天你方跟我说科学技术的额外的利率付分也是有的,所以你告诉我这些人工智能还是要特别在哪里,你方的增益到在哪?国外的利率不法也是有了,所以你告诉我这些人工智能还知道特别在哪里,你方的争议都话在哪里,就是你我方是个国,现实不是判你把国家不是国家推动这个案件成为北京互联网法院的全国推广性案例,就是要加强案例的指导性作用,推动统一的司法判决,让统公正,让每一个司法判决都能做到统一,这是第一点。
第二点你方今天告诉我,你今天本没有告诉我说,如果你根本不知道问题是什么样的,那你就直接去立法,会造成什么样的问题,我建立子好了,今天英国他直接在机动车驾驶,机动车驾驶出现了初期,他就立出了一个红旗板案,当时他根本不知道汽车驾驶会出现什么问题,他直接要求汽车的速度不能超过马车,你方觉得这样的立马对于汽车,对于人工,对于汽车的发展是好的吗?
所以我已经说了两周,我都说了希望他发挥指导性作用,那现在在在各地的立法上依旧是暧昧的,不至趁着你这个契机,快快的在未来10年的立法上讨论一下,我们该怎么统一的让它真正发挥它的指导性作用啊。
一二,你的所有利好基而你的你你只指你指责我的所有弊端。基于我们不知道现在人工智能真正造成的问题是什么,可是一就像你说的,这个伦理问题已经是我们现在发现的现在争议的那个焦点了。第一二,你现在也知道,那个诈骗案的侵犯是人工智能很可能去侵犯我眼私,侵犯我个人心息的问题了。在这么一个严重的社会风险已经存在的情况下,你还要跟我支持本多你来矛盾简盖立法,你来了不对,所以说,我们是发现问题解决问题。如果说你已经发现问题,你可以去解决它。而且,现在的实践和法律是可以解决的。
来,我继续问你,所以说红旗法案要求汽车的速度不能超过马车,在这种根本没有发现问题之前,他就已经立出了这个红旗法案,你方觉得这样对于汽车的发展是好还是不好?
所以说我们现在我们不知道人们带来的问题是什么吗?不好意思,刚刚我没听清楚你们太多人讲话了。嗯,你可以跟我论证,现在我们完全不知道人工智能带给我们的风险是什么,或者认知是有误的。
第一,我们不是说完全不知道我们说如果你已经知道,那你就去做。可是,你做的这个前提叫做你要先发展起来,之后发展产生的问题,你才知道问题是什么,才能去解决它,否则你就会像红红旗法案一样,要求汽车的速度不能超过马车。在然后在英国,他本来最先发明出它的蒸汽机以及它的汽车动力,这样的一个最先的一最新的一个发明成果。可是就因为这个法律导致他的升体,导致他的机动车驾驶在相当长的一段时间内限制住了它的发展。你方这样是觉得可以接受的吗?
哦,因为我们人工智能的认。各位同学,其实我们的立法技术已经进步了,至少我们不再是刚刚进入第二次工业革命的时候那个立法基础。所以今天我刚刚中国那个对于自动驾驶的监管,那个也告诉你了,我们的监管,那个也告诉你了,我们的监管使用可以在不影响它发展的同时做到很好的监管,所以只好在这个部分不要再用你英国的那个例子来攻击我了。
接下来我问你现在人工智能已经发展了,已经发展了近三四年了,你告诉我他是一点问题都没有了,所以你跟我说,出现问题解决问题,是靠一个一个判定去解决问题吗?
哦,不对,所以说,您方今天只是告诉我说,立法技术已经提升,可是,立法技术再怎么提升,立法也不可能超前立法。法律具有滞后性,这是法律法理学告诉我们法律对固有的根本的无法克服的,它的局限性。所以我们永远不可能预知未来有什么问题,从而去立法规制它。我们只能是发现问题之后,我们发现人工智能可能有算法黑箱,他可能会有其他的一些弊病,我们才会推动这立案,将这个案件提交到全国人民代表大会那里,让他们去审议这个议案,否则全国人大他们是不是也无从审议呢?
所以我下已经发生了问题,而至少我方现在通过美国食品药品监督管理局也发现,通过监管使用而而非开发的原则,可以让AI的医疗产品的审批周期不仅降低了,而且让不良事件率也降到40%。现在已有已经发生问题了,并且立法能够有较强的解决率的时候,你还要一直给我扣帽子,说我是预判不了未来风险,同学,我方从来没有说现在不存在问题,那我想问你一个很简单的问题,你是从什么时候发现人工智能它有信息泄露,它有这些乱七八糟的弊病的?
我承认他事后,所以我现在已经发现了我跟你论证他很严重,我现在该不该立法规定呢?
对,非常好,你也说是事后,所以说也是先发展起来之后,你才能发现问题。今天题目问我们的是人工智能立法是优先技术促进,还是说应当先进行治理?所以说很明显就是应当先进行技术促进,之后你才能发现问题,去行解决问题,这个才是我们立法的态度,才是我们立法应有的逻辑,这样才能考虑的某法律才能某些符合起信念,你不要模糊态度,你做的是员工工具呢,应该先把发展起来,我对立法应优先发展至少现在我相信你就说在已有的发展公司上。
好的,接下来进入自由辩论环节,由正方先开始发言。解析时对方辩友,我比较好奇,既然你方说我们会一直发展,最主要从哪方面抑制,还有就是英国他现在是因为他在人工智能使用上管束的太多了,所以他才对他进行了很多的加速。首先我方强调的是我们要监管的是它的使用,那我问你监管使用为什么会抑制它的发展?
首先今天人工智能它的发展是需要吸取各种数据才能进行对它进一步的完善,它的大语言模型才能够进一步发展。如果说您方今天要限制,如果说您方要管制它,那你就会对它的数据的吸收保证就会进行一定的限制,让它无法获得充足的学习的语料库。
我接着问你,好了,同学,今天你告诉我说已经有科技促进法,这一步法来促进科技发展,那我想问你,这一步法它有具体说它怎样去保证科技人工智能这样具体的科技发展吗?被盗行医删掉的是一些违规的行医手段,我们依旧保留合格的医生开刀的权利。我确实承认,搬掉一部分不愿意本身泄露自己个人信息的信息,会让AI的语料库降低,限制它的技术,让它技术发展变得慢一点。但这但这不才是符合AI是服务于人的这么一个目的吗?
好,所以说您方没有回应我关于立法的问题,您方告诉我的那个立法科技促进法,它只是一个一般法,可是我们在一般法之外还有特殊法。我方今天就是要立关于人工智能的特殊法,关于人工智能它怎样去促进它的融资,怎样去对于它的发展的一个渠道,上市的渠道进行一个新的一个促进。所以说这是第一点,您方今天关于我方立法的一个攻击是不成立的。
问您第二个点好,您方告诉我说个人信息可是个人信息我们现在已经在各保法下已经能够获得判决,已经能够对于侵犯个人信息的各种企业进行一个惩罚,你方告诉我,为什么你方今天还要单独在立一部人工智能法出来对他进行规制呢?
首先你行里的立法要求就是不合理的,其实你跟我说人民智能很重要,人民智能要的立法,我觉得科学技术发展很是,我觉得航天航空技术发展很重要,航天航空技重要的一步,特别特别特别法本身这样的立法需求本身就是不合理的,因为今天我们科学需求太多了,不可能对每一个科学知识都进行专项立法,哪怕这样技术很重要。然后这件是你方本,你方跟我说他要学习与要不,无非还是在说我们要从前端的话的使用上去进行治理,如我方现在跟你强调是我们要从监管手上去进行治理。给你一个实力的如果对自动驾驶的攻击管理模式去自有代表性,它是根据技术的成熟度不同的制定道路使用规则,而非限制研发。这种模式是中国的价驶特施,里程按人到2025年到达了美国。限制研发这种模式,使中国的价值测试里程快速增长,2025年到达了美国的1.2倍,这就是监管使用的优势在实验中的日益体现。所以说我不懂,那我们去监管使用这种方式,反而可以促进发展的时候,哪里不好了。
好,同学,您方刚刚提到航空领域,确实我国在航空领域真的有航空法来对它进行一个促进和保障,所以说我们发现一般法和特殊法,下位法对于上位法的细化,这在我国立法底下是可以接受的,所以人工智能领域依然成立。
现在问你好了同学,我想问你一个问题,你是什么时候觉得你要去立法,去规制人工智能,是不是你发现他有这个问题产生了之后,你才知道要去立一部专门的法规呢?如果你要支持下位法对上位法的细化,你就不要拿现在已经有个人信息保护来反对我AI的信息,也需要立一部特别的法。
我来问你,你所有的利好是不是基于现在只有一般法,就现在一般法已经指出了,我们要大力的鼓励AI去融资,给AI足够的资金支持你,你想立特殊版的原因是不是只是为了因地制宜的让他能够实践下来,来告诉来告诉我,为什么个人信息保护法已经不满足现在人工智能的需求了,到底多出来的那一部分在哪里?你现在只能跟我论证,我是不清AI盗用信息是会被惩罚的,但是现在AI经过我的授权,利用我的信息去生成了一张和我相似的图片,这是无法被保证的权益是你现在的话无法去收入的。
所以我接下来问你,你只想要一个特殊的处理方法,现在的到现在的话,这个人工人工智能科学技术促进法的情况下,我方倡导各地的政府能够因地制宜的去落实各地人工智能的扶持政策,树立也也能也能达到你所谓的利好。
同学,您刚刚说到的是关于人工智能利用他人的数据来生成一个新的作品,这种对于数据、个人隐私的侵犯,但是北京市互联网法院2023号、049云初1127号判决已经对于人工智能利用他人的信息、他人的数据生成新作品这样的行为进行了规制,解决了在知识产权领域、个人企个人数据领域的侵权问题。所以我方没有看见你方今天单立一部法规的必要。
我进一步问你好了,同学,如果今天你根本都不知道人工智能这个东西的存在,你是不是根本就立不出人工智能这部法?
Teacher学,其实我们是一个成文法国家,至少不是判例法国家了,同学你别告诉我,判例对于指导真正实践指导我们就我我们至少至少在我们国家法律,法律制度不是这么用的啊。然后然后这然后第二件事情是今天我们那个科学技术进度法第85条已经说了,我们要促进科学技术的融资和税收,政府采购各方面的鼓励,所以今天你方跟我说科学技术的额外的利率付分也是有的,所以你告诉我这些人工智能还是要特别在哪里,你方的增益到在哪?国外的利率不法也是有了,所以你告诉我这些人工智能还知道特别在哪里,你方的争议都话在哪里,就是你我方是个国,现实不是判你把国家不是国家推动这个案件成为北京互联网法院的全国推广性案例,就是要加强案例的指导性作用,推动统一的司法判决,让统公正,让每一个司法判决都能做到统一,这是第一点。
第二点你方今天告诉我,你今天本没有告诉我说,如果你根本不知道问题是什么样的,那你就直接去立法,会造成什么样的问题,我建立子好了,今天英国他直接在机动车驾驶,机动车驾驶出现了初期,他就立出了一个红旗板案,当时他根本不知道汽车驾驶会出现什么问题,他直接要求汽车的速度不能超过马车,你方觉得这样的立马对于汽车,对于人工,对于汽车的发展是好的吗?
所以我已经说了两周,我都说了希望他发挥指导性作用,那现在在在各地的立法上依旧是暧昧的,不至趁着你这个契机,快快的在未来10年的立法上讨论一下,我们该怎么统一的让它真正发挥它的指导性作用啊。
一二,你的所有利好基而你的你你只指你指责我的所有弊端。基于我们不知道现在人工智能真正造成的问题是什么,可是一就像你说的,这个伦理问题已经是我们现在发现的现在争议的那个焦点了。第一二,你现在也知道,那个诈骗案的侵犯是人工智能很可能去侵犯我眼私,侵犯我个人心息的问题了。在这么一个严重的社会风险已经存在的情况下,你还要跟我支持本多你来矛盾简盖立法,你来了不对,所以说,我们是发现问题解决问题。如果说你已经发现问题,你可以去解决它。而且,现在的实践和法律是可以解决的。
来,我继续问你,所以说红旗法案要求汽车的速度不能超过马车,在这种根本没有发现问题之前,他就已经立出了这个红旗法案,你方觉得这样对于汽车的发展是好还是不好?
所以说我们现在我们不知道人们带来的问题是什么吗?不好意思,刚刚我没听清楚你们太多人讲话了。嗯,你可以跟我论证,现在我们完全不知道人工智能带给我们的风险是什么,或者认知是有误的。
第一,我们不是说完全不知道我们说如果你已经知道,那你就去做。可是,你做的这个前提叫做你要先发展起来,之后发展产生的问题,你才知道问题是什么,才能去解决它,否则你就会像红红旗法案一样,要求汽车的速度不能超过马车。在然后在英国,他本来最先发明出它的蒸汽机以及它的汽车动力,这样的一个最先的一最新的一个发明成果。可是就因为这个法律导致他的升体,导致他的机动车驾驶在相当长的一段时间内限制住了它的发展。你方这样是觉得可以接受的吗?
哦,因为我们人工智能的认。各位同学,其实我们的立法技术已经进步了,至少我们不再是刚刚进入第二次工业革命的时候那个立法基础。所以今天我刚刚中国那个对于自动驾驶的监管,那个也告诉你了,我们的监管,那个也告诉你了,我们的监管使用可以在不影响它发展的同时做到很好的监管,所以只好在这个部分不要再用你英国的那个例子来攻击我了。
接下来我问你现在人工智能已经发展了,已经发展了近三四年了,你告诉我他是一点问题都没有了,所以你跟我说,出现问题解决问题,是靠一个一个判定去解决问题吗?
哦,不对,所以说,您方今天只是告诉我说,立法技术已经提升,可是,立法技术再怎么提升,立法也不可能超前立法。法律具有滞后性,这是法律法理学告诉我们法律对固有的根本的无法克服的,它的局限性。所以我们永远不可能预知未来有什么问题,从而去立法规制它。我们只能是发现问题之后,我们发现人工智能可能有算法黑箱,他可能会有其他的一些弊病,我们才会推动这立案,将这个案件提交到全国人民代表大会那里,让他们去审议这个议案,否则全国人大他们是不是也无从审议呢?
所以我下已经发生了问题,而至少我方现在通过美国食品药品监督管理局也发现,通过监管使用而而非开发的原则,可以让AI的医疗产品的审批周期不仅降低了,而且让不良事件率也降到40%。现在已有已经发生问题了,并且立法能够有较强的解决率的时候,你还要一直给我扣帽子,说我是预判不了未来风险,同学,我方从来没有说现在不存在问题,那我想问你一个很简单的问题,你是从什么时候发现人工智能它有信息泄露,它有这些乱七八糟的弊病的?
我承认他事后,所以我现在已经发现了我跟你论证他很严重,我现在该不该立法规定呢?
对,非常好,你也说是事后,所以说也是先发展起来之后,你才能发现问题。今天题目问我们的是人工智能立法是优先技术促进,还是说应当先进行治理?所以说很明显就是应当先进行技术促进,之后你才能发现问题,去行解决问题,这个才是我们立法的态度,才是我们立法应有的逻辑,这样才能考虑的某法律才能某些符合起信念,你不要模糊态度,你做的是员工工具呢,应该先把发展起来,我对立法应优先发展至少现在我相信你就说在已有的发展公司上。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
(注:全程使用⊣符号标识反驳关系,→标识逻辑推导,关键节点标注逻辑规则依据)
反方四辩 · 总结陈词
你已发现问题,我一开始就知道你如何解决好的。接下来进入最后的总结陈词环节,由反方四辩先发言,时间为3分30秒,发言及时。感谢主席最后一次问候在场各位。
那视频我们双方都是要比较谁更不能满足当前的需求。来看一下你方,你方担忧的唯二两个问题:
一个叫做人工智能的基因编辑,现在社会已经将基因编辑禁止了,所以无论用什么样的方式参与到基因编辑当中,都是被禁止的,没有看出来有多余的律法需求。
第二件事情,你方担忧的是类似于个人信息暴露、类似于深度伪造这样的技术。可是在我方给你指出了大量的个人信息保护法,给你指出了北京法院判出的那些有效的判例的时候,恰恰说明了现在已经有满足这些需求的立法规制了。
你反问我方,你方在论点里主动提出说我方现在已经有法律了,可是你全场只能干瘪地说出一句叫做要促进融资、促进发展。而当你无限重复这一句话的时候,你也发现,明明是技术促进型立法在现代社会是更不完善、更空泛、更急迫的,需要被立法完善的。所以,在谁更能满足当前的需求这一点上,也是我方更急需立法。
第二件事情是对方辩友所倡导的风险治理型立法,最大的困境在于违背了法律的本质属性与AI的发展规律。法律天然具有滞后性,立法者不可能超前立法,且立法成本较高,所花时间太长,难以匹配人工智能的快速发展。欧盟人工智能法案刚基于现有技术完成定义,而GPT等大模型的出现就迫使其紧急修正,而DP的架构突破让其再次面临调整的尴尬处境。这种试图预先规制未知风险的立法,最终要么因束缚创新而被时代抛弃,要么因频繁修订而丧失权威。我国公司法出资制度从严格法定资本制到认缴制的反复调整,早已印证了这一道理。
而技术促进型立法就是顺应了人工智能的发展规律。AI以大数据学习为基础的本质,决定了其必须在规模化应用中才能完善进化。韩国关于促进人工智能发展和信任基础的基本法案通过构建政策支持体系,推进核心技术研发,为产业发展注入动力。我国国务院关于深入实施人工智能“加”行动的意见更明确推动AI与经济社会深度融合。在基层治理中,AI已实现从被动响应到预先介入的跃变,深圳的司法智能系统为公众与效率提供了双重保障。这些实践无不证明,技术促进型立法带来的技术突破,不仅能创造巨大的社会价值,更能构建起更强大的风险抵御能力。
从历史维度看,人类文明的每一次飞跃都伴随着对风险的理性包容。不敢接受一点点风险的人类,只能推开所有技术,退回到原始时代。数十万年前,当我们的祖先第一次面对熊熊燃烧的火焰时,它同样是危险的、不可控的。如果因为惧怕而远离它、排斥它,人类将永远停留在茹毛饮血的黑暗与寒冷之中。但我们没有,我们选择了勇敢地靠近它、研究它,最终驯服了它,为我们带来了光明、温暖和熟食,催动了人类文明的第一次伟大革命。
一个多世纪前,当汽车刚刚出现,被称作“铁盒子”怪兽,甚至颁布了“红旗法案”,用马车的规则限制汽车的速度。这个法案在今天看来是何其荒谬,恰恰是因为它选择了你方的那种保护过去的方式,选择了你方的那种立法方式,扼杀了未来。谢谢。
反方四辩 · 总结陈词
你已发现问题,我一开始就知道你如何解决好的。接下来进入最后的总结陈词环节,由反方四辩先发言,时间为3分30秒,发言及时。感谢主席最后一次问候在场各位。
那视频我们双方都是要比较谁更不能满足当前的需求。来看一下你方,你方担忧的唯二两个问题:
一个叫做人工智能的基因编辑,现在社会已经将基因编辑禁止了,所以无论用什么样的方式参与到基因编辑当中,都是被禁止的,没有看出来有多余的律法需求。
第二件事情,你方担忧的是类似于个人信息暴露、类似于深度伪造这样的技术。可是在我方给你指出了大量的个人信息保护法,给你指出了北京法院判出的那些有效的判例的时候,恰恰说明了现在已经有满足这些需求的立法规制了。
你反问我方,你方在论点里主动提出说我方现在已经有法律了,可是你全场只能干瘪地说出一句叫做要促进融资、促进发展。而当你无限重复这一句话的时候,你也发现,明明是技术促进型立法在现代社会是更不完善、更空泛、更急迫的,需要被立法完善的。所以,在谁更能满足当前的需求这一点上,也是我方更急需立法。
第二件事情是对方辩友所倡导的风险治理型立法,最大的困境在于违背了法律的本质属性与AI的发展规律。法律天然具有滞后性,立法者不可能超前立法,且立法成本较高,所花时间太长,难以匹配人工智能的快速发展。欧盟人工智能法案刚基于现有技术完成定义,而GPT等大模型的出现就迫使其紧急修正,而DP的架构突破让其再次面临调整的尴尬处境。这种试图预先规制未知风险的立法,最终要么因束缚创新而被时代抛弃,要么因频繁修订而丧失权威。我国公司法出资制度从严格法定资本制到认缴制的反复调整,早已印证了这一道理。
而技术促进型立法就是顺应了人工智能的发展规律。AI以大数据学习为基础的本质,决定了其必须在规模化应用中才能完善进化。韩国关于促进人工智能发展和信任基础的基本法案通过构建政策支持体系,推进核心技术研发,为产业发展注入动力。我国国务院关于深入实施人工智能“加”行动的意见更明确推动AI与经济社会深度融合。在基层治理中,AI已实现从被动响应到预先介入的跃变,深圳的司法智能系统为公众与效率提供了双重保障。这些实践无不证明,技术促进型立法带来的技术突破,不仅能创造巨大的社会价值,更能构建起更强大的风险抵御能力。
从历史维度看,人类文明的每一次飞跃都伴随着对风险的理性包容。不敢接受一点点风险的人类,只能推开所有技术,退回到原始时代。数十万年前,当我们的祖先第一次面对熊熊燃烧的火焰时,它同样是危险的、不可控的。如果因为惧怕而远离它、排斥它,人类将永远停留在茹毛饮血的黑暗与寒冷之中。但我们没有,我们选择了勇敢地靠近它、研究它,最终驯服了它,为我们带来了光明、温暖和熟食,催动了人类文明的第一次伟大革命。
一个多世纪前,当汽车刚刚出现,被称作“铁盒子”怪兽,甚至颁布了“红旗法案”,用马车的规则限制汽车的速度。这个法案在今天看来是何其荒谬,恰恰是因为它选择了你方的那种保护过去的方式,选择了你方的那种立法方式,扼杀了未来。谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
接下来由正方四辩发表总结陈词,时间为3分30秒,发言及计时。
我认为,首先需要指出对方的一个基本法律性错误:立法的核心在于确立行为准则与责任边界,而非消灭所有违法。因此,不能以“立法后有人犯法且后果不确定”为由否定立法,这种观点本身违背了法律的基本规则和滞后性特征。法律滞后性并非等待问题出现后再立法的借口,反而要求立法者以前瞻性思维主动应对,进行风险治理和技术促进。
对方认为,技术促进与风险治理的价值都能推动人工智能产业发展,例如AI医疗和AI教育产业若能造福人类而非用于害人,就应持续发展。但我方要强调的是,在价值判断的优先级上,风险治理应优先。
第一,伦理风险不容忽视。在贺建奎基因编辑婴儿事件之前,中国对基因技术的发展持鼓励态度,但当发现其可能触及伦理底线时,我们才意识到问题的严重性。人工智能同样存在类似风险,例如当ChatGPT通过情绪控制教唆14岁未成年人自杀时,我们怎能对这类伦理风险置身事外?
第二,其他风险确实存在且法律存在空白。对方提到已有的判例,但我国是成文法国家,判例不能直接作为法律依据,需要通过扩充法律解释来适用。此外,以自动驾驶为例,2016年的相关案件至今九年仍未解决,这说明仅靠判例或现有法律难以应对人工智能带来的新问题。
第三,技术促进不能天然保障安全性。对方认为技术促进可以通过算法改进提升安全性,但这无法解决用户隐私泄露、算法歧视等问题。若不优先进行风险治理,人工智能可能在缺乏监管的情况下走向失控,甚至引发悲剧。
对方强调战略层面的重要性,提到中国互联网网络中心2024年数据显示人工智能产业已突破7000亿,年增长率超20%。但我方认为,在产业蓬勃发展的同时,更应警惕风险。政策治理虽有时效性和灵活性,但立法是更根本、更具权威性的保障。风险治理并非固步自封,而是在发展中规范方向,避免技术灾难发生后才追悔莫及。
综上,我方认为未来十年,人工智能立法应优先风险治理。
感谢华东政法大学的同学参与今天的辩论,祝大家比赛顺利。谢谢。
接下来由正方四辩发表总结陈词,时间为3分30秒,发言及计时。
我认为,首先需要指出对方的一个基本法律性错误:立法的核心在于确立行为准则与责任边界,而非消灭所有违法。因此,不能以“立法后有人犯法且后果不确定”为由否定立法,这种观点本身违背了法律的基本规则和滞后性特征。法律滞后性并非等待问题出现后再立法的借口,反而要求立法者以前瞻性思维主动应对,进行风险治理和技术促进。
对方认为,技术促进与风险治理的价值都能推动人工智能产业发展,例如AI医疗和AI教育产业若能造福人类而非用于害人,就应持续发展。但我方要强调的是,在价值判断的优先级上,风险治理应优先。
第一,伦理风险不容忽视。在贺建奎基因编辑婴儿事件之前,中国对基因技术的发展持鼓励态度,但当发现其可能触及伦理底线时,我们才意识到问题的严重性。人工智能同样存在类似风险,例如当ChatGPT通过情绪控制教唆14岁未成年人自杀时,我们怎能对这类伦理风险置身事外?
第二,其他风险确实存在且法律存在空白。对方提到已有的判例,但我国是成文法国家,判例不能直接作为法律依据,需要通过扩充法律解释来适用。此外,以自动驾驶为例,2016年的相关案件至今九年仍未解决,这说明仅靠判例或现有法律难以应对人工智能带来的新问题。
第三,技术促进不能天然保障安全性。对方认为技术促进可以通过算法改进提升安全性,但这无法解决用户隐私泄露、算法歧视等问题。若不优先进行风险治理,人工智能可能在缺乏监管的情况下走向失控,甚至引发悲剧。
对方强调战略层面的重要性,提到中国互联网网络中心2024年数据显示人工智能产业已突破7000亿,年增长率超20%。但我方认为,在产业蓬勃发展的同时,更应警惕风险。政策治理虽有时效性和灵活性,但立法是更根本、更具权威性的保障。风险治理并非固步自封,而是在发展中规范方向,避免技术灾难发生后才追悔莫及。
综上,我方认为未来十年,人工智能立法应优先风险治理。
感谢华东政法大学的同学参与今天的辩论,祝大家比赛顺利。谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)