好的,各位同学,我要开麦了。
后来,我都……好的好的。嗯,现在可以看到我的屏幕了。好的。那个,嗯,那我们现在就开始计时了。嗯,好,嗯,现在有请正方同学先开始。好的好的。好了,你刚说啥?你刚才说啥? 我说,我说他们两个怎么吵起来了? 很正常。什么情况好了吗? 我,我有点无语了,快一点啊,家人们。不要浪费我的时间。这个会议马上要没时间了。 我现在预约一个新的会议,我怎么预约?我不会预约,真是为难我。 哦,对,我的投屏啊,对,OKOK,他来,OK,只要别让我来就行。 不服了。我靠,我想和我这个提示音关。三三四十四,三三四十二。 OK。那我们就可以离开了,对吧。结束直接,哎,这怎么从这个里面直接开了。哦,OK了。
嗯,好,知道可以睡。嗯,张辉。想听我的,嗯。哎。他们都手机,嗯,大家都到齐了吗? 到齐了我们就准备开始了。 到齐了。 好的呢,那我就开始计时了。能看得见。
我想问一下反方辩友,既然有了风险,那么我们为什么不去整治他们,而是运用这个风险去发展,然后导致问题出现,然后造成更大的损失? 第一层,目前的风险没有你想象的那么大,你方从来没有给我举证过。 第二层,我方已经告诉你了,用技术可以更快地挽回目前AI造成的损失。 其实,我方接下来要问你,嗯,既然AI是一个如此新兴的行业,那你接下来用立法这种强制的手段去强迫这个行业逆向发展,会不会进一步加剧法律的稳定性与监管灵活性之间的关系? 我说并没有要强制进行管控,而是进行风险治理啊。管控的是风险,而不是对AI的发展呀。 所以你方既然没有强制性,我没听明白你方为什么能够……我们单纯在2027年说到AI每年对中国增收了21%的GDP,约等于3.5个深圳当前的GDP,这部分减损你方打算怎么看待? 我们告诉你的是,我们不否认AI给我们带来的好处,但AI具有巨大的风险,在您方眼里,什么电子诈骗,什么这种信息的泄露都不算什么大的问题是吗? OK,听着。嗯,你刚才说第一件事情,你需要给我实证,告诉我现在AI带来的是巨大的风险,往下我可以给你实证,告诉你,现在你给我列举的这些种种技术风险,我方都可以通过技术的更新换代来解决。 比如这种数据的泄露,美国已经出台了相关的智能体,可以实时地去监管,这种防火墙还可以实时监管,如果有人对系统攻击或者那种数据泄露行为……往下你方没有任何对于伦理风险有治理的成功方案。 那太好了,那么请问谁来确保这一项你们的技术会被普遍采用呢?那么是靠企业的自觉性还是靠法律的强制力啊? 所以同学,我们现在要立法去进行技术革新,有了法律的话,强制以及倾斜这些资源给这些企业,让他们进行技术革新,这就是我们今天要强调把立法这部分优势资源用于技术革新的原因。 其次我再往下问你,那关于国家主权的部分,美国空军在2024年6月13号的新闻稿显示,五年之内就可以决定空中优势,也就是说谁先部署了AI控制的战机和无人机,谁就先拿到了空中的优势。那这部分你把资源让给了技术可以解决的风险,那五年的窗口期和两到三年的代差,这种冒险的利害,你方打算怎么承担? 正是因为有未知的风险,我们才更需要建立原则性的法律调控,比如人类监督和安全可控的原则。难道因为不知道小偷从哪儿来,我们就不设防了吗? 所以听起来对方的避害,你方也没有让我们承担,那我们再来从现实层面上聊。中国国家在2024年的18号文件当中,已经删除了AI法的草案,改为了AI+行动,是不是说明国家的态度也是说不是必须硬法才能够保障安全,我们采用更柔和的方式,用技术的方式也可以确定风险?那对方辩友您是否认同? 比如在环保领域,先污染后治理,这个教训是惨痛的。那么对于数据隐私、算法歧视这种事情,一旦发生,并且难以挽回的精神污染和社会影响,我们如何要重蹈覆辙呢? 我要一直断言,请你给我举证,给我一个实际的例子。其次你告诉我现实层面上怎么立法,国家的态度已经告诉你说先去革新技术,你告诉我怎么立法。 但是您方辩友要注意,今天我们的辩题是“未来10年人工智能立法应优先做什么事情”,它就是建立在立法这个事情上去讨论我们应该优先进行哪一项,而不是说我们不应该立法。对方辩友不要告诉我说,啊,国家的态度就是告诉你不应该那么强硬地去立法,不知道怎么去立法。可是我们现在就应该讨论立法,优先做什么事情,对吗? 还好优先做什么事情。所以你也发现了,如果你今天立法解决不了这些问题,可是我们今天通过技术领域的立法就是可以解决的话,那本质上就是应该优先技术促进立法路径。所以,你也发现了,其实你方今天很多监管风险的部分不需要通过立法来实现。 比如说,今天在美国,它就是一个相对宽松、相对鼓励试错的监管环境。在美国就坐实了在AI领域的绝对领先地位,你告诉我是不是这种情况?下面我们不需要通过立法也可以解决部分风险? OK,现在我们讨论的是人工智能未来10年立法应该优先解决风险管控,还是优先进行技术促进。而您方一直在问我方人工智能,我方的观点是人工智能立法应该优先风险管控。在我方看来,基础层面的风险不需要去立法解决,可是我们现在的证据告诉我们人工智能应该要去立法,对吗? 同学,因为我方给你比较的就是在立法的效率和立法的适用性来看,它都更适合,应该倾向于技术促进。而在风险治理方面,你方真的有那么强的法律效力,或者那么强的实用性吗?根本没有,它没办法去解决现在的伦理风险。 往下我们朋友可以给你列举,我们应该还有更好的解决方案来解决这些风险,它可能远比现在出台一部传统的法律更好,它可能是通过这种企业的自行管理制度,它可以实现这种试点和沙盒计划,来让企业自行出台相关的规章制度,来实现更好的管理。 对方辩友,今天我们讨论的是未来10年人工智能立法应该优先解决风险管控,而不是你告诉我你一个公司通过什么制度管控就能解决这些风险。我方认为目前AI存在巨大的风险,首先诈骗,诈骗是不是一个巨大的风险呢?我先请问一下对方辩友。 同学,我们今天在这里聊这个辩题,不是要强迫国家去立法,而是关于这个问题,要从它的原因、可行性以及方法论上,你方全程给我举证。比如说今天我们既然有风险,就应该强迫国家去立法,这是你方的态度了。 那我想问一下对方辩友,如果当一个人的职业生涯被一个有偏见的AI招聘系统毁掉,如果一个家庭财产被一个智能投资顾问骗光,那这些损失需要用技术不足来当借口吗? 你方所说的技术促进在过去已经存在,一直在继续促进,那么目前我们在你方的技术促进的过程当中发现了许许多多的问题,但这些问题是不是应该开始解决起来?那开始解决是不是应该优先去风险管控呢?而不是你方所说的技术促进根本不管这些风险,但你方告诉我,你方还要技术促进,我们不否认,我们也不反对你方进行风险技术促进,但是你方进行技术促进之前,是不是应该先把这些现有的风险给解决,否则怎么对人进行保障呢? 那好的同学,不反对的话,说明我方已经论证成功了。同时有一个问题就很简单,就是如果您让一个婴儿学会跑步之前,我们是应该先教会他如何走路不摔跤,还是应该鼓励他不管向前跑? 好的。
自由辩结束。
好的,各位同学,我要开麦了。
后来,我都……好的好的。嗯,现在可以看到我的屏幕了。好的。那个,嗯,那我们现在就开始计时了。嗯,好,嗯,现在有请正方同学先开始。好的好的。好了,你刚说啥?你刚才说啥? 我说,我说他们两个怎么吵起来了? 很正常。什么情况好了吗? 我,我有点无语了,快一点啊,家人们。不要浪费我的时间。这个会议马上要没时间了。 我现在预约一个新的会议,我怎么预约?我不会预约,真是为难我。 哦,对,我的投屏啊,对,OKOK,他来,OK,只要别让我来就行。 不服了。我靠,我想和我这个提示音关。三三四十四,三三四十二。 OK。那我们就可以离开了,对吧。结束直接,哎,这怎么从这个里面直接开了。哦,OK了。
嗯,好,知道可以睡。嗯,张辉。想听我的,嗯。哎。他们都手机,嗯,大家都到齐了吗? 到齐了我们就准备开始了。 到齐了。 好的呢,那我就开始计时了。能看得见。
我想问一下反方辩友,既然有了风险,那么我们为什么不去整治他们,而是运用这个风险去发展,然后导致问题出现,然后造成更大的损失? 第一层,目前的风险没有你想象的那么大,你方从来没有给我举证过。 第二层,我方已经告诉你了,用技术可以更快地挽回目前AI造成的损失。 其实,我方接下来要问你,嗯,既然AI是一个如此新兴的行业,那你接下来用立法这种强制的手段去强迫这个行业逆向发展,会不会进一步加剧法律的稳定性与监管灵活性之间的关系? 我说并没有要强制进行管控,而是进行风险治理啊。管控的是风险,而不是对AI的发展呀。 所以你方既然没有强制性,我没听明白你方为什么能够……我们单纯在2027年说到AI每年对中国增收了21%的GDP,约等于3.5个深圳当前的GDP,这部分减损你方打算怎么看待? 我们告诉你的是,我们不否认AI给我们带来的好处,但AI具有巨大的风险,在您方眼里,什么电子诈骗,什么这种信息的泄露都不算什么大的问题是吗? OK,听着。嗯,你刚才说第一件事情,你需要给我实证,告诉我现在AI带来的是巨大的风险,往下我可以给你实证,告诉你,现在你给我列举的这些种种技术风险,我方都可以通过技术的更新换代来解决。 比如这种数据的泄露,美国已经出台了相关的智能体,可以实时地去监管,这种防火墙还可以实时监管,如果有人对系统攻击或者那种数据泄露行为……往下你方没有任何对于伦理风险有治理的成功方案。 那太好了,那么请问谁来确保这一项你们的技术会被普遍采用呢?那么是靠企业的自觉性还是靠法律的强制力啊? 所以同学,我们现在要立法去进行技术革新,有了法律的话,强制以及倾斜这些资源给这些企业,让他们进行技术革新,这就是我们今天要强调把立法这部分优势资源用于技术革新的原因。 其次我再往下问你,那关于国家主权的部分,美国空军在2024年6月13号的新闻稿显示,五年之内就可以决定空中优势,也就是说谁先部署了AI控制的战机和无人机,谁就先拿到了空中的优势。那这部分你把资源让给了技术可以解决的风险,那五年的窗口期和两到三年的代差,这种冒险的利害,你方打算怎么承担? 正是因为有未知的风险,我们才更需要建立原则性的法律调控,比如人类监督和安全可控的原则。难道因为不知道小偷从哪儿来,我们就不设防了吗? 所以听起来对方的避害,你方也没有让我们承担,那我们再来从现实层面上聊。中国国家在2024年的18号文件当中,已经删除了AI法的草案,改为了AI+行动,是不是说明国家的态度也是说不是必须硬法才能够保障安全,我们采用更柔和的方式,用技术的方式也可以确定风险?那对方辩友您是否认同? 比如在环保领域,先污染后治理,这个教训是惨痛的。那么对于数据隐私、算法歧视这种事情,一旦发生,并且难以挽回的精神污染和社会影响,我们如何要重蹈覆辙呢? 我要一直断言,请你给我举证,给我一个实际的例子。其次你告诉我现实层面上怎么立法,国家的态度已经告诉你说先去革新技术,你告诉我怎么立法。 但是您方辩友要注意,今天我们的辩题是“未来10年人工智能立法应优先做什么事情”,它就是建立在立法这个事情上去讨论我们应该优先进行哪一项,而不是说我们不应该立法。对方辩友不要告诉我说,啊,国家的态度就是告诉你不应该那么强硬地去立法,不知道怎么去立法。可是我们现在就应该讨论立法,优先做什么事情,对吗? 还好优先做什么事情。所以你也发现了,如果你今天立法解决不了这些问题,可是我们今天通过技术领域的立法就是可以解决的话,那本质上就是应该优先技术促进立法路径。所以,你也发现了,其实你方今天很多监管风险的部分不需要通过立法来实现。 比如说,今天在美国,它就是一个相对宽松、相对鼓励试错的监管环境。在美国就坐实了在AI领域的绝对领先地位,你告诉我是不是这种情况?下面我们不需要通过立法也可以解决部分风险? OK,现在我们讨论的是人工智能未来10年立法应该优先解决风险管控,还是优先进行技术促进。而您方一直在问我方人工智能,我方的观点是人工智能立法应该优先风险管控。在我方看来,基础层面的风险不需要去立法解决,可是我们现在的证据告诉我们人工智能应该要去立法,对吗? 同学,因为我方给你比较的就是在立法的效率和立法的适用性来看,它都更适合,应该倾向于技术促进。而在风险治理方面,你方真的有那么强的法律效力,或者那么强的实用性吗?根本没有,它没办法去解决现在的伦理风险。 往下我们朋友可以给你列举,我们应该还有更好的解决方案来解决这些风险,它可能远比现在出台一部传统的法律更好,它可能是通过这种企业的自行管理制度,它可以实现这种试点和沙盒计划,来让企业自行出台相关的规章制度,来实现更好的管理。 对方辩友,今天我们讨论的是未来10年人工智能立法应该优先解决风险管控,而不是你告诉我你一个公司通过什么制度管控就能解决这些风险。我方认为目前AI存在巨大的风险,首先诈骗,诈骗是不是一个巨大的风险呢?我先请问一下对方辩友。 同学,我们今天在这里聊这个辩题,不是要强迫国家去立法,而是关于这个问题,要从它的原因、可行性以及方法论上,你方全程给我举证。比如说今天我们既然有风险,就应该强迫国家去立法,这是你方的态度了。 那我想问一下对方辩友,如果当一个人的职业生涯被一个有偏见的AI招聘系统毁掉,如果一个家庭财产被一个智能投资顾问骗光,那这些损失需要用技术不足来当借口吗? 你方所说的技术促进在过去已经存在,一直在继续促进,那么目前我们在你方的技术促进的过程当中发现了许许多多的问题,但这些问题是不是应该开始解决起来?那开始解决是不是应该优先去风险管控呢?而不是你方所说的技术促进根本不管这些风险,但你方告诉我,你方还要技术促进,我们不否认,我们也不反对你方进行风险技术促进,但是你方进行技术促进之前,是不是应该先把这些现有的风险给解决,否则怎么对人进行保障呢? 那好的同学,不反对的话,说明我方已经论证成功了。同时有一个问题就很简单,就是如果您让一个婴儿学会跑步之前,我们是应该先教会他如何走路不摔跤,还是应该鼓励他不管向前跑? 好的。
自由辩结束。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方(优先风险管控):提出风险治理必要性→质疑技术解决风险的普适性保障→强调立法优先性(辩题前提)→类比环保领域先污染后治理教训→强调未知风险需原则性立法→要求反方回应具体风险案例
反方(优先技术促进):质疑风险实证性→主张技术可解决现有风险→引用国家政策(AI+行动)支持技术优先→强调国际竞争窗口期紧迫性→提出企业自治等替代方案→质疑风险管控立法的可行性与实效性