例如,《在恋爱关系中,应该追求等价的付出·在恋爱关系中,不应该追求等价的付出》一题,辩之竹内共收录26场比赛。我们为您提供这26场比赛的论点、判断标准提取,以及总计数百条论据的提取,还有Deepseek的辩题分析。这可以帮您更好备赛。
欢迎您点击下方按钮,前往查看。
阅读量:0
下一个问题。这样大家能看到吗?直接开始。我们要自我介绍吗?那么就直接开始吧。
首先有请正方一辩进行开篇陈词发言及计时。
感谢主席,问候在场各位。开宗明义,人工智能是指能个人执行技、消毒互度鼓励技(此处可能表述有误,但按保真校验要求保留),技术隐私是指个人生活中不被他人公开的秘密,而技术创新是以创造新的生产技术为目的的创新活动。在隐私泄露严重的现状下,我方的判断标准是何者在保障人类权益的前提下,更能促进人工智能的发展。
首先,现在隐私泄露的风险居高不下,隐私保护问题亟待解决。保证好人类的权利,人工智能的发展才有意义。
其一,隐私失守的现状十分严峻。2024上半年,全网监测并分析验证有效的隐私泄露事件有16011起,较2023年下半年增长59.58%,共9539起。而隐私泄露的后果远超想象,其严重性不可轻视。例如,福州一家公司的老板因为好友对其泄露信息,通过AI幻影视频被诓骗430万。
其二,针对隐私泄露的法律法规尚未完善。人工智能不断发展的过程中,忽视隐私保护,导致法律的缺位,致使维权无门。北京航空航天大学法学院副教授赵金武声明,在书籍使用共享过程中,参与主体众多,各方尚未形成明确的责任边界,当隐私泄露后,常常因为这种复杂合作的责任划分导致追责链断裂,维权被迫止步。在人工智能发展中,我们更应倾向于隐私保护,才能推动法律完善。进入2021年,国内大数据杀熟现象受到广泛关注,推动了个人信息保护法的第24条。
其次,关注隐私保护才能赢得公众信任,这是人工智能发展的基本动力。在人工智能所有风险中,以合成人脸的深度伪造为例,71.3%的受访者特别担心隐私泄露被用于电信诈骗,年轻人在这方面的焦虑尤为突出。李明浩对AI诈骗的担忧程度是73.8%,比总体高出2.5个百分点,所以当今社会用户对隐私保护问题的重视可见一斑,企业只会越来越重视。但如果忽视了隐私保护,就会失去公众的信任。没有人愿意使用人工智能,那么任何技术创新都只能是无源之水,空洞无物,毫无价值。例如,数据分析公司未经用户允许,使用了该公司超5000万用户的数据,引发了更广泛隐私侵犯的担忧,随后该公司的股价就大跌了约8%,且持续恶化。而纽约证券交易所研究显示,73%的消费者愿溢价购买隐私优先的平台。所以保护隐私就是在维护公众对数字生态的信任,为人工智能发展获得一个长期发展的社会许可证。
综上所述,在利用人工智能发展中更应该倾向于隐私保护。
下一个问题。这样大家能看到吗?直接开始。我们要自我介绍吗?那么就直接开始吧。
首先有请正方一辩进行开篇陈词发言及计时。
感谢主席,问候在场各位。开宗明义,人工智能是指能个人执行技、消毒互度鼓励技(此处可能表述有误,但按保真校验要求保留),技术隐私是指个人生活中不被他人公开的秘密,而技术创新是以创造新的生产技术为目的的创新活动。在隐私泄露严重的现状下,我方的判断标准是何者在保障人类权益的前提下,更能促进人工智能的发展。
首先,现在隐私泄露的风险居高不下,隐私保护问题亟待解决。保证好人类的权利,人工智能的发展才有意义。
其一,隐私失守的现状十分严峻。2024上半年,全网监测并分析验证有效的隐私泄露事件有16011起,较2023年下半年增长59.58%,共9539起。而隐私泄露的后果远超想象,其严重性不可轻视。例如,福州一家公司的老板因为好友对其泄露信息,通过AI幻影视频被诓骗430万。
其二,针对隐私泄露的法律法规尚未完善。人工智能不断发展的过程中,忽视隐私保护,导致法律的缺位,致使维权无门。北京航空航天大学法学院副教授赵金武声明,在书籍使用共享过程中,参与主体众多,各方尚未形成明确的责任边界,当隐私泄露后,常常因为这种复杂合作的责任划分导致追责链断裂,维权被迫止步。在人工智能发展中,我们更应倾向于隐私保护,才能推动法律完善。进入2021年,国内大数据杀熟现象受到广泛关注,推动了个人信息保护法的第24条。
其次,关注隐私保护才能赢得公众信任,这是人工智能发展的基本动力。在人工智能所有风险中,以合成人脸的深度伪造为例,71.3%的受访者特别担心隐私泄露被用于电信诈骗,年轻人在这方面的焦虑尤为突出。李明浩对AI诈骗的担忧程度是73.8%,比总体高出2.5个百分点,所以当今社会用户对隐私保护问题的重视可见一斑,企业只会越来越重视。但如果忽视了隐私保护,就会失去公众的信任。没有人愿意使用人工智能,那么任何技术创新都只能是无源之水,空洞无物,毫无价值。例如,数据分析公司未经用户允许,使用了该公司超5000万用户的数据,引发了更广泛隐私侵犯的担忧,随后该公司的股价就大跌了约8%,且持续恶化。而纽约证券交易所研究显示,73%的消费者愿溢价购买隐私优先的平台。所以保护隐私就是在维护公众对数字生态的信任,为人工智能发展获得一个长期发展的社会许可证。
综上所述,在利用人工智能发展中更应该倾向于隐私保护。
来,有请反方四辩质询正方一辩,时间为2分钟,发言即计时。
同学们好,现在人工智能是各国科技发展的重点,所以我们发现现在人工智能的发展非常重要。
我想问,美国对华AI芯片的管制已经延伸到云服务,我们应该怎么办?我重述一遍,美国对华的AI芯片管制现在已经延伸到了云服务,我们应该怎么办?这相当于其对于我们AI芯片管制的范围扩大了,简单来说就是这样。我的问题是,在这种情况下我们应该怎么办?
其实现在有数据显示,中国的科技发展已经到了非常前沿的地步,所以我们更应该把重心放在隐私保护上。不对,你就告诉我,在其对我们芯片进行卡脖技术的情况下,我们应该怎么办。现在事实是中国的科技发展比以前好很多,技术发展迅速弥补了科技方面的缺失,所以我们发现人工智能的发展不仅重要,而且具有紧迫性。
我方想问,今天讨论的范围是什么?我方认为,今天讨论的范围是在隐私保护和技术创新发生一定冲突的情况下进行讨论。
我想问,现在人工智能目前的发展阶段是什么样的?刚刚也提到,现在技术发展没有紧迫性,也没有到被卡脖子的阶段,那它目前的发展阶段到底是什么样子?它现在可以做到什么,依赖于什么技术基础?现在人工智能依赖大数据进行深度学习,所以人工智能的发展是以大数据为基础的。
我再问,现在自动驾驶在极端天气下是如何进行决策的?是依靠大数据吗?对,现在自动驾驶也是依赖大量真实车主的实时记录进行决策的,每一个数据的增量级都能够让其处理能力增加30%,所以我们现在可以知道,技术发展与隐私保护的关联性在不断增强,技术创新与隐私数据息息相关。
你方刚刚提到隐私泄露的现状,现在隐私泄露的现状有多严重?我方有数据显示,2020年上半年全网监测并分析验证有效的隐私接入事件有16011起。非常好,对方已经说明了现在隐私泄露这个事实情况,那其后果有多严重呢?隐私泄露的事情不仅多,而且后果严重。我方想问,您方有没有什么普适性的例子,说明现在大多数人隐私泄露都会有不好的后果。
我方承认,现在隐私泄露的现状非常普遍,可是它带来的后果并不是特别严重。相关研究表明,有1.43亿的用户社保信息泄露,但是造成不可逆的财务损失比例不足0.02%,所以你方只能论证隐私泄露是普遍的,可是普遍却不带来普遍严重的后果。
来,有请反方四辩质询正方一辩,时间为2分钟,发言即计时。
同学们好,现在人工智能是各国科技发展的重点,所以我们发现现在人工智能的发展非常重要。
我想问,美国对华AI芯片的管制已经延伸到云服务,我们应该怎么办?我重述一遍,美国对华的AI芯片管制现在已经延伸到了云服务,我们应该怎么办?这相当于其对于我们AI芯片管制的范围扩大了,简单来说就是这样。我的问题是,在这种情况下我们应该怎么办?
其实现在有数据显示,中国的科技发展已经到了非常前沿的地步,所以我们更应该把重心放在隐私保护上。不对,你就告诉我,在其对我们芯片进行卡脖技术的情况下,我们应该怎么办。现在事实是中国的科技发展比以前好很多,技术发展迅速弥补了科技方面的缺失,所以我们发现人工智能的发展不仅重要,而且具有紧迫性。
我方想问,今天讨论的范围是什么?我方认为,今天讨论的范围是在隐私保护和技术创新发生一定冲突的情况下进行讨论。
我想问,现在人工智能目前的发展阶段是什么样的?刚刚也提到,现在技术发展没有紧迫性,也没有到被卡脖子的阶段,那它目前的发展阶段到底是什么样子?它现在可以做到什么,依赖于什么技术基础?现在人工智能依赖大数据进行深度学习,所以人工智能的发展是以大数据为基础的。
我再问,现在自动驾驶在极端天气下是如何进行决策的?是依靠大数据吗?对,现在自动驾驶也是依赖大量真实车主的实时记录进行决策的,每一个数据的增量级都能够让其处理能力增加30%,所以我们现在可以知道,技术发展与隐私保护的关联性在不断增强,技术创新与隐私数据息息相关。
你方刚刚提到隐私泄露的现状,现在隐私泄露的现状有多严重?我方有数据显示,2020年上半年全网监测并分析验证有效的隐私接入事件有16011起。非常好,对方已经说明了现在隐私泄露这个事实情况,那其后果有多严重呢?隐私泄露的事情不仅多,而且后果严重。我方想问,您方有没有什么普适性的例子,说明现在大多数人隐私泄露都会有不好的后果。
我方承认,现在隐私泄露的现状非常普遍,可是它带来的后果并不是特别严重。相关研究表明,有1.43亿的用户社保信息泄露,但是造成不可逆的财务损失比例不足0.02%,所以你方只能论证隐私泄露是普遍的,可是普遍却不带来普遍严重的后果。
记录反方一辩开篇陈词,发言时间为3分钟。
感谢主席。开宗明义,定义先行。人工智能是一门研究如何使计算机系统具有类似于人类的智能行为,如同学习、推理、规划、感知、理解、语言的科学技术。隐私保护是指通过管理措施和法律规范,防止个人敏感信息在未授权的情况下被收集、使用、泄露等。技术创新则是指实现原有技术的突破或发展新技术,本次讨论更倾向于探讨在二者发生冲突时哪个优先。基于此,我方的判标为偏向于哪方更加符合我国的战略导向。
首先,国家战略明确指出需要推动人工智能的发展。《新一代人工智能发展规划》文件已从国家层面为人工智能技术设定了明确的时间表和路线图,凸显了技术创新在推动我国人工智能产业实现战略目标中的核心地位,其他相关文件也印证了这一点。同时,人工智能作为新一轮科技革命和产业革命的核心驱动力,我国要在全球科技竞争中占据有利地位,必须在人工智能技术创新方面发力,否则将面临在第四次工业革命中落后于国际的风险。面对国内转型的刚性需求、国家安全的诉求、国际竞争的残酷现实以及人类共同的严峻挑战,科学技术的创新和突破已超越一般发展需求,上升为国家生存与崛起的战略刚需,其紧迫性具有优先分量。
当前阶段,人工智能应用深化与隐私泄露存在统计相关性,但隐私泄露的后果并不严重。有数据表明,只有15.7%的隐私泄露事件直接导致了财产损失,而且多数机构已经建立了及时的冻结以及全额赔付机制。所以在这一宏大背景下,必然需要向能够解决战略性、根本性问题的技术创新倾斜,才更加符合国家的战略导向。
其二,在当下局势非常紧迫的情况下,已没有更多时间让我们停滞不前。对方主张优先发展隐私保护,却忽略了当今时代下人工智能发展与隐私数据的紧密相关性。例如,基于PP74的训练仅增加10%的数据量,就能使模型的推理准确率提升3.2%。这种对数据的绝对依赖使机器学习成为AI技术的底层支撑,但其数据采集的范围覆盖了用户的行为轨迹、生物特征等敏感信息。此外,当今人工智能发展中,各个行业具有较高的行业壁垒。例如特斯拉的闭环系统显示,如果使用第三方硬件,就会产生延迟超标,导致决策失误率大幅上升。
所以这种紧密的关联会让我们在这种情况下,如果选择所谓的隐私保护,会导致技术停滞不前,难以发展。停滞不前则可能会导致我们不能按时完成国家的战略目标,甚至可能会落后于国际环境。
反观我方主张倾向于技术创新,不会陷入技术创新停滞不前的情况,更有利于我国战略目标的实现。退一步讲,即便我们没有完美地实现国家的战略目标,但坚持不懈地发展也总会比停滞不前的发展进程更加深入,更能符合我国的战略导向,也更能促进我国人工智能的发展。
基于此,我方坚定地认为,在两者冲突的情况下,更应该倾向于技术创新,才更加符合我国的战略导向。谢谢。
接下来我们。
记录反方一辩开篇陈词,发言时间为3分钟。
感谢主席。开宗明义,定义先行。人工智能是一门研究如何使计算机系统具有类似于人类的智能行为,如同学习、推理、规划、感知、理解、语言的科学技术。隐私保护是指通过管理措施和法律规范,防止个人敏感信息在未授权的情况下被收集、使用、泄露等。技术创新则是指实现原有技术的突破或发展新技术,本次讨论更倾向于探讨在二者发生冲突时哪个优先。基于此,我方的判标为偏向于哪方更加符合我国的战略导向。
首先,国家战略明确指出需要推动人工智能的发展。《新一代人工智能发展规划》文件已从国家层面为人工智能技术设定了明确的时间表和路线图,凸显了技术创新在推动我国人工智能产业实现战略目标中的核心地位,其他相关文件也印证了这一点。同时,人工智能作为新一轮科技革命和产业革命的核心驱动力,我国要在全球科技竞争中占据有利地位,必须在人工智能技术创新方面发力,否则将面临在第四次工业革命中落后于国际的风险。面对国内转型的刚性需求、国家安全的诉求、国际竞争的残酷现实以及人类共同的严峻挑战,科学技术的创新和突破已超越一般发展需求,上升为国家生存与崛起的战略刚需,其紧迫性具有优先分量。
当前阶段,人工智能应用深化与隐私泄露存在统计相关性,但隐私泄露的后果并不严重。有数据表明,只有15.7%的隐私泄露事件直接导致了财产损失,而且多数机构已经建立了及时的冻结以及全额赔付机制。所以在这一宏大背景下,必然需要向能够解决战略性、根本性问题的技术创新倾斜,才更加符合国家的战略导向。
其二,在当下局势非常紧迫的情况下,已没有更多时间让我们停滞不前。对方主张优先发展隐私保护,却忽略了当今时代下人工智能发展与隐私数据的紧密相关性。例如,基于PP74的训练仅增加10%的数据量,就能使模型的推理准确率提升3.2%。这种对数据的绝对依赖使机器学习成为AI技术的底层支撑,但其数据采集的范围覆盖了用户的行为轨迹、生物特征等敏感信息。此外,当今人工智能发展中,各个行业具有较高的行业壁垒。例如特斯拉的闭环系统显示,如果使用第三方硬件,就会产生延迟超标,导致决策失误率大幅上升。
所以这种紧密的关联会让我们在这种情况下,如果选择所谓的隐私保护,会导致技术停滞不前,难以发展。停滞不前则可能会导致我们不能按时完成国家的战略目标,甚至可能会落后于国际环境。
反观我方主张倾向于技术创新,不会陷入技术创新停滞不前的情况,更有利于我国战略目标的实现。退一步讲,即便我们没有完美地实现国家的战略目标,但坚持不懈地发展也总会比停滞不前的发展进程更加深入,更能符合我国的战略导向,也更能促进我国人工智能的发展。
基于此,我方坚定地认为,在两者冲突的情况下,更应该倾向于技术创新,才更加符合我国的战略导向。谢谢。
接下来我们。
正方四辩:同学你好,我有一个冰箱,它坏了,维修工人帮我修好了,这里面有创新在吗? 反方一辩:如果维修工人的科学技术是他自己所创造的,那当然是有创新。 正方四辩:太好了,所以不是创造的,只是修复并不等于创新。技术进步不止可以通过技术创新,同样可以依赖对现有技术的修复。
正方四辩:同学,什么是隐私? 反方一辩:我觉得隐私就是自己不想被泄露,或者不想被其他人知晓。 正方四辩:确认到这里就可以,我不想泄露的就是我的隐私。那你觉得人工智能被发明出来是用来干嘛的? 反方一辩:是用来推动我们科技的发展。 正方四辩:你觉得是谁在用? 反方一辩:当然是国家、社会以及大家都可能会用。 正方四辩:太好了,用户对象是人类,人类的权益一定要考虑。所以如果人工智能没有人用,你觉得它还会继续发展吗?但是现在人工智能就算有人用,我方可以看到失去公众信任对这项技术的发展是十分不利的,会导致没有人用。所以这里有两件事情,第一,用户对象是人,人的权益我们必须要考虑;第二,公众信任是发展的基本要素,隐私泄露会使公众信任下降,给我们带来弊端,这个我后续会给你论证。
正方四辩:同学,我保护隐私就代表我不要发展技术吗? 反方一辩:你们这边的保护隐私会让我们在发展知识技术上面出现一个暂时性的停滞,但并没有说一定完全不要发展。 正方四辩:所以根本不冲突,我保护隐私和我不把重点放在创新上面,和技术不发展完全是两回事。同时我觉得自己太重了,所以今天吃轻食,你觉得我的目的是什么? 反方一辩:每个人的选择都不一样。 正方四辩:其实我的目的是为了减肥。所以在这个问题上我们可以看到,我的目的不仅仅是品尝轻食。所以当你为了隐私保护而进行技术创新时,你本质上还是倾向于隐私保护。
正方四辩:同学,不发展会有什么后果?社会会动乱吗?如果今天你是为了隐私保护而进行技术创新,那其实还是要先进行技术创新,才能达到你方想要的隐私保护。你认为先注重的还是技术创新吗? 反方一辩:不好意思,可以请你方再重复一下问题吗? 正方四辩:你方认为不发展会有什么后果?社会会更乱吗? 反方一辩:当然会,我刚才已经说过,如果不发展,首先我们的科技技术会落后,而且会落后于国际,这个后果在我们之前的旧中国就已经展现出来了。 正方四辩:可是你有数据性认证吗? 反方一辩:这是我们国家的局势问题,我也可以用其他的国家文件来说明,比如刚刚所说的人工智能的文件,以及其他很多文件都说明了,我们现在的人工智能就是要发展,而且国际局势是非常严峻的。
正方四辩:好的同学,两件事情。第一件,研究院有论文证明我国在人工智能发展上现在处于领先水平;第二件,我方今天看到数据隐私泄露,会导致公众信任下降,股份下跌,我方有多次数据可以给你证明,如果你想听,我后续可以给你念。我的质询完成,非常感谢。
正方四辩:同学你好,我有一个冰箱,它坏了,维修工人帮我修好了,这里面有创新在吗? 反方一辩:如果维修工人的科学技术是他自己所创造的,那当然是有创新。 正方四辩:太好了,所以不是创造的,只是修复并不等于创新。技术进步不止可以通过技术创新,同样可以依赖对现有技术的修复。
正方四辩:同学,什么是隐私? 反方一辩:我觉得隐私就是自己不想被泄露,或者不想被其他人知晓。 正方四辩:确认到这里就可以,我不想泄露的就是我的隐私。那你觉得人工智能被发明出来是用来干嘛的? 反方一辩:是用来推动我们科技的发展。 正方四辩:你觉得是谁在用? 反方一辩:当然是国家、社会以及大家都可能会用。 正方四辩:太好了,用户对象是人类,人类的权益一定要考虑。所以如果人工智能没有人用,你觉得它还会继续发展吗?但是现在人工智能就算有人用,我方可以看到失去公众信任对这项技术的发展是十分不利的,会导致没有人用。所以这里有两件事情,第一,用户对象是人,人的权益我们必须要考虑;第二,公众信任是发展的基本要素,隐私泄露会使公众信任下降,给我们带来弊端,这个我后续会给你论证。
正方四辩:同学,我保护隐私就代表我不要发展技术吗? 反方一辩:你们这边的保护隐私会让我们在发展知识技术上面出现一个暂时性的停滞,但并没有说一定完全不要发展。 正方四辩:所以根本不冲突,我保护隐私和我不把重点放在创新上面,和技术不发展完全是两回事。同时我觉得自己太重了,所以今天吃轻食,你觉得我的目的是什么? 反方一辩:每个人的选择都不一样。 正方四辩:其实我的目的是为了减肥。所以在这个问题上我们可以看到,我的目的不仅仅是品尝轻食。所以当你为了隐私保护而进行技术创新时,你本质上还是倾向于隐私保护。
正方四辩:同学,不发展会有什么后果?社会会动乱吗?如果今天你是为了隐私保护而进行技术创新,那其实还是要先进行技术创新,才能达到你方想要的隐私保护。你认为先注重的还是技术创新吗? 反方一辩:不好意思,可以请你方再重复一下问题吗? 正方四辩:你方认为不发展会有什么后果?社会会更乱吗? 反方一辩:当然会,我刚才已经说过,如果不发展,首先我们的科技技术会落后,而且会落后于国际,这个后果在我们之前的旧中国就已经展现出来了。 正方四辩:可是你有数据性认证吗? 反方一辩:这是我们国家的局势问题,我也可以用其他的国家文件来说明,比如刚刚所说的人工智能的文件,以及其他很多文件都说明了,我们现在的人工智能就是要发展,而且国际局势是非常严峻的。
正方四辩:好的同学,两件事情。第一件,研究院有论文证明我国在人工智能发展上现在处于领先水平;第二件,我方今天看到数据隐私泄露,会导致公众信任下降,股份下跌,我方有多次数据可以给你证明,如果你想听,我后续可以给你念。我的质询完成,非常感谢。
今天我们在环节中达成了以下共识: 首先,隐私是指不想让别人知道的信息;第二,技术的修复不等于创新,比如修冰箱,冰箱修好了,但在这个过程中其实没有技术创新;第三,在人工智能的发展中,人类的利益是必须要考虑的;我们的标准是,在保障人类权益的前提下,更能够促进人工智能的发展;第四,失去公信力会很可怕,会阻碍人工智能的发展;第五,今天的讨论是在两者冲突之下,选择更倾向于何者。
在今天人工智能发展的大背景下,隐私泄露在算法量级扩大之后,严重侵害了人类权益,是极难解决的问题。隐私权作为人类在网络上的基本人权,只有更倾向于隐私保护,解决人工智能隐私泄露的急迫痛点,才能更好地维护人类权益,从而促进人工智能的发展。
为什么说隐私保护问题极为严重呢?第一层,隐私泄露的危害是人类难以承受的。有人认为大家都依赖人工智能,所以人工智能不会泄露隐私,这种观点更加可怕。人工智能广泛应用于我们目前的生活当中,比如人脸识别、语音识别、个性推荐,这同时也增加了大家隐私泄露的风险与危害。超星学习通涉嫌隐私信息泄露,公开售卖信息接近1亿7273万条,如此庞大且普遍的情况,对方却视而不见,只想着发展他们的技术。2025年3月,央视曝光了AI换政治名人视频等,揭示了完整的黑色产业链,这难道还不急迫吗?这在经济、政治、社会层面都带来了恶劣影响。
第二层,关于人工智能隐私保护的法律法规还有待完善。安徽大学研究表明,目前还没有出台在人工智能算法中保护隐私的相关法律。所以,我们必须明确隐私关系的权责关系,通过事后维护来保障隐私权。
今天我们在环节中达成了以下共识: 首先,隐私是指不想让别人知道的信息;第二,技术的修复不等于创新,比如修冰箱,冰箱修好了,但在这个过程中其实没有技术创新;第三,在人工智能的发展中,人类的利益是必须要考虑的;我们的标准是,在保障人类权益的前提下,更能够促进人工智能的发展;第四,失去公信力会很可怕,会阻碍人工智能的发展;第五,今天的讨论是在两者冲突之下,选择更倾向于何者。
在今天人工智能发展的大背景下,隐私泄露在算法量级扩大之后,严重侵害了人类权益,是极难解决的问题。隐私权作为人类在网络上的基本人权,只有更倾向于隐私保护,解决人工智能隐私泄露的急迫痛点,才能更好地维护人类权益,从而促进人工智能的发展。
为什么说隐私保护问题极为严重呢?第一层,隐私泄露的危害是人类难以承受的。有人认为大家都依赖人工智能,所以人工智能不会泄露隐私,这种观点更加可怕。人工智能广泛应用于我们目前的生活当中,比如人脸识别、语音识别、个性推荐,这同时也增加了大家隐私泄露的风险与危害。超星学习通涉嫌隐私信息泄露,公开售卖信息接近1亿7273万条,如此庞大且普遍的情况,对方却视而不见,只想着发展他们的技术。2025年3月,央视曝光了AI换政治名人视频等,揭示了完整的黑色产业链,这难道还不急迫吗?这在经济、政治、社会层面都带来了恶劣影响。
第二层,关于人工智能隐私保护的法律法规还有待完善。安徽大学研究表明,目前还没有出台在人工智能算法中保护隐私的相关法律。所以,我们必须明确隐私关系的权责关系,通过事后维护来保障隐私权。
首先来解决几个问题。
第一个紧迫的问题,我方已经从国际和国内两方面的形势来论证,当今国际竞争的实质是以经济和科技实力为基础的综合国力的较量,科技创新已经越来越成为综合国力竞争的决定性因素。所以国家发展必须加快科技创新的步伐,提升自主创新的能力,以应对新一轮的科技革命和产业变革的挑战,这是我方所说的社会大背景。
第二个问题就是您方后果的问题,我方在41页已经论证到,您方所举的福州符合法律的例子,它只是个例,虽有一定的后果,但您方只能论证到普遍情况,不能论证到所有的事情都会产生这样严重的后果。而我方可以提供数据显示,只有15.7%的隐私泄露事件直接导致了财产损失,而且多数的金融机构已经建立了及时冻结与全额赔付的机制,所以隐私泄露这个事件的后果并没有大家想象的那么可怕。法院也认定隐私焦虑等精神损害需达到显著社会影响时方可获赔,而这类判决的立案率仅达到了3.2%,也就是说绝大部分的隐私泄露事件并没有那么严重的后果。
接着往下看,您方说发展和隐私保护并不冲突,确实,发展和隐私保护并不冲突,但是我们今天讨论的情境是在二者冲突的情况下我们优先选择哪个。您方的立场是优先选择隐私保护,那么在这个时候,您方一定会在解决隐私保护这个事情之后才去发展技术,这会造成我们所说的暂时的停滞,这是我方的比较。
第四个问题,您方提到信任危机的问题,我方有数据证明,其实这个信任问题也不是那么严重。Z时代的信息敏感度比X时代的低41%,更倾向于认为适度的信息泄露是数字生存的必要代价。Facebook事件之后,用户自主关闭社交账户的比例仅上升了2.3%,但双重认证的使用率已提升至50%,这反映了大家更倾向于技术性防范,而非彻底退出网络生产。
以上。
首先来解决几个问题。
第一个紧迫的问题,我方已经从国际和国内两方面的形势来论证,当今国际竞争的实质是以经济和科技实力为基础的综合国力的较量,科技创新已经越来越成为综合国力竞争的决定性因素。所以国家发展必须加快科技创新的步伐,提升自主创新的能力,以应对新一轮的科技革命和产业变革的挑战,这是我方所说的社会大背景。
第二个问题就是您方后果的问题,我方在41页已经论证到,您方所举的福州符合法律的例子,它只是个例,虽有一定的后果,但您方只能论证到普遍情况,不能论证到所有的事情都会产生这样严重的后果。而我方可以提供数据显示,只有15.7%的隐私泄露事件直接导致了财产损失,而且多数的金融机构已经建立了及时冻结与全额赔付的机制,所以隐私泄露这个事件的后果并没有大家想象的那么可怕。法院也认定隐私焦虑等精神损害需达到显著社会影响时方可获赔,而这类判决的立案率仅达到了3.2%,也就是说绝大部分的隐私泄露事件并没有那么严重的后果。
接着往下看,您方说发展和隐私保护并不冲突,确实,发展和隐私保护并不冲突,但是我们今天讨论的情境是在二者冲突的情况下我们优先选择哪个。您方的立场是优先选择隐私保护,那么在这个时候,您方一定会在解决隐私保护这个事情之后才去发展技术,这会造成我们所说的暂时的停滞,这是我方的比较。
第四个问题,您方提到信任危机的问题,我方有数据证明,其实这个信任问题也不是那么严重。Z时代的信息敏感度比X时代的低41%,更倾向于认为适度的信息泄露是数字生存的必要代价。Facebook事件之后,用户自主关闭社交账户的比例仅上升了2.3%,但双重认证的使用率已提升至50%,这反映了大家更倾向于技术性防范,而非彻底退出网络生产。
以上。
接下来由正方二辩选手对辩反方二辩选手,时间各为 2 分钟。
首先,你今天提及的后果不严重,称财产损失比较少。但倘若我被限制人身自由,这对我造成的伤害极大,你方如何论证此情况呢?你方今天看待问题过于狭隘,实际上无法论证这是普遍现象,却仍在举例。关于后果严重这一点,我已解释清楚。
我问你,在发生冲突时,是否应优先选择隐私保护?若隐私保护暂时无法解决,是否应暂时停止发展该技术?我认为你方对于人工智能发展意义的理解也极为狭隘。拥有更好的保护隐私的方式,为何不能推动人工智能的发展?你方称有更好的保护隐私的技术属于人工智能发展,可有实证?设立更加完善的针对人工智能的法律,算不算人工智能的发展?
其次,你列举了很多国家战略,国家战略发展的目的是什么?当然是提升我国的综合实力。你提到法律具有滞后性,的确是出现问题后才会推动法律完善。若你方一直停滞在隐私保护层面,隐私保护问题都不出现,没有相关案件作为司法实践的例子,法律如何完善?如今已经出现了隐私泄露问题,但法律为何尚未跟进?这就需要我们强调更加倾向于隐私保护,让法律重新正视这个问题。
其次,你认为国家发展是为了人民更幸福,这没错,但提升综合国力是人民更幸福的前提和必经步骤。若国家综合实力无法提升,人民的幸福将无从谈起。
接下来讨论攻防问题。我已论证,大家更倾向于采用技术性防御,而非彻底退出数字生态。你方如何论证大家会对人工智能失去信任并停止使用?我们提到,很多企业出现信息泄露后股价下跌,这是明显的后果。股价下跌意味着资金减少,如何发展技术?
对方一直强调要发展技术,但该技术凌驾于个人隐私保护之上,根本不重视个人隐私,只追求服务型技术的发展,这是你方能论证的吗?我方同样重视隐私保护,且有相关法律法规,还有如联邦学习、差分法等技术可用于隐私保护。在此情况下,发展技术并无问题。
你方仅提及很多企业股价下跌,但我方已论证,从公众层面来看,公众更倾向于技术防御,而非彻底退出数字生态,所以你方无法论证大家都会停止使用人工智能,你方观点不成立。股价下跌意味着公众对其产生怀疑,这难道不可怕吗?很多人使用人工智能可能是因为别无选择,但内心已产生怀疑。若不顾用户体验,只追求技术发展,如何解决问题?我方可以实现技术创新和隐私保护同时发展,技术创新甚至能更好地保护隐私。若只停滞在隐私保护层面,技术创新如何发展?隐私保护问题又如何解决?
今天对方提出要在发展技术中保护隐私,我们也可以在隐私保护中发展技术,这是一个难以定论的问题。但我们来看问题的严重性,学习通作为常用软件,泄露了一亿多条信息,这难道不可怕吗?某一天个人身份证信息可能被售卖,这难道不可怕吗?很多人会因为短期内未受到危害而继续使用,但这种情况值得警惕。
接下来由正方二辩选手对辩反方二辩选手,时间各为 2 分钟。
首先,你今天提及的后果不严重,称财产损失比较少。但倘若我被限制人身自由,这对我造成的伤害极大,你方如何论证此情况呢?你方今天看待问题过于狭隘,实际上无法论证这是普遍现象,却仍在举例。关于后果严重这一点,我已解释清楚。
我问你,在发生冲突时,是否应优先选择隐私保护?若隐私保护暂时无法解决,是否应暂时停止发展该技术?我认为你方对于人工智能发展意义的理解也极为狭隘。拥有更好的保护隐私的方式,为何不能推动人工智能的发展?你方称有更好的保护隐私的技术属于人工智能发展,可有实证?设立更加完善的针对人工智能的法律,算不算人工智能的发展?
其次,你列举了很多国家战略,国家战略发展的目的是什么?当然是提升我国的综合实力。你提到法律具有滞后性,的确是出现问题后才会推动法律完善。若你方一直停滞在隐私保护层面,隐私保护问题都不出现,没有相关案件作为司法实践的例子,法律如何完善?如今已经出现了隐私泄露问题,但法律为何尚未跟进?这就需要我们强调更加倾向于隐私保护,让法律重新正视这个问题。
其次,你认为国家发展是为了人民更幸福,这没错,但提升综合国力是人民更幸福的前提和必经步骤。若国家综合实力无法提升,人民的幸福将无从谈起。
接下来讨论攻防问题。我已论证,大家更倾向于采用技术性防御,而非彻底退出数字生态。你方如何论证大家会对人工智能失去信任并停止使用?我们提到,很多企业出现信息泄露后股价下跌,这是明显的后果。股价下跌意味着资金减少,如何发展技术?
对方一直强调要发展技术,但该技术凌驾于个人隐私保护之上,根本不重视个人隐私,只追求服务型技术的发展,这是你方能论证的吗?我方同样重视隐私保护,且有相关法律法规,还有如联邦学习、差分法等技术可用于隐私保护。在此情况下,发展技术并无问题。
你方仅提及很多企业股价下跌,但我方已论证,从公众层面来看,公众更倾向于技术防御,而非彻底退出数字生态,所以你方无法论证大家都会停止使用人工智能,你方观点不成立。股价下跌意味着公众对其产生怀疑,这难道不可怕吗?很多人使用人工智能可能是因为别无选择,但内心已产生怀疑。若不顾用户体验,只追求技术发展,如何解决问题?我方可以实现技术创新和隐私保护同时发展,技术创新甚至能更好地保护隐私。若只停滞在隐私保护层面,技术创新如何发展?隐私保护问题又如何解决?
今天对方提出要在发展技术中保护隐私,我们也可以在隐私保护中发展技术,这是一个难以定论的问题。但我们来看问题的严重性,学习通作为常用软件,泄露了一亿多条信息,这难道不可怕吗?某一天个人身份证信息可能被售卖,这难道不可怕吗?很多人会因为短期内未受到危害而继续使用,但这种情况值得警惕。
下一个环节由正方三辩同学盘问反方一、二、四辩。计时开始。
我先问一下一辩同学,发展综合国力是不是为了让人们生活得更好?当然。
再问二辩,现在你方说只看战略,那百度副总裁的女儿可以随意开合这件事情,是不是不需要去管?如果要管,既然我们现在要把所有的时间注重在科技创新上面,那这件事情怎么管?我们今天所说的科技创新,也不是说完全不要隐私保护。
也就是说,今天在战略导向上,按照你们的说法,战略导向是战略刚需,这样去科技创新,那隐私问题谁来管,怎么管?可以通过,比如说我们刚刚所说的一些联邦学习法。
我再问一遍,同学,你方知不知道我们现在关于隐私泄露问题的法律具体有哪些措施,有哪些国际安全法以及相关法规。在我国的法律体系中,目前关于隐私保护的责任界定不明确。在这种情况下,我们要如何做到既保护隐私,又能更好地发展科技呢?技术发展了,问题才会浮现。
既然现在我国的科技创新已经处于领先地位,甚至名列前茅,并且没有被卡脖子的情况,却仍有隐私泄露事件发生,而且在法律不完善的情况下,为什么不重视隐私保护?首先,我方并不认为现在没有被卡脖子的情况,之前有很多案例表明,我方在各种科技领域存在被卡脖子的问题。我方已经论证过,很多卡脖子问题已经被解决,这个事情不需要再纠结。
我再问一下一辩同学,你们说没有时间去停滞,那么带着如此多的漏洞去发展有好处吗?我们已经说过,发展其实是为了更好地填补漏洞。也就是说,今天在战略导向下,你们要求只需要闷着头去创新技术,隐私保护这件事情可以先放一放,不重要。我们没有说不重要,我们想说它也很重要,科技创新是为了保护隐私。
很好,科技创新是为了保护隐私,那么其实今天科技创新的重点还是在保护隐私,所以今天我们要更重视保护隐私。
我再问一下二辩同学,我们说的是信任的下降。如果今天你们前面也提到过,自动驾驶需要依赖真实的数据,而我不信任你,不给你真实的数据,你自动驾驶怎么办?
如果我今天不提供真实的数据,自动驾驶就会受到影响。谢谢。
下一个环节由正方三辩同学盘问反方一、二、四辩。计时开始。
我先问一下一辩同学,发展综合国力是不是为了让人们生活得更好?当然。
再问二辩,现在你方说只看战略,那百度副总裁的女儿可以随意开合这件事情,是不是不需要去管?如果要管,既然我们现在要把所有的时间注重在科技创新上面,那这件事情怎么管?我们今天所说的科技创新,也不是说完全不要隐私保护。
也就是说,今天在战略导向上,按照你们的说法,战略导向是战略刚需,这样去科技创新,那隐私问题谁来管,怎么管?可以通过,比如说我们刚刚所说的一些联邦学习法。
我再问一遍,同学,你方知不知道我们现在关于隐私泄露问题的法律具体有哪些措施,有哪些国际安全法以及相关法规。在我国的法律体系中,目前关于隐私保护的责任界定不明确。在这种情况下,我们要如何做到既保护隐私,又能更好地发展科技呢?技术发展了,问题才会浮现。
既然现在我国的科技创新已经处于领先地位,甚至名列前茅,并且没有被卡脖子的情况,却仍有隐私泄露事件发生,而且在法律不完善的情况下,为什么不重视隐私保护?首先,我方并不认为现在没有被卡脖子的情况,之前有很多案例表明,我方在各种科技领域存在被卡脖子的问题。我方已经论证过,很多卡脖子问题已经被解决,这个事情不需要再纠结。
我再问一下一辩同学,你们说没有时间去停滞,那么带着如此多的漏洞去发展有好处吗?我们已经说过,发展其实是为了更好地填补漏洞。也就是说,今天在战略导向下,你们要求只需要闷着头去创新技术,隐私保护这件事情可以先放一放,不重要。我们没有说不重要,我们想说它也很重要,科技创新是为了保护隐私。
很好,科技创新是为了保护隐私,那么其实今天科技创新的重点还是在保护隐私,所以今天我们要更重视保护隐私。
我再问一下二辩同学,我们说的是信任的下降。如果今天你们前面也提到过,自动驾驶需要依赖真实的数据,而我不信任你,不给你真实的数据,你自动驾驶怎么办?
如果我今天不提供真实的数据,自动驾驶就会受到影响。谢谢。
接下来有请反方三辩同学盘问正方一二四辩,时间为两分半,计时自开始。
反方三辩:你作为一个学生,本职工作是学习,但你为什么还要参加辩论呢?因为我喜欢。所以,辩论和学习并不冲突。在这道辩题中,我方没有义务将100%的精力都投入到科技创新中,我方可以在科技创新和其他事务之间进行权衡。所以,请你方不要走向极端。
我进一步问你,你方认为有风险就不做这件事。但我方有数据支持,即便存在信息泄露问题,财产损失率也不到0.02%,只有9.7%会直接造成损失。你方有对称的数据来进行比较吗?
正方辩手:你根本没有听清我的论证,我所说的是公众公信力下降会导致……
反方三辩:你先回答我,你方第一条观点提到事件多、后果严重,可后果到底哪里严重了?股票下跌这么多还不严重吗?你方只是举了个例子,而我方发现自动驾驶技术出现后,小米的股票销量很好。所以,你方无法论证所有隐私保护一定会导致后果严重,你方这一点无法成立。
第二部分,你方是否考虑在冲突的语境下进行讨论?在你方观点里,是不是不打算发展科技创新能力了?
正方二辩:不是,我们是要以人为本。但就现状而言,我方没看到对人民的损伤有多严重,你方观点至今未得到论证。所以,请回答,你方现在暂时不想推动科技发展了,对吧?
反方三辩:我方想要论证的是公信力下降对技术发展的影响,关于公信力问题我稍后再讲。你现在还是不想讨论科技创新的利好,我方认为你方目前处于发展停滞阶段。欧盟在发展AI技术的过程中,两个月内AI专利数占世界的比例从30%降到了18%,你认为中国能承担这样的损失吗?
正方辩手:不……
反方三辩:不好意思。在如此严峻的国际形势下,欧盟因为发展AI,AI专利占比从世界的38%降到了15%。你认为中国也要承担像欧盟这样的损失吗?中国现在AI发展态势良好,但在你方立场下,是可以不进行科技创新的,这会导致AI发展停滞。我方认为在这种逻辑下,中国可能会承受类似欧盟的损失,而我方认为不应出现这样的损失。
我再进一步说公信力的问题,仅仅因为公信力不够,人们就不再使用AI了吗?就像玩游戏要实名认证,你可能会怀疑,但还是会去认证。所以,你可以去体验一下使用AI认证。
接下来有请反方三辩同学盘问正方一二四辩,时间为两分半,计时自开始。
反方三辩:你作为一个学生,本职工作是学习,但你为什么还要参加辩论呢?因为我喜欢。所以,辩论和学习并不冲突。在这道辩题中,我方没有义务将100%的精力都投入到科技创新中,我方可以在科技创新和其他事务之间进行权衡。所以,请你方不要走向极端。
我进一步问你,你方认为有风险就不做这件事。但我方有数据支持,即便存在信息泄露问题,财产损失率也不到0.02%,只有9.7%会直接造成损失。你方有对称的数据来进行比较吗?
正方辩手:你根本没有听清我的论证,我所说的是公众公信力下降会导致……
反方三辩:你先回答我,你方第一条观点提到事件多、后果严重,可后果到底哪里严重了?股票下跌这么多还不严重吗?你方只是举了个例子,而我方发现自动驾驶技术出现后,小米的股票销量很好。所以,你方无法论证所有隐私保护一定会导致后果严重,你方这一点无法成立。
第二部分,你方是否考虑在冲突的语境下进行讨论?在你方观点里,是不是不打算发展科技创新能力了?
正方二辩:不是,我们是要以人为本。但就现状而言,我方没看到对人民的损伤有多严重,你方观点至今未得到论证。所以,请回答,你方现在暂时不想推动科技发展了,对吧?
反方三辩:我方想要论证的是公信力下降对技术发展的影响,关于公信力问题我稍后再讲。你现在还是不想讨论科技创新的利好,我方认为你方目前处于发展停滞阶段。欧盟在发展AI技术的过程中,两个月内AI专利数占世界的比例从30%降到了18%,你认为中国能承担这样的损失吗?
正方辩手:不……
反方三辩:不好意思。在如此严峻的国际形势下,欧盟因为发展AI,AI专利占比从世界的38%降到了15%。你认为中国也要承担像欧盟这样的损失吗?中国现在AI发展态势良好,但在你方立场下,是可以不进行科技创新的,这会导致AI发展停滞。我方认为在这种逻辑下,中国可能会承受类似欧盟的损失,而我方认为不应出现这样的损失。
我再进一步说公信力的问题,仅仅因为公信力不够,人们就不再使用AI了吗?就像玩游戏要实名认证,你可能会怀疑,但还是会去认证。所以,你可以去体验一下使用AI认证。
首先我们先来看第一个问题,今天对方说科技创新是战略导向,这当然没有问题,国家的战略导向当然是为了人民更幸福、增添福祉而努力。但是对方忽略了一个问题,即隐私保护这件事情对每一个人而言都非常重要。
你方今天所举的例子是财产损失了多少,只看到了宏观的现象,仅告诉我损失了很少的钱,而科技创新可以带来更多的钱,所以你方完全是从金钱逐利出发。
那我想请问对方,我作为一个使用百度的人,如果我的账号被百度副总裁的女儿开锁,这件事情严不严重?你们只从宏观层面告诉我,只要损失的钱很少,这件事情就可以接受。但实际上,隐私被泄露是每个人都会十分重视的,因为你不知道泄露的消息会不会对自己的父母、家人产生更大的影响。比如,不法分子拿着你的声音、脸去用AI伪造一些事情,然后进行诈骗,从宏观层面看,损失的钱可能非常少,但对本人和家庭而言却是重大的事情。
所以,隐私保护对每一个人十分重要,这也是我方今天强调隐私保护严重性的原因。因为我们每个人都会使用人工智能,这是无可置疑的。所以在每个人都要使用人工智能的情况下,国家更应该重视隐私保护,承担起政府公信力的问题。
我们只有重视隐私保护,告知大家使用人工智能不会有太大危害,会保护其隐私,就像华为、鸿蒙已经提出的,把隐私权交给用户。我们双方都达成的共识是,隐私是指不愿意泄露出去的东西,所以隐私权应该掌握在公众手里,即用户愿意给什么数据就给什么数据。只有当公信力达到一定高度,人们愿意相信这件事情时,才会愿意主动把真实的数据提供给相关方,才能推动科技发展。
自动驾驶依赖真实的数据,人工智能的发展也需要依赖真实的数据,只有当人们愿意提供真实的数据,才能实现科技创新这一步。
首先我们先来看第一个问题,今天对方说科技创新是战略导向,这当然没有问题,国家的战略导向当然是为了人民更幸福、增添福祉而努力。但是对方忽略了一个问题,即隐私保护这件事情对每一个人而言都非常重要。
你方今天所举的例子是财产损失了多少,只看到了宏观的现象,仅告诉我损失了很少的钱,而科技创新可以带来更多的钱,所以你方完全是从金钱逐利出发。
那我想请问对方,我作为一个使用百度的人,如果我的账号被百度副总裁的女儿开锁,这件事情严不严重?你们只从宏观层面告诉我,只要损失的钱很少,这件事情就可以接受。但实际上,隐私被泄露是每个人都会十分重视的,因为你不知道泄露的消息会不会对自己的父母、家人产生更大的影响。比如,不法分子拿着你的声音、脸去用AI伪造一些事情,然后进行诈骗,从宏观层面看,损失的钱可能非常少,但对本人和家庭而言却是重大的事情。
所以,隐私保护对每一个人十分重要,这也是我方今天强调隐私保护严重性的原因。因为我们每个人都会使用人工智能,这是无可置疑的。所以在每个人都要使用人工智能的情况下,国家更应该重视隐私保护,承担起政府公信力的问题。
我们只有重视隐私保护,告知大家使用人工智能不会有太大危害,会保护其隐私,就像华为、鸿蒙已经提出的,把隐私权交给用户。我们双方都达成的共识是,隐私是指不愿意泄露出去的东西,所以隐私权应该掌握在公众手里,即用户愿意给什么数据就给什么数据。只有当公信力达到一定高度,人们愿意相信这件事情时,才会愿意主动把真实的数据提供给相关方,才能推动科技发展。
自动驾驶依赖真实的数据,人工智能的发展也需要依赖真实的数据,只有当人们愿意提供真实的数据,才能实现科技创新这一步。
下面我将处理几件事情。
第一件事情,我认为双方都应着眼于现状。你方认为当下隐私泄露问题十分普遍,我方也承认这一点,但我方不认为问题普遍就必然会导致严重后果。我方有数据证明,在金融事件中,仅有 15.7%会造成直接损害,且在金融管制下的损害率不足 0.02%,这个数据是非常小的。你方不会是想说,一旦发生大事我们都承担不了,所以只要有风险就不去做这件事了吧?按照你方的逻辑,因为存在风险就不要开展科技创新了。那么我想请教,如果照此情况,所有技术都无需发展,大家就会回到以前的状态,因为那时最为安全,大家的隐私也不会过多暴露。但实际上,你方的立场与当今时代发展是相悖的。
第二件事情,对方同学似乎没有正确认识当前情况,而我方有两层证据。第一层,从国家层面来看,我国计划在 2030 年实现 AI 发展更上一层楼。但如果按照你方立场使发展停滞,这个战略目标无法达成该怎么办,我方不得而知。第二层,从国际市场角度,以欧盟为例,当欧盟的 AI 发展停滞时,其专利申请率从 38%降至 10%。你方一直强调中国的 AI 发展态势良好,我方对此表示认同,因为中国始终坚持技术创新,并且相信隐私保护问题有途径可以解决。但在你方倡导不发展的情况下,我方十分担忧中国会重蹈欧盟覆辙,导致 AI 占有率从 30%多降至 15%,毕竟国际竞争力是至关重要的。
大家都明白为人民服务至关重要,也认可人民福祉的重要性。但同学你是否想过,目前隐私泄露现状并非十分严重,此时进一步推动前沿技术发展,难道不是对人民福祉更好的追求吗?
下面我将处理几件事情。
第一件事情,我认为双方都应着眼于现状。你方认为当下隐私泄露问题十分普遍,我方也承认这一点,但我方不认为问题普遍就必然会导致严重后果。我方有数据证明,在金融事件中,仅有 15.7%会造成直接损害,且在金融管制下的损害率不足 0.02%,这个数据是非常小的。你方不会是想说,一旦发生大事我们都承担不了,所以只要有风险就不去做这件事了吧?按照你方的逻辑,因为存在风险就不要开展科技创新了。那么我想请教,如果照此情况,所有技术都无需发展,大家就会回到以前的状态,因为那时最为安全,大家的隐私也不会过多暴露。但实际上,你方的立场与当今时代发展是相悖的。
第二件事情,对方同学似乎没有正确认识当前情况,而我方有两层证据。第一层,从国家层面来看,我国计划在 2030 年实现 AI 发展更上一层楼。但如果按照你方立场使发展停滞,这个战略目标无法达成该怎么办,我方不得而知。第二层,从国际市场角度,以欧盟为例,当欧盟的 AI 发展停滞时,其专利申请率从 38%降至 10%。你方一直强调中国的 AI 发展态势良好,我方对此表示认同,因为中国始终坚持技术创新,并且相信隐私保护问题有途径可以解决。但在你方倡导不发展的情况下,我方十分担忧中国会重蹈欧盟覆辙,导致 AI 占有率从 30%多降至 15%,毕竟国际竞争力是至关重要的。
大家都明白为人民服务至关重要,也认可人民福祉的重要性。但同学你是否想过,目前隐私泄露现状并非十分严重,此时进一步推动前沿技术发展,难道不是对人民福祉更好的追求吗?
自由辩论环节时间各为4分钟。我认为今天这个辩题,我想请对方解释一个问题。比如创新时可以保护隐私,我方为何不能在保护隐私时进行技术创新呢?我方认为是可以的,但应有一个侧重。我方觉得在当前情况下,对方必然面对的弊端是暂时无法发展,可对方却不承认,这是为什么呢?
当隐私保护和技术创新发生冲突时,对方如何从其他领域进行技术创新呢?就像对方所说,可以完善立法来保护隐私,可此时我方对技术创新并未投入过多精力,发展停滞,这一点对方并未看到。因为我方论证的是目前AI发展处于大数据人机交互阶段,在此过程中,一开始就假定在其发展过程中必须获取用户敏感的生物信息才能保护隐私。但在对方看来,似乎就不要发展了,是这样吗?比如支付领域,对方说先解决现有问题再发展,可如果背着问题解决,只会导致后退。
对方所举的例子,比如修旧冰箱,把冰箱修好了,但冰箱发展了吗?并没有,这也不符合对方的发展标准。所以请回答,AI发展需要用户敏感的生物信息,对吗?我方当然要发展,所以我方要求在发展且需要使用我方数据时,必须保证这些数据的安全。如果连最基本的数据安全都无法保护,我们这些使用者为何会主动提供数据呢?在无法保护数据安全的情况下,就应暂时停止该系统的发展,这一点我方已解释清楚。
我方有数据论证,黑客至少获取7个品类的个人信息才可能实现诈骗或AI换脸,而这些数据在隐私泄露中仅占12%,所以当前隐私泄露并不能直接导致对方所说的严重后果。对方所说的严重后果究竟是如何产生的呢?而且对方所说的严重后果太过狭隘,只有经济损失才是严重后果吗?那我被AI换脸后遭人指指点点,精神上无法承受,这又该如何算呢?难道国家利益、国家战略都要践踏在公民权益和尊严之上吗?
我方用数据证明,除财产信息外,其他个人信息品类集齐才可能实现诈骗或AI换脸,对方如何解决这些后果呢?对方所举的信息泄露例子虽能引发超千万的讨论,但这只是个例。我方已用数据论证,此类情况占比非常小,对方不必再举AI换脸、440万等例子,且对方并无相关数据支撑。我方承认每个事件背后可能有较大影响,但从普及性来看,并不会影响整个社会的安定。我方认为目前AI隐私损害后果并不严重。
接下来请对方回答,在如此紧迫的环境下,若不发展,国家战略目标如何实现?
还是回到数据真实性的问题。如果用户不愿意提供真实数据,科技创新又该如何进行呢?比如实名认证时,难道要提供假的实名认证号码吗?对方认为这些不重要,可类似事件引发国际讨论,这难道不重要吗?我方立场是,现实中人们虽有担忧,但仍会公布真实隐私信息,并非像对方所说因担忧就不公布甚至公布假信息。
请对方回答,在紧迫情况下,国家战略目标还要不要发展?我方认为当然要发展国家战略目标,但国家战略目标的目的是为了人民幸福。如果连最基本的隐私都无法保护,又怎能让人民相信国家战略能带来幸福呢?
关于隐私问题,我方在申论时已解释过。1905年到2019年出生的年轻一代,对敏感信息的关注程度没那么高,他们认为适度泄露信息是数字时代生存的必要代价。而且Facebook事件后,用户自主关闭社交账户的比例仅上升了2.3%,这表明公众更倾向于采用技术性防御,而非彻底退出数字生态。所以对方所说的不使用情况,我方并未看到。
在中国,人民愿意使用相关科技,是因为相信政府会解决好隐私问题。但目前法律尚未明确划分责任,无法更好地保护隐私,在此情况下,如何更好地使用科技和人工智能以推动科技创新,才是当下应考虑的问题。
对方认为公众有信任,即便不信任也会继续使用。但对方从头到尾都未论证隐私泄露后果严重这一观点,我方已用数据进行了对冲。请对方回答,国家战略目标还要不要?
我方认为隐私保护对发展很重要,但当下发展更为重要。因为现状并非隐私泄露后果极其严重,若对方认为隐私泄露后果严重,需给出证明。或者不谈后果严重与否,保护隐私也是公众幸福感的来源之一,对方只强调发展国家战略,却不顾公众幸福感,那国家发展是为了谁呢?
国家已出台多部法律,如《中华人民共和国个人信息保护法》《中华人民共和国网络安全法》以及《中华人民共和国民法典》来保护隐私。这一方面说明隐私保护很重要,因为存在缺失所以受到关注;另一方面,现有法律无法解决一些基本问题,后续发展中还需更关注隐私保护问题。比如现有法律未出台针对人工智能算法规则的部门法,导致在人工智能算法环节可能出现隐私信息保护纰漏。而且我国法律事前规范机制和事后救济机制尚不完善,会造成原则定义覆盖不完全、事后责任模糊、维权困难的局面,即隐私被泄露后,人们甚至无法通过法律途径挽回损失,只能在一次次泄露中失去信任。
接下来我们进入……
自由辩论环节时间各为4分钟。我认为今天这个辩题,我想请对方解释一个问题。比如创新时可以保护隐私,我方为何不能在保护隐私时进行技术创新呢?我方认为是可以的,但应有一个侧重。我方觉得在当前情况下,对方必然面对的弊端是暂时无法发展,可对方却不承认,这是为什么呢?
当隐私保护和技术创新发生冲突时,对方如何从其他领域进行技术创新呢?就像对方所说,可以完善立法来保护隐私,可此时我方对技术创新并未投入过多精力,发展停滞,这一点对方并未看到。因为我方论证的是目前AI发展处于大数据人机交互阶段,在此过程中,一开始就假定在其发展过程中必须获取用户敏感的生物信息才能保护隐私。但在对方看来,似乎就不要发展了,是这样吗?比如支付领域,对方说先解决现有问题再发展,可如果背着问题解决,只会导致后退。
对方所举的例子,比如修旧冰箱,把冰箱修好了,但冰箱发展了吗?并没有,这也不符合对方的发展标准。所以请回答,AI发展需要用户敏感的生物信息,对吗?我方当然要发展,所以我方要求在发展且需要使用我方数据时,必须保证这些数据的安全。如果连最基本的数据安全都无法保护,我们这些使用者为何会主动提供数据呢?在无法保护数据安全的情况下,就应暂时停止该系统的发展,这一点我方已解释清楚。
我方有数据论证,黑客至少获取7个品类的个人信息才可能实现诈骗或AI换脸,而这些数据在隐私泄露中仅占12%,所以当前隐私泄露并不能直接导致对方所说的严重后果。对方所说的严重后果究竟是如何产生的呢?而且对方所说的严重后果太过狭隘,只有经济损失才是严重后果吗?那我被AI换脸后遭人指指点点,精神上无法承受,这又该如何算呢?难道国家利益、国家战略都要践踏在公民权益和尊严之上吗?
我方用数据证明,除财产信息外,其他个人信息品类集齐才可能实现诈骗或AI换脸,对方如何解决这些后果呢?对方所举的信息泄露例子虽能引发超千万的讨论,但这只是个例。我方已用数据论证,此类情况占比非常小,对方不必再举AI换脸、440万等例子,且对方并无相关数据支撑。我方承认每个事件背后可能有较大影响,但从普及性来看,并不会影响整个社会的安定。我方认为目前AI隐私损害后果并不严重。
接下来请对方回答,在如此紧迫的环境下,若不发展,国家战略目标如何实现?
还是回到数据真实性的问题。如果用户不愿意提供真实数据,科技创新又该如何进行呢?比如实名认证时,难道要提供假的实名认证号码吗?对方认为这些不重要,可类似事件引发国际讨论,这难道不重要吗?我方立场是,现实中人们虽有担忧,但仍会公布真实隐私信息,并非像对方所说因担忧就不公布甚至公布假信息。
请对方回答,在紧迫情况下,国家战略目标还要不要发展?我方认为当然要发展国家战略目标,但国家战略目标的目的是为了人民幸福。如果连最基本的隐私都无法保护,又怎能让人民相信国家战略能带来幸福呢?
关于隐私问题,我方在申论时已解释过。1905年到2019年出生的年轻一代,对敏感信息的关注程度没那么高,他们认为适度泄露信息是数字时代生存的必要代价。而且Facebook事件后,用户自主关闭社交账户的比例仅上升了2.3%,这表明公众更倾向于采用技术性防御,而非彻底退出数字生态。所以对方所说的不使用情况,我方并未看到。
在中国,人民愿意使用相关科技,是因为相信政府会解决好隐私问题。但目前法律尚未明确划分责任,无法更好地保护隐私,在此情况下,如何更好地使用科技和人工智能以推动科技创新,才是当下应考虑的问题。
对方认为公众有信任,即便不信任也会继续使用。但对方从头到尾都未论证隐私泄露后果严重这一观点,我方已用数据进行了对冲。请对方回答,国家战略目标还要不要?
我方认为隐私保护对发展很重要,但当下发展更为重要。因为现状并非隐私泄露后果极其严重,若对方认为隐私泄露后果严重,需给出证明。或者不谈后果严重与否,保护隐私也是公众幸福感的来源之一,对方只强调发展国家战略,却不顾公众幸福感,那国家发展是为了谁呢?
国家已出台多部法律,如《中华人民共和国个人信息保护法》《中华人民共和国网络安全法》以及《中华人民共和国民法典》来保护隐私。这一方面说明隐私保护很重要,因为存在缺失所以受到关注;另一方面,现有法律无法解决一些基本问题,后续发展中还需更关注隐私保护问题。比如现有法律未出台针对人工智能算法规则的部门法,导致在人工智能算法环节可能出现隐私信息保护纰漏。而且我国法律事前规范机制和事后救济机制尚不完善,会造成原则定义覆盖不完全、事后责任模糊、维权困难的局面,即隐私被泄露后,人们甚至无法通过法律途径挽回损失,只能在一次次泄露中失去信任。
接下来我们进入……
接下来我将通过几个方面来解决四个问题。
第一个是紧急性和重要性的问题。前面我方已经阐述得很清楚,到2026年,我国人工智能产业标准和产业创新科技的水平要持续提升,达到或超过国际标准和行业标准。因此,必须加快人工智能的高质量发展。而当今国际竞争的实质是以经济和科技实力为基础的综合国力的较量,科技创新已成为综合国力的决定性因素。所以,国际竞争的核心是科技和人才的竞争,我国必须加快科技创新的步伐,提升自主创新能力。由此可见,今天的人工智能发展具有重要性和紧迫性。
然后来看第二个问题,我们进行一个比较。技术创新能够加快发展步调,响应国家的紧急号召,而隐私保护却会带来一定的阻碍。所以,我们更应该倾向于技术创新。原因如下:首先,目前人工智能的发展需要依靠大量的隐私数据进行不断模拟,所以发展人工智能必然会带来一定的隐私泄露问题,也正因如此,才产生了关于这个辩题的讨论。我们认为应该更促进科技创新,理由如下:第一,如果选择隐私保护,却无法通过其他行业的补救措施来同步发展科技,因为行业之间存在技术壁垒。一是跨领域的技术创新容易失败;二是技术存在垂直整合壁垒,各领域会形成独特的技术体系;三是数据维度具有不可替代性。所以,如果强调隐私保护,就无法进行科技创新,必然会导致科技创新受到一定影响。
接着聊第三个问题,即隐私泄露的问题。对方一直在强调隐私泄露很严重,但我方也给出了很多数据,比如1.43亿用户社保信息泄露,但造成不可逆财产损失的比例不足1%,我方二辩也提到只有15.7%能产生直接财产损失。所以,我们论证得出,隐私泄露是普遍现象,但并不严重。
最后看公信力的问题。我方也指出,在V时代,人们对隐私的敏感度比X时代低41%,更倾向于适度泄露信息,这是数字生存的必要方式。而且Facebook事件过后,用户自主关闭社交账户的比例仅上升了2.3%,但双重认证启用率提升了58%,这反映出公众更倾向于技术性防御,而非彻底退出数字生态。
以上分析,感谢!
接下来我将通过几个方面来解决四个问题。
第一个是紧急性和重要性的问题。前面我方已经阐述得很清楚,到2026年,我国人工智能产业标准和产业创新科技的水平要持续提升,达到或超过国际标准和行业标准。因此,必须加快人工智能的高质量发展。而当今国际竞争的实质是以经济和科技实力为基础的综合国力的较量,科技创新已成为综合国力的决定性因素。所以,国际竞争的核心是科技和人才的竞争,我国必须加快科技创新的步伐,提升自主创新能力。由此可见,今天的人工智能发展具有重要性和紧迫性。
然后来看第二个问题,我们进行一个比较。技术创新能够加快发展步调,响应国家的紧急号召,而隐私保护却会带来一定的阻碍。所以,我们更应该倾向于技术创新。原因如下:首先,目前人工智能的发展需要依靠大量的隐私数据进行不断模拟,所以发展人工智能必然会带来一定的隐私泄露问题,也正因如此,才产生了关于这个辩题的讨论。我们认为应该更促进科技创新,理由如下:第一,如果选择隐私保护,却无法通过其他行业的补救措施来同步发展科技,因为行业之间存在技术壁垒。一是跨领域的技术创新容易失败;二是技术存在垂直整合壁垒,各领域会形成独特的技术体系;三是数据维度具有不可替代性。所以,如果强调隐私保护,就无法进行科技创新,必然会导致科技创新受到一定影响。
接着聊第三个问题,即隐私泄露的问题。对方一直在强调隐私泄露很严重,但我方也给出了很多数据,比如1.43亿用户社保信息泄露,但造成不可逆财产损失的比例不足1%,我方二辩也提到只有15.7%能产生直接财产损失。所以,我们论证得出,隐私泄露是普遍现象,但并不严重。
最后看公信力的问题。我方也指出,在V时代,人们对隐私的敏感度比X时代低41%,更倾向于适度泄露信息,这是数字生存的必要方式。而且Facebook事件过后,用户自主关闭社交账户的比例仅上升了2.3%,但双重认证启用率提升了58%,这反映出公众更倾向于技术性防御,而非彻底退出数字生态。
以上分析,感谢!