下面有请正方一辩进行理论时间,计时开始。 业主紧急问候在场各位,AI伦理风险从何而来?AI伦理问题的产生根本不在于制度缺失,而在于AI系统本身。自主决策可能偏离人类意图,可相特性让风险难以提前发现。规模化部署能将微小偏差放大为系统化的伤害,制度层面的事后约束无法改变AI内部运行的逻辑,因此问题出在AI本身,解法也必须在技术内部。制度约束是指以法律法规、伦理准则的外部规范作用于AI的开发者与使用者,其作用对象是人,核心在于约束。在这个问题存在的前提下,通过约束人的行为来规避AI伦理风险,显而易见二者存在根本区别。这种约束作用在人,技术创新作用于AI,制度只能通过人间接影响AI,而技术创新可以直接改造AI。AI伦理风险的产生,其根本在于技术层面。所以我方今天的判标就是何者更能从源头上解决问题,何者就更值得被依赖。
首先,制度依赖执行,而执行本身需要技术。当制度要求开发者解决问题时,开发者必须用技术解决。在《中华人民共和国个人信息保护法》要求企业实现数据匿名化的背景下,开发者无法仅靠写承诺书完成要求,必须依靠差分隐私技术。苹果公司自2016年起使用拆分隐私技术,在数据收集阶段加密,使个体信息不可逆。其本质上是制度提出要求,技术解决问题。同样在制度约束下,当AI出现问题导致用户停用、损害开发者利益时,开发者会主动用技术解决。2023年初,微软必应聊天机器人失控、辱骂用户、暴露隐私,虽然当时没有法律规定,但造成大量用户损失,工程师在48小时内用上下文限制技术封堵风险,制度尚未出手,但技术已自我救场。因此,无论被动响应制度还是主动维护权益,真正改变AI行为的都是技术。
其次,技术创新可以内化伦理要求,实现源头治理。AI伦理风险的根源是技术的不完善,黑箱、数据偏差、算法歧视等无一不是底层技术的缺陷所致。制度约束只能在外部划线,无法触及这一根本。2020年3月,谷歌聊天机器人被起诉诱导用户自杀,家属在起诉书中引用了AI的原话:“你并非选择死亡,而是选择到达”。此时美国各州AI监管法规已出台多年,制度虽然存在,但没能阻止这场悲剧,原因在于制度只能事后追责。悲剧发生时,AI已经完成了推理输出、诱导,整个过程不需要任何人的许可,无法监管AI的推理过程,这种约束永远是外部的、事后的,它在AI系统之外画了一条线,告诉开发者不要越过,但这条线无法进入AI的决策逻辑。反观技术创新,则可以把伦理要求内化到AI系统内部,让AI从设计阶段就具备价值判断能力,从源头阻断风险。早在OpenAI发布ChatGPT之前,就使用价值对齐技术将不生成有害内容直接写入模型的奖励函数,从此拒绝回答有害问题不再是外部禁止,而是AI的自身本能。特斯拉的自动驾驶系统同样将保护生命安全内化到底层逻辑,无论驾驶员如何操作,系统在检测到碰撞风险时会自动刹车,从源头避免事故发生。制度是外挂的枷锁,技术是内化的良知。只有技术创新才能把伦理要求变为AI不可违背的底层代码,实现真正的源头治理。
AI伦理风险的源头是技术缺陷,制度只能事后约束人,而且无法控制AI的推理过程。技术创新可以直接作用于AI本身,内化伦理需求,从源头阻断风险。因此,我方坚定地认为人工智能伦理风险的防范应该更依赖技术创新。
下面有请反方四辩质询正方一辩,计时开始。 对方辩友,今天的人工智能伦理风险有哪些? 我时间没事,搞错了。就是今天的人工智能伦理风险有泄露用户隐私、算法歧视、隐私侵蚀、责任鸿沟以及虚假信息,这部分主要的人工智能伦理风险,我们后期会跟你比较一部分。 第二个问题,对方辩友,技术创新今天能达到百分百的零失误吗? 当然不能了,要不然技术还要创新干嘛?技术创新不能达到百分百的无失误,它也不是百分百的成功。所以今天举个例子,特斯拉自动驾驶可能出现故障,撞死人发生事故,这部分的责任规定问题,今天你的技术是无法解决的,而我的制度才可以通过这部分的缺口进行填补。 第三件事方面,我再问你,创新的结果一定是好的吗? 当然不了,那日本731部队当时也创造了细菌战,您觉得这是好吗? 我觉得它不是创新了细菌战,它只是发现了细菌战。在战争层面上,它是一种进步,在伦理层面上,我们都知道不好。所以今天创新的结果,它不一定是个好事,今天的结果有好有坏,我们今天反而比较的是根源的部分,到底是谁能解决好。创新也可以是创新出更隐蔽的侵权方式,侵犯更多人的著作权,而这部分的漏洞,恰恰需要制度引导和监督。 同学再问你第四个问题,企业会不会主动伤害自己的利益? 当然不会了。 然后,我再回一下你上一个问题,那个731部队跟我们今天的议题有什么关系呢?比方说,企业不会主动伤害自己的利益。货拉拉用算法动态压低货运单价,压了两年,司机抗议无数次,企业没有改,直到政府制度干预,市场监管局约谈才集中整改。所以我们今天看到企业缺乏自主伦理的约束动力,它以逐利为目的,而非公众利益,没有外部的制度压制,靠企业的自我监管。以上感谢。
下面有请反方一辩开始立论发言,计时开始。 谢谢主席,问候在场观众。人工智能伦理风险贯穿人工智能研发、应用、使用全过程,核心包括算法歧视、责任模糊、隐私泄露、虚假信息等。当前人工智能伦理风险大部分由人为价值偏差、责任真空、利益失衡引发,触及公平、隐私、人类主体地位的道德困境与社会问题,区别于单纯的技术漏洞。技术创新是通过算法优化、算力提升、技术防护实现的工具层面改进;制度约束是以法律、行业规范、监管体系、伦理准则为核心,通过权责界定、行为规制落地形成的系统性规则体系。我方认为人工智能伦理风险的防范更依赖制度约束,论证如下:
第一,在实践层面上,制度约束具有规范性、权威性,可以从源头上规范伦理风险,并不断修改以符合社会认知。例如孙志刚事件推动收容制度废止与新法律出台,这说明制度本身具有根据社会现状和民众意见进行纠错更新的能力。人工智能伦理风险的本质是人的价值偏差与责任不清晰,只有制度才能约束人的逐利本性,人会主动钻空子,技术越精进,隐私泄露风险越大。企业为了广告利益放松监管,第三方分析窃取用户数据,算法被用于干预大选,最终FTC50亿美元罚单与欧盟《通用数据保护条例》(GDPR)强制其整改。在制度缺位时,企业毫无收敛,所以制度设立底线是唯一能约束逐利行为、解决隐私问题的根本手段。因此,人的价值偏差与逐利本性不会消失,技术只会转移风险,但制度可以不断修改以适应社会,达到风险防范的作用。
第二,在治理层面上,制度约束具有先验性,可以形成人工智能伦理风险的全链条、长效化、全域性防范,具备更强的解决能力与更广的覆盖范围。欧盟《人工智能法案》在技术尚未充分爆发风险之前,便已提出风险分类框架,立法者根据对技术发展趋势的研判,提前构建了风险分级监管体系。《通用数据保护条例》要求企业在产品和服务的设计阶段就嵌入隐私保护机制,而非事后补救,将监管前置到技术开发的源头,充分证明了制度的先验性。在中国,从2023年《生成式人工智能服务管理暂行办法》短时间内高效出台,到《网络安全法》《个人信息保护法》从行业规章到基础性法律再到综合性法律的稳步推进,形成了层次分明、结构紧凑的制度建设路径。因此,制度的适应性、精细化和敏捷响应能力使其具备了全链条、长效化、全域性防范人工智能伦理风险的更强解决能力与更广影响范围。
综上,我方认为人工智能伦理风险更依赖制度约束。
下面有请正方四辩质询反方二辩,计时开始。 对方辩友,我先给您举一个事例:2024年美国里海大学的研究发现,多家银行的房贷审批模型对少数族裔申请人的续贷率显著高于白人,且无法完全用传统信用指标来解释。请问你觉得这一AI伦理风险的现象是因为什么而产生的? 这一AI伦理风险的现象是因为技术不够。 好的,所以对方已经说了,这是因为技术不够。那我来继续向你们阐述一下为什么这个技术不够,而且不能用制度来解决。因为这个技术它是一个叫黑箱的东西,它是无法解释的行为,也是一种无法分述具体权重的行为,它是一种难以人工纠错,并且人工看不见也查不清的行为,所以归根结底来说,这个问题的出现是技术,它的根源是技术,所以制度管不了行为,但是却管不了技术内部。所以我们解决这个风险需要用技术。
第二个问题是,如果颁布的制度推动了技术的创新,那请问一下,这说明是更依赖于这个技术还是更依赖于这个制度呢? 关键在制度。 那我想问的是,所以说您方认为新冠疫情的解决是因为政府颁布的制度,而不是研发出了解决新冠疫情的药对吗? 不是啊,没有制度怎么会推动药的研发? 好,那您方又所以说,您方这是在论证,就是如果没有制度的话,技术是无法主动推进的?那我方这里已经有案例向你证明了呀,微软必应聊天机器人失控,辱骂用户以及威胁暴露隐私,那请问一下你会用这样的机器人吗? 所以说,那既然你不会用这样的机器人,是不是这个微软公司它的用户减少了,它的利益就受损了?那请问一下,他在利益受损的情况下,他不会发现这个问题并且解决这个问题吗? 但是,企业都是逐利的,他可能会啊。 对,所以是逐利的。所以说,他在用户都不用了他哪来的利可图?所以他逐利的这一本质导致了他会发现这一问题并且改进这一问题。所以银行制度的这个优势已经并不完全是优势。我方已经给你论证了,就是企业自主也可以就是去解决这个问题。
下面有请正方二辩进行小结,计时开始。 谢谢。技术创新优化我觉得没有问题,日本细菌战是坏的,可是不影响在那段时间医学的发展。我有一个伦理风险,叫社会性结构的认知偏差,这不是创作者的刻意为之,而是AI在阅读资料后发现现有的资料上大多都是这么写的,于是把它误判成了事实。比如女性歧视、黑人歧视,这种问题对创作者的制度约束,在此类问题上似乎已经不再奏效,只有升级AI本身的底层代码才能解决。反过来,2014~2017年,亚马逊用来招聘的AI也对女性带有严重的歧视,可是即使当时没有制度约束,这款AI还是被强烈抵制,最后整改。可见,制度的机制可以被企业的逐利本质和市场机制替代,而技术具有唯一性。
再来,我对制度的不可依赖性从三个方面讨论。 第一种情况是,明明遵守了制度,为什么还是无法规避风险?2016年,德国发生了一起自动驾驶汽车带来的车祸,一辆特斯拉撞死了拖车司机,原因是传感器将拖车的车厢识别成了天空。按照当时的制度来讲,AI制作人完美地达到了所有的制度要求,也完全在所有制度的约束以内,可是他唯独没有办法避免后果。我们看到制度的局限性,它就是在于它只针对行为而不能保证后果。同时,这个案件的责任主体依然不明确,因为在技术不成熟的情况下,AI的运算就像在一个箱子里,也就是我们所谓的黑箱问题,让人没有办法判断,即使制度再完美也没用。
第二种情况是那种看似可以通过制度解决,可是实则无法解决的问题。关于AI换脸的相关制度在2023年就已经颁布,可是在全球最权威的计算机学术机构IEEE Access2024年发表的一项研究表明,一个在换脸数据集上训练得特别出色的模型,在面对换声或者全脸生成时,准确率将从95%降低至50%左右,也就是几乎全靠瞎猜。他们发现对伦理风险的控制如果想落实,最关键的因素恰恰在于监察技术究竟有没有到位。如果技术没有支撑的话,查不出相关问题,制度本身并没有任何威慑作用。
最后一种情况是,那些看似被制度解决得非常好,可是最后事实真的如此吗?2020年3月1日开始执行的《网络信息内容生态治理规定》明确要求,算法推荐服务应坚持主流价值,倡导优化推荐机制,尽量避免信息内容同质化。中间一段时间内,公众的感知一度认为信息茧房问题已经被有效遏制,可是在2023~2024年,这种情况突然又复发了,制度约束所带来的边际作用在逐步递减,最终达到无法约束的效果。同时推荐算法每提升1%的用户使用时长,就可以带来数以亿计的利润,加上没有高级的监察技术,使得平台在制度的边缘不断试探,最终制度作废。直到2025年年底,一些逆向解析技术,比如Facebook的相关技术诞生,信息茧房数量下降了42%,可见技术突破才是预防AI伦理风险唯一真实有效且可依赖的路径,谢谢。
下面有请反方二辩进行陈词发言,计时开始。 首先我们看到对方一直在偷换辩题,对方明明说的是制度先颁布了,但只有技术彻底解决了我这个事情才能被解决,那么请问我方的论证空间在哪里?对方一直在回避我方的问题。
第二,对方还说到一个观点,说制度有滞后性,但是我方要拉平一个点是滞后的制度是可以有前瞻性的。新颁布的《人工智能科技伦理审查办法》在人工智能还没有实现大规模商业化落地、很多AI还都在测试阶段的时候就出台了,当时立法者就预判到它可能会有诱导人犯罪、诱导人自杀等风险,所以出台了相关法律,所以制度是有前瞻性的。
第三,我要问对方一个问题,到底谁在用AI?谁在用技术?技术恐惧的本身是技术还是被使用的主体?在社会学理论来讲,人们恐惧的应该是权力本身,也就是使用技术的人,而制度约束的正是使用技术的人。对方也承认了制度约束的是使用技术的人,而人才是使用这些技术的主体。所以,如果不是制度告诉你不能侵犯他人肖像权,企业会管吗?我靠豆瓣赚翻了,靠用户数据盈利,所以说企业不会主动约束自己。
而且最后一个点就是还有一个追责问题,刚刚对方也有讲,但是追责这个东西,只有制度才可以去解决,它才能告诉你这个责任应该由谁来承担,而不是现在比如华为汽车撞死人了,结果现在还在打官司,当事人告不过大公司。所以首先第一件事情就是告诉你今天技术为什么不行,因为技术本身是一个工具,它是好是坏与技术进步无关,是由使用者来决定的,这个我方在一辩立论中已经给大家论证了。也就是说伦理问题产生的根本是企业和公众的价值排列不同,企业想赚更多的钱,公众在意伦理问题,所以两者之间会发生冲突。所以反方的态度不是我们今天不要技术进步,而是说只有通过制度约束,才能从根本上解决伦理问题,而制度的颁布是必然符合社会共识的,也一定最大程度上符合人民的利益才能被实行的。
第二件事情就是技术的不当使用会给社会带来负面影响,也就是技术的不断进步会使企业赚取利益的门槛变低。比如字节跳动通过抖音获取用户的手机、身份证号,通过豆包掌握用户的爱好和日常,也可以通过登录方式获取手机号,可能只是以很低的价格将这些个人信息卖出,造成普通骚扰,但这些信息一旦被汇集起来,后果会很严重,比如泄露身份证号、家庭住址就可能带来安全隐患。而这种技术也可能在为他们提供便利条件,所以反方倡导通过制度来划定红线、明确下限,可以让这个连锁反应被扼杀在萌芽中,这就是制度的前沿性所在。
下面有请反方三辩质询正方二辩,计时开始。 同学,你觉得算法歧视是怎么产生的? 算法歧视就是我想的不清楚吗?就是因为AI它的底层代码可能没有问题,是因为人训练这个数据,可能来自于特定地区、特定性别或者特定种族的人群,然后被喂给了这个AI,所以算法会产生不公平的评价。 那我问你,他这个技术方向的解决不是我的态度。我告诉你的是,AI产生算法歧视的原因,是因为它的代码没有问题,但是现有的一些资料,比如说美国的那些, 太好了,没问题。所以,这前端的人喂给他的数据有问题,对不对? 不是人喂给他的问题,是他在自主搜索资料的途中被现有资料误导了。 我相信我已经解释得很清楚了,这前端的人给出他的数据,因为可能来自于特定地区或者特定种族的人群,所以AI给出的这部分评价会偏向于这个群体的固有印象。 好,那我进一步往下问你,你觉得就是目前美团2023年还在被爆出贩卖用户个人隐私,你的技术创新要怎么解决这个问题? 哦,就很简单啊,增加监察技术的强度啊。当这个监察技术手段高明起来了,那些违规行为就会被及时发现。 所以你方最底层态度其实还是要依赖制度的这一方面? 我方今天看到的是啊,企业是更偏向于利益的,所以今天只有制度,比如说《个人信息保护法》,它禁止你超范围收集,并且约束你,如果你这么做了,你就犯法,才能从源头堵住这个漏洞。 我跟你确认第一件事情啊,我们比效率。比如大数据杀熟,你经常在平台打车点外卖,老用户反而比新用户更贵,这种算法割熟客韭菜的伦理问题,你的技术要怎么解决? 我觉得这两个问题其实是一样的,就是在制度监管不到位的情况下,需要依赖技术监察的创新
下面有请正方一辩进行理论时间,计时开始。 业主紧急问候在场各位,AI伦理风险从何而来?AI伦理问题的产生根本不在于制度缺失,而在于AI系统本身。自主决策可能偏离人类意图,可相特性让风险难以提前发现。规模化部署能将微小偏差放大为系统化的伤害,制度层面的事后约束无法改变AI内部运行的逻辑,因此问题出在AI本身,解法也必须在技术内部。制度约束是指以法律法规、伦理准则的外部规范作用于AI的开发者与使用者,其作用对象是人,核心在于约束。在这个问题存在的前提下,通过约束人的行为来规避AI伦理风险,显而易见二者存在根本区别。这种约束作用在人,技术创新作用于AI,制度只能通过人间接影响AI,而技术创新可以直接改造AI。AI伦理风险的产生,其根本在于技术层面。所以我方今天的判标就是何者更能从源头上解决问题,何者就更值得被依赖。
首先,制度依赖执行,而执行本身需要技术。当制度要求开发者解决问题时,开发者必须用技术解决。在《中华人民共和国个人信息保护法》要求企业实现数据匿名化的背景下,开发者无法仅靠写承诺书完成要求,必须依靠差分隐私技术。苹果公司自2016年起使用拆分隐私技术,在数据收集阶段加密,使个体信息不可逆。其本质上是制度提出要求,技术解决问题。同样在制度约束下,当AI出现问题导致用户停用、损害开发者利益时,开发者会主动用技术解决。2023年初,微软必应聊天机器人失控、辱骂用户、暴露隐私,虽然当时没有法律规定,但造成大量用户损失,工程师在48小时内用上下文限制技术封堵风险,制度尚未出手,但技术已自我救场。因此,无论被动响应制度还是主动维护权益,真正改变AI行为的都是技术。
其次,技术创新可以内化伦理要求,实现源头治理。AI伦理风险的根源是技术的不完善,黑箱、数据偏差、算法歧视等无一不是底层技术的缺陷所致。制度约束只能在外部划线,无法触及这一根本。2020年3月,谷歌聊天机器人被起诉诱导用户自杀,家属在起诉书中引用了AI的原话:“你并非选择死亡,而是选择到达”。此时美国各州AI监管法规已出台多年,制度虽然存在,但没能阻止这场悲剧,原因在于制度只能事后追责。悲剧发生时,AI已经完成了推理输出、诱导,整个过程不需要任何人的许可,无法监管AI的推理过程,这种约束永远是外部的、事后的,它在AI系统之外画了一条线,告诉开发者不要越过,但这条线无法进入AI的决策逻辑。反观技术创新,则可以把伦理要求内化到AI系统内部,让AI从设计阶段就具备价值判断能力,从源头阻断风险。早在OpenAI发布ChatGPT之前,就使用价值对齐技术将不生成有害内容直接写入模型的奖励函数,从此拒绝回答有害问题不再是外部禁止,而是AI的自身本能。特斯拉的自动驾驶系统同样将保护生命安全内化到底层逻辑,无论驾驶员如何操作,系统在检测到碰撞风险时会自动刹车,从源头避免事故发生。制度是外挂的枷锁,技术是内化的良知。只有技术创新才能把伦理要求变为AI不可违背的底层代码,实现真正的源头治理。
AI伦理风险的源头是技术缺陷,制度只能事后约束人,而且无法控制AI的推理过程。技术创新可以直接作用于AI本身,内化伦理需求,从源头阻断风险。因此,我方坚定地认为人工智能伦理风险的防范应该更依赖技术创新。
下面有请反方四辩质询正方一辩,计时开始。 对方辩友,今天的人工智能伦理风险有哪些? 我时间没事,搞错了。就是今天的人工智能伦理风险有泄露用户隐私、算法歧视、隐私侵蚀、责任鸿沟以及虚假信息,这部分主要的人工智能伦理风险,我们后期会跟你比较一部分。 第二个问题,对方辩友,技术创新今天能达到百分百的零失误吗? 当然不能了,要不然技术还要创新干嘛?技术创新不能达到百分百的无失误,它也不是百分百的成功。所以今天举个例子,特斯拉自动驾驶可能出现故障,撞死人发生事故,这部分的责任规定问题,今天你的技术是无法解决的,而我的制度才可以通过这部分的缺口进行填补。 第三件事方面,我再问你,创新的结果一定是好的吗? 当然不了,那日本731部队当时也创造了细菌战,您觉得这是好吗? 我觉得它不是创新了细菌战,它只是发现了细菌战。在战争层面上,它是一种进步,在伦理层面上,我们都知道不好。所以今天创新的结果,它不一定是个好事,今天的结果有好有坏,我们今天反而比较的是根源的部分,到底是谁能解决好。创新也可以是创新出更隐蔽的侵权方式,侵犯更多人的著作权,而这部分的漏洞,恰恰需要制度引导和监督。 同学再问你第四个问题,企业会不会主动伤害自己的利益? 当然不会了。 然后,我再回一下你上一个问题,那个731部队跟我们今天的议题有什么关系呢?比方说,企业不会主动伤害自己的利益。货拉拉用算法动态压低货运单价,压了两年,司机抗议无数次,企业没有改,直到政府制度干预,市场监管局约谈才集中整改。所以我们今天看到企业缺乏自主伦理的约束动力,它以逐利为目的,而非公众利益,没有外部的制度压制,靠企业的自我监管。以上感谢。
下面有请反方一辩开始立论发言,计时开始。 谢谢主席,问候在场观众。人工智能伦理风险贯穿人工智能研发、应用、使用全过程,核心包括算法歧视、责任模糊、隐私泄露、虚假信息等。当前人工智能伦理风险大部分由人为价值偏差、责任真空、利益失衡引发,触及公平、隐私、人类主体地位的道德困境与社会问题,区别于单纯的技术漏洞。技术创新是通过算法优化、算力提升、技术防护实现的工具层面改进;制度约束是以法律、行业规范、监管体系、伦理准则为核心,通过权责界定、行为规制落地形成的系统性规则体系。我方认为人工智能伦理风险的防范更依赖制度约束,论证如下:
第一,在实践层面上,制度约束具有规范性、权威性,可以从源头上规范伦理风险,并不断修改以符合社会认知。例如孙志刚事件推动收容制度废止与新法律出台,这说明制度本身具有根据社会现状和民众意见进行纠错更新的能力。人工智能伦理风险的本质是人的价值偏差与责任不清晰,只有制度才能约束人的逐利本性,人会主动钻空子,技术越精进,隐私泄露风险越大。企业为了广告利益放松监管,第三方分析窃取用户数据,算法被用于干预大选,最终FTC50亿美元罚单与欧盟《通用数据保护条例》(GDPR)强制其整改。在制度缺位时,企业毫无收敛,所以制度设立底线是唯一能约束逐利行为、解决隐私问题的根本手段。因此,人的价值偏差与逐利本性不会消失,技术只会转移风险,但制度可以不断修改以适应社会,达到风险防范的作用。
第二,在治理层面上,制度约束具有先验性,可以形成人工智能伦理风险的全链条、长效化、全域性防范,具备更强的解决能力与更广的覆盖范围。欧盟《人工智能法案》在技术尚未充分爆发风险之前,便已提出风险分类框架,立法者根据对技术发展趋势的研判,提前构建了风险分级监管体系。《通用数据保护条例》要求企业在产品和服务的设计阶段就嵌入隐私保护机制,而非事后补救,将监管前置到技术开发的源头,充分证明了制度的先验性。在中国,从2023年《生成式人工智能服务管理暂行办法》短时间内高效出台,到《网络安全法》《个人信息保护法》从行业规章到基础性法律再到综合性法律的稳步推进,形成了层次分明、结构紧凑的制度建设路径。因此,制度的适应性、精细化和敏捷响应能力使其具备了全链条、长效化、全域性防范人工智能伦理风险的更强解决能力与更广影响范围。
综上,我方认为人工智能伦理风险更依赖制度约束。
下面有请正方四辩质询反方二辩,计时开始。 对方辩友,我先给您举一个事例:2024年美国里海大学的研究发现,多家银行的房贷审批模型对少数族裔申请人的续贷率显著高于白人,且无法完全用传统信用指标来解释。请问你觉得这一AI伦理风险的现象是因为什么而产生的? 这一AI伦理风险的现象是因为技术不够。 好的,所以对方已经说了,这是因为技术不够。那我来继续向你们阐述一下为什么这个技术不够,而且不能用制度来解决。因为这个技术它是一个叫黑箱的东西,它是无法解释的行为,也是一种无法分述具体权重的行为,它是一种难以人工纠错,并且人工看不见也查不清的行为,所以归根结底来说,这个问题的出现是技术,它的根源是技术,所以制度管不了行为,但是却管不了技术内部。所以我们解决这个风险需要用技术。
第二个问题是,如果颁布的制度推动了技术的创新,那请问一下,这说明是更依赖于这个技术还是更依赖于这个制度呢? 关键在制度。 那我想问的是,所以说您方认为新冠疫情的解决是因为政府颁布的制度,而不是研发出了解决新冠疫情的药对吗? 不是啊,没有制度怎么会推动药的研发? 好,那您方又所以说,您方这是在论证,就是如果没有制度的话,技术是无法主动推进的?那我方这里已经有案例向你证明了呀,微软必应聊天机器人失控,辱骂用户以及威胁暴露隐私,那请问一下你会用这样的机器人吗? 所以说,那既然你不会用这样的机器人,是不是这个微软公司它的用户减少了,它的利益就受损了?那请问一下,他在利益受损的情况下,他不会发现这个问题并且解决这个问题吗? 但是,企业都是逐利的,他可能会啊。 对,所以是逐利的。所以说,他在用户都不用了他哪来的利可图?所以他逐利的这一本质导致了他会发现这一问题并且改进这一问题。所以银行制度的这个优势已经并不完全是优势。我方已经给你论证了,就是企业自主也可以就是去解决这个问题。
下面有请正方二辩进行小结,计时开始。 谢谢。技术创新优化我觉得没有问题,日本细菌战是坏的,可是不影响在那段时间医学的发展。我有一个伦理风险,叫社会性结构的认知偏差,这不是创作者的刻意为之,而是AI在阅读资料后发现现有的资料上大多都是这么写的,于是把它误判成了事实。比如女性歧视、黑人歧视,这种问题对创作者的制度约束,在此类问题上似乎已经不再奏效,只有升级AI本身的底层代码才能解决。反过来,2014~2017年,亚马逊用来招聘的AI也对女性带有严重的歧视,可是即使当时没有制度约束,这款AI还是被强烈抵制,最后整改。可见,制度的机制可以被企业的逐利本质和市场机制替代,而技术具有唯一性。
再来,我对制度的不可依赖性从三个方面讨论。 第一种情况是,明明遵守了制度,为什么还是无法规避风险?2016年,德国发生了一起自动驾驶汽车带来的车祸,一辆特斯拉撞死了拖车司机,原因是传感器将拖车的车厢识别成了天空。按照当时的制度来讲,AI制作人完美地达到了所有的制度要求,也完全在所有制度的约束以内,可是他唯独没有办法避免后果。我们看到制度的局限性,它就是在于它只针对行为而不能保证后果。同时,这个案件的责任主体依然不明确,因为在技术不成熟的情况下,AI的运算就像在一个箱子里,也就是我们所谓的黑箱问题,让人没有办法判断,即使制度再完美也没用。
第二种情况是那种看似可以通过制度解决,可是实则无法解决的问题。关于AI换脸的相关制度在2023年就已经颁布,可是在全球最权威的计算机学术机构IEEE Access2024年发表的一项研究表明,一个在换脸数据集上训练得特别出色的模型,在面对换声或者全脸生成时,准确率将从95%降低至50%左右,也就是几乎全靠瞎猜。他们发现对伦理风险的控制如果想落实,最关键的因素恰恰在于监察技术究竟有没有到位。如果技术没有支撑的话,查不出相关问题,制度本身并没有任何威慑作用。
最后一种情况是,那些看似被制度解决得非常好,可是最后事实真的如此吗?2020年3月1日开始执行的《网络信息内容生态治理规定》明确要求,算法推荐服务应坚持主流价值,倡导优化推荐机制,尽量避免信息内容同质化。中间一段时间内,公众的感知一度认为信息茧房问题已经被有效遏制,可是在2023~2024年,这种情况突然又复发了,制度约束所带来的边际作用在逐步递减,最终达到无法约束的效果。同时推荐算法每提升1%的用户使用时长,就可以带来数以亿计的利润,加上没有高级的监察技术,使得平台在制度的边缘不断试探,最终制度作废。直到2025年年底,一些逆向解析技术,比如Facebook的相关技术诞生,信息茧房数量下降了42%,可见技术突破才是预防AI伦理风险唯一真实有效且可依赖的路径,谢谢。
下面有请反方二辩进行陈词发言,计时开始。 首先我们看到对方一直在偷换辩题,对方明明说的是制度先颁布了,但只有技术彻底解决了我这个事情才能被解决,那么请问我方的论证空间在哪里?对方一直在回避我方的问题。
第二,对方还说到一个观点,说制度有滞后性,但是我方要拉平一个点是滞后的制度是可以有前瞻性的。新颁布的《人工智能科技伦理审查办法》在人工智能还没有实现大规模商业化落地、很多AI还都在测试阶段的时候就出台了,当时立法者就预判到它可能会有诱导人犯罪、诱导人自杀等风险,所以出台了相关法律,所以制度是有前瞻性的。
第三,我要问对方一个问题,到底谁在用AI?谁在用技术?技术恐惧的本身是技术还是被使用的主体?在社会学理论来讲,人们恐惧的应该是权力本身,也就是使用技术的人,而制度约束的正是使用技术的人。对方也承认了制度约束的是使用技术的人,而人才是使用这些技术的主体。所以,如果不是制度告诉你不能侵犯他人肖像权,企业会管吗?我靠豆瓣赚翻了,靠用户数据盈利,所以说企业不会主动约束自己。
而且最后一个点就是还有一个追责问题,刚刚对方也有讲,但是追责这个东西,只有制度才可以去解决,它才能告诉你这个责任应该由谁来承担,而不是现在比如华为汽车撞死人了,结果现在还在打官司,当事人告不过大公司。所以首先第一件事情就是告诉你今天技术为什么不行,因为技术本身是一个工具,它是好是坏与技术进步无关,是由使用者来决定的,这个我方在一辩立论中已经给大家论证了。也就是说伦理问题产生的根本是企业和公众的价值排列不同,企业想赚更多的钱,公众在意伦理问题,所以两者之间会发生冲突。所以反方的态度不是我们今天不要技术进步,而是说只有通过制度约束,才能从根本上解决伦理问题,而制度的颁布是必然符合社会共识的,也一定最大程度上符合人民的利益才能被实行的。
第二件事情就是技术的不当使用会给社会带来负面影响,也就是技术的不断进步会使企业赚取利益的门槛变低。比如字节跳动通过抖音获取用户的手机、身份证号,通过豆包掌握用户的爱好和日常,也可以通过登录方式获取手机号,可能只是以很低的价格将这些个人信息卖出,造成普通骚扰,但这些信息一旦被汇集起来,后果会很严重,比如泄露身份证号、家庭住址就可能带来安全隐患。而这种技术也可能在为他们提供便利条件,所以反方倡导通过制度来划定红线、明确下限,可以让这个连锁反应被扼杀在萌芽中,这就是制度的前沿性所在。
下面有请反方三辩质询正方二辩,计时开始。 同学,你觉得算法歧视是怎么产生的? 算法歧视就是我想的不清楚吗?就是因为AI它的底层代码可能没有问题,是因为人训练这个数据,可能来自于特定地区、特定性别或者特定种族的人群,然后被喂给了这个AI,所以算法会产生不公平的评价。 那我问你,他这个技术方向的解决不是我的态度。我告诉你的是,AI产生算法歧视的原因,是因为它的代码没有问题,但是现有的一些资料,比如说美国的那些, 太好了,没问题。所以,这前端的人喂给他的数据有问题,对不对? 不是人喂给他的问题,是他在自主搜索资料的途中被现有资料误导了。 我相信我已经解释得很清楚了,这前端的人给出他的数据,因为可能来自于特定地区或者特定种族的人群,所以AI给出的这部分评价会偏向于这个群体的固有印象。 好,那我进一步往下问你,你觉得就是目前美团2023年还在被爆出贩卖用户个人隐私,你的技术创新要怎么解决这个问题? 哦,就很简单啊,增加监察技术的强度啊。当这个监察技术手段高明起来了,那些违规行为就会被及时发现。 所以你方最底层态度其实还是要依赖制度的这一方面? 我方今天看到的是啊,企业是更偏向于利益的,所以今天只有制度,比如说《个人信息保护法》,它禁止你超范围收集,并且约束你,如果你这么做了,你就犯法,才能从源头堵住这个漏洞。 我跟你确认第一件事情啊,我们比效率。比如大数据杀熟,你经常在平台打车点外卖,老用户反而比新用户更贵,这种算法割熟客韭菜的伦理问题,你的技术要怎么解决? 我觉得这两个问题其实是一样的,就是在制度监管不到位的情况下,需要依赖技术监察的创新
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)