例如,《在恋爱关系中,应该追求等价的付出·在恋爱关系中,不应该追求等价的付出》一题,辩之竹内共收录26场比赛。我们为您提供这26场比赛的论点、判断标准提取,以及总计数百条论据的提取,还有Deepseek的辩题分析。这可以帮您更好备赛。
欢迎您点击下方按钮,前往查看。
感谢主席,问候在场各位。当前生成式人工智能发展迅速,从GPT到各类AI模型迭代迅猛,性能快速升级,但也引发了不少争议与风险。众多平台上线生成式AI绘画功能后,部分用户担心自身原创作品被剽窃给AI,此类与生成式AI有关的争议层出不穷。技术高速发展,但总有人试图利用技术谋取不合理利益,现有规则尚未能填补技术高速发展带来的风险空缺,让人们对生成式AI的未来充满担忧与不确定。
在这种背景下,风险防范不仅仅是要采取行动阻止风险损失的发生,更重要的是提高人们的规范意识,削弱风险发生的危害。我方认为,跟上技术的发展,填补规则空白,在当前生成式AI风险防范中发挥着更关键和重要的作用。
首先,规则具有强制性和普适性,可以在风险发生之前对涉及的多方主体与环节进行统一有效的规范,减少AI风险发生的可能。从开发者如何规范研发,到使用者如何规范使用,再到监管者如何进行监督检查,都可涵盖在规则的约束范畴之内。
在开发者研发方面,我国国家网信部发布的《生成式人工智能服务管理暂行办法》明确了AI模型训练使用数据涉及个人信息的,应取得个人同意。在规则强制制约下,开发者就不能不经个人同意而使用用户信息,因此可以减少这类AI侵权风险。
在用户使用方面,《人工智能生成合成内容标识办法》规定,用户发布生成内容时,必须主动使用平台提供的标识功能,说明内容属性。在规则制约下,可以减少虚假信息传播风险。在其办法实施后,平台对AI生成的内容审核力度显著加强,例如微博对未标识的AI内容采取打标、限流、禁言、分级处理,今日头条2024年拦截不实信息超500万条,封禁造谣传播等违规账号超4.7万个。
其次,规则可以明确带来风险的主体应承担什么样的责任,提高人们的规范意识,降低风险发生的影响程度。在使用端,用户可能使用AI损害他人合法权益或生成虚假信息。如有使用者利用AI合成技术短时间生成大量虚假新闻进行传播,造成不良影响,可被我国相关办法纳入规范约束的范畴,用强制性的惩戒来警示使用者,防止风险的发生。
在开发端,若开发者没有进行标识审核,可被办法通过警告、罚款、暂停服务等方式承担行政责任,情节严重者甚至承担侮辱罪、损害商业信用的刑事责任。通过对研发者的威慑来防止风险的发生。风险降临时,规则可以对侵权人或公司做出处罚,减少风险造成的损害。
为了应对潜在风险,今年3月,意大利宣布暂停访问ChatGPT,原因是出于隐私担忧,认为没有法律证明用于训练ChatGPT的大规模数据是合法的。一些公司包括亚马逊、微软等,要求员工不要将敏感信息泄露。与此同时,三星也禁止员工使用生成式人工智能工具。因此,规则明确的边界为研发者与用户划定了需要承担的责任,明晰了需要承担的后果,有效控制了风险带来的损害。
所以我方坚定认为,生成式AI风险防范应以规则治理为核心。
感谢正方一辩的精彩发言。
感谢主席,问候在场各位。当前生成式人工智能发展迅速,从GPT到各类AI模型迭代迅猛,性能快速升级,但也引发了不少争议与风险。众多平台上线生成式AI绘画功能后,部分用户担心自身原创作品被剽窃给AI,此类与生成式AI有关的争议层出不穷。技术高速发展,但总有人试图利用技术谋取不合理利益,现有规则尚未能填补技术高速发展带来的风险空缺,让人们对生成式AI的未来充满担忧与不确定。
在这种背景下,风险防范不仅仅是要采取行动阻止风险损失的发生,更重要的是提高人们的规范意识,削弱风险发生的危害。我方认为,跟上技术的发展,填补规则空白,在当前生成式AI风险防范中发挥着更关键和重要的作用。
首先,规则具有强制性和普适性,可以在风险发生之前对涉及的多方主体与环节进行统一有效的规范,减少AI风险发生的可能。从开发者如何规范研发,到使用者如何规范使用,再到监管者如何进行监督检查,都可涵盖在规则的约束范畴之内。
在开发者研发方面,我国国家网信部发布的《生成式人工智能服务管理暂行办法》明确了AI模型训练使用数据涉及个人信息的,应取得个人同意。在规则强制制约下,开发者就不能不经个人同意而使用用户信息,因此可以减少这类AI侵权风险。
在用户使用方面,《人工智能生成合成内容标识办法》规定,用户发布生成内容时,必须主动使用平台提供的标识功能,说明内容属性。在规则制约下,可以减少虚假信息传播风险。在其办法实施后,平台对AI生成的内容审核力度显著加强,例如微博对未标识的AI内容采取打标、限流、禁言、分级处理,今日头条2024年拦截不实信息超500万条,封禁造谣传播等违规账号超4.7万个。
其次,规则可以明确带来风险的主体应承担什么样的责任,提高人们的规范意识,降低风险发生的影响程度。在使用端,用户可能使用AI损害他人合法权益或生成虚假信息。如有使用者利用AI合成技术短时间生成大量虚假新闻进行传播,造成不良影响,可被我国相关办法纳入规范约束的范畴,用强制性的惩戒来警示使用者,防止风险的发生。
在开发端,若开发者没有进行标识审核,可被办法通过警告、罚款、暂停服务等方式承担行政责任,情节严重者甚至承担侮辱罪、损害商业信用的刑事责任。通过对研发者的威慑来防止风险的发生。风险降临时,规则可以对侵权人或公司做出处罚,减少风险造成的损害。
为了应对潜在风险,今年3月,意大利宣布暂停访问ChatGPT,原因是出于隐私担忧,认为没有法律证明用于训练ChatGPT的大规模数据是合法的。一些公司包括亚马逊、微软等,要求员工不要将敏感信息泄露。与此同时,三星也禁止员工使用生成式人工智能工具。因此,规则明确的边界为研发者与用户划定了需要承担的责任,明晰了需要承担的后果,有效控制了风险带来的损害。
所以我方坚定认为,生成式AI风险防范应以规则治理为核心。
感谢正方一辩的精彩发言。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
通过规则对多方主体(开发者、使用者、监管者)的全流程规范,既从源头减少风险发生概率,又通过责任明确降低风险影响程度,最终论证生成式AI风险防范应以规则治理为核心。
反方二辩质询正方一辩时间为1分30秒,对被计时被质询方单边计时,好发言及计时有请。
你好,可以听到吗?
可以的。
你讲了很多规则性智力,那我问你什么叫技术性智力?
技术型治理就是让技术通过发展可以更高效和迅捷地达到某些效果。
好,那我问你了,在当下我们不应该有规则,就叫做更依赖规则形式的地方。我方说的是规则去填补没有被填补的空白部分,这个是规则形式里的发展。要填补空白的部分,也就是你方要新立啊,新制定一些规则对不对?
不仅仅在这里,我们现在可以发现很多法律法规有了之后,我们需要对它进行补充,所以不一定是完全的新建,也可以是基于基本法条补充,或者是通过灵活立法来进行一个迅速的管理。
灵活立法的问题后面给你讲到,我问你了,你也承认规则型治理的设立过程中,这是通过惩罚,没问题吧?我方说的是两个部分,第一个叫做通过明确你的义务是什么,第二点叫做威慑,你告诉你你的义务,但是如果你不做到的话,我就要罚你。
还是罚嘛,没问题。我就一个跟你聊,你具体想解决哪些东西。
我方当然是想解决它带来的,比如说AI侵权问题,或者是它带来的一些隐私泄露问题,或者是抄袭问题等等,内容很多。
我这样跟你聊吧,我一直跟你聊,我跟你聊先聊AI的内生性问题好了,你告诉我算法相似度打算怎么管?
内生性问题是什么啊,我不太理解这个。那我问你算法导致AI的算法不透明,导致可解释性差,这件事情制度怎么管?
这个有什么问题呢?就是可以将它生成一个新的内容,大家需要生成的新的内容,我不太理解这里的问题在哪里。
嗯,大家觉得AI的AI模型可解释性差,就是现在公认的AI风险,那这件事情制度打算怎么管理?就是大家不理解,这不是风险防范,就大家不理解,那就让他再给一遍解释,这个不属于我们跟他讨论范畴。我们AI给不出来这个解释,但是大家又希望有这个解释,这个时候就会出现AI的商业风险,这个风险你刚刚解决不了。
我这样问你了,AI换脸在过去没有AI的时候有没有换脸的问题啊?首先回答你告诉我就是这个风险,它并不是我们今天担忧的,比如说侵权、隐私等等问题。就是您方需要解释,为什么大家不理解AI,他甚至在后面是你告诉我AI换脸,你在AI没用出来之前有没有换脸技术?
换脸技术,如果你觉得是的话,嗯,对。所以在AI出来之前,我们也有换脸技术,这本质上就是个名誉侵权的问题,法律在这里没有什么作用。可是如果技术不更新迭代,不去查处的话,你怎么知道它是换脸了还是别的什么?
哦,不对,最开始对于AI换脸技术,当你发现它侵权的时候,法律是可以管的。现在AI换脸是因为它的技术在不断的更新,而如果你仅仅是通过技术在不断更新,因为会导致侵权行为不断出现,只有规则进一步的明确,才能够从根本上解决问题,只是一味地让双方都在进步是没有作用的。已经明确了不允许侵犯名誉权,但是AI恰恰是让每个人都知道这个技术的存在,所以问题出现了复杂化和多样化,这个时候没有技术的发展,规则在那里也没有办法设立实施。
我在二三年某阴某被侵权的时候被换脸了,他被声音被告了。
反方二辩质询正方一辩时间为1分30秒,对被计时被质询方单边计时,好发言及计时有请。
你好,可以听到吗?
可以的。
你讲了很多规则性智力,那我问你什么叫技术性智力?
技术型治理就是让技术通过发展可以更高效和迅捷地达到某些效果。
好,那我问你了,在当下我们不应该有规则,就叫做更依赖规则形式的地方。我方说的是规则去填补没有被填补的空白部分,这个是规则形式里的发展。要填补空白的部分,也就是你方要新立啊,新制定一些规则对不对?
不仅仅在这里,我们现在可以发现很多法律法规有了之后,我们需要对它进行补充,所以不一定是完全的新建,也可以是基于基本法条补充,或者是通过灵活立法来进行一个迅速的管理。
灵活立法的问题后面给你讲到,我问你了,你也承认规则型治理的设立过程中,这是通过惩罚,没问题吧?我方说的是两个部分,第一个叫做通过明确你的义务是什么,第二点叫做威慑,你告诉你你的义务,但是如果你不做到的话,我就要罚你。
还是罚嘛,没问题。我就一个跟你聊,你具体想解决哪些东西。
我方当然是想解决它带来的,比如说AI侵权问题,或者是它带来的一些隐私泄露问题,或者是抄袭问题等等,内容很多。
我这样跟你聊吧,我一直跟你聊,我跟你聊先聊AI的内生性问题好了,你告诉我算法相似度打算怎么管?
内生性问题是什么啊,我不太理解这个。那我问你算法导致AI的算法不透明,导致可解释性差,这件事情制度怎么管?
这个有什么问题呢?就是可以将它生成一个新的内容,大家需要生成的新的内容,我不太理解这里的问题在哪里。
嗯,大家觉得AI的AI模型可解释性差,就是现在公认的AI风险,那这件事情制度打算怎么管理?就是大家不理解,这不是风险防范,就大家不理解,那就让他再给一遍解释,这个不属于我们跟他讨论范畴。我们AI给不出来这个解释,但是大家又希望有这个解释,这个时候就会出现AI的商业风险,这个风险你刚刚解决不了。
我这样问你了,AI换脸在过去没有AI的时候有没有换脸的问题啊?首先回答你告诉我就是这个风险,它并不是我们今天担忧的,比如说侵权、隐私等等问题。就是您方需要解释,为什么大家不理解AI,他甚至在后面是你告诉我AI换脸,你在AI没用出来之前有没有换脸技术?
换脸技术,如果你觉得是的话,嗯,对。所以在AI出来之前,我们也有换脸技术,这本质上就是个名誉侵权的问题,法律在这里没有什么作用。可是如果技术不更新迭代,不去查处的话,你怎么知道它是换脸了还是别的什么?
哦,不对,最开始对于AI换脸技术,当你发现它侵权的时候,法律是可以管的。现在AI换脸是因为它的技术在不断的更新,而如果你仅仅是通过技术在不断更新,因为会导致侵权行为不断出现,只有规则进一步的明确,才能够从根本上解决问题,只是一味地让双方都在进步是没有作用的。已经明确了不允许侵犯名誉权,但是AI恰恰是让每个人都知道这个技术的存在,所以问题出现了复杂化和多样化,这个时候没有技术的发展,规则在那里也没有办法设立实施。
我在二三年某阴某被侵权的时候被换脸了,他被声音被告了。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
反方一辩进行开篇陈词,时间同样为3分钟,计时开始。
感谢主席,问候在场各位。生成式人工智能,是指能依据提示或指定自动生成文本、图像等内容的人工智能系统,其风险既源于技术本身的缺陷,也源于技术的滥用。规则形式强调构建新规则、新法律进行约束和管理,而技术形式强调研发新算法、新程序等技术手段,来预防和降低生成式人工智能可能带来的负面影响。在当前技术飞速迭代的背景下,技术手段更能应对现实困境,我方认为技术形式是更优的选择。论证如下:
首先,技术会有缺陷,最终需要技术突破来根治。生成式人工智能的自身风险,既包括AI幻觉导致的内容失真等内生问题,也涵盖国际技术壁垒引发的发展安全隐患。从技术内生性来看,AI本质上是算法逻辑与训练数据共同作用的产物。以GPT模型为例,OpenAI通过引入不确定奖励机制、改革评估体系等技术手段,GPT-5的幻觉率下降65%,错误行为率9%,显著低于GPT-3的86.7%。这种风险缓解并非依赖技术约束,而是算法优化和技术升级的直接成果。从国际风险维度看,当前西方对AI核心技术实施共享限制,我国面临严重资源短缺和技术瓶颈。白皮书显示,86%的中国AI开发者依赖外国系统技术,技术依赖将导致我国在国际价值分工中丧失主动权。因此,正如在国际技术垄断下通过降本增效的技术创新实现突破那样,唯有技术突破才能打破垄断困境。而依赖规则的治理显得束手束脚,法律条文无法直接改写模型参数与消除AI幻觉,也不能替代算法迭代、突破技术封锁。正如医学领域无法靠立法治愈疾病那样,技术往往才是核心手段。
其次,技术应用风险方面,技术迭代速度远超规则更新速度。规则形式以立法追赶性为主,而生成式人工智能的技术迭代以月为单位,法律修订往往需要数年周期。2021年欧盟AI草案公布后,因生成式AI的三次技术跳跃,被迫三次大修。例如监管对象从通用人工智能改为基础模型,最后在高性能资源模型发布后改回通用人工智能。这种反复调整不仅消耗大量立法资源,更导致企业始终处于合规的不确定性中。更值得警惕的是,过早固化规则可能引发技术锁定效应。欧盟对数据使用的严格限制,客观上强化了拥有海量数据的科技巨头优势,压制了中小企业创新空间。当规则试图为技术预设路径时,本质上是用框架束缚动态发展,这与人工智能的进化逻辑根本冲突。
技术形式则相反,在市场机制下,企业为了在竞争中脱颖而出,会在追求技术创新的同时追求风险防控。曾被欧盟AI草案列为高风险的深度伪造问题,到2024年,多款开源工具已在社交平台实现自动识别,将风险控制在日常审核级别。可见,在市场环境下,开发者为了满足民众对安全管控的需求,会自动投入研发力量进行风险防控,实现产业发展和风险防控的平衡。
感谢反方一辩。
反方一辩进行开篇陈词,时间同样为3分钟,计时开始。
感谢主席,问候在场各位。生成式人工智能,是指能依据提示或指定自动生成文本、图像等内容的人工智能系统,其风险既源于技术本身的缺陷,也源于技术的滥用。规则形式强调构建新规则、新法律进行约束和管理,而技术形式强调研发新算法、新程序等技术手段,来预防和降低生成式人工智能可能带来的负面影响。在当前技术飞速迭代的背景下,技术手段更能应对现实困境,我方认为技术形式是更优的选择。论证如下:
首先,技术会有缺陷,最终需要技术突破来根治。生成式人工智能的自身风险,既包括AI幻觉导致的内容失真等内生问题,也涵盖国际技术壁垒引发的发展安全隐患。从技术内生性来看,AI本质上是算法逻辑与训练数据共同作用的产物。以GPT模型为例,OpenAI通过引入不确定奖励机制、改革评估体系等技术手段,GPT-5的幻觉率下降65%,错误行为率9%,显著低于GPT-3的86.7%。这种风险缓解并非依赖技术约束,而是算法优化和技术升级的直接成果。从国际风险维度看,当前西方对AI核心技术实施共享限制,我国面临严重资源短缺和技术瓶颈。白皮书显示,86%的中国AI开发者依赖外国系统技术,技术依赖将导致我国在国际价值分工中丧失主动权。因此,正如在国际技术垄断下通过降本增效的技术创新实现突破那样,唯有技术突破才能打破垄断困境。而依赖规则的治理显得束手束脚,法律条文无法直接改写模型参数与消除AI幻觉,也不能替代算法迭代、突破技术封锁。正如医学领域无法靠立法治愈疾病那样,技术往往才是核心手段。
其次,技术应用风险方面,技术迭代速度远超规则更新速度。规则形式以立法追赶性为主,而生成式人工智能的技术迭代以月为单位,法律修订往往需要数年周期。2021年欧盟AI草案公布后,因生成式AI的三次技术跳跃,被迫三次大修。例如监管对象从通用人工智能改为基础模型,最后在高性能资源模型发布后改回通用人工智能。这种反复调整不仅消耗大量立法资源,更导致企业始终处于合规的不确定性中。更值得警惕的是,过早固化规则可能引发技术锁定效应。欧盟对数据使用的严格限制,客观上强化了拥有海量数据的科技巨头优势,压制了中小企业创新空间。当规则试图为技术预设路径时,本质上是用框架束缚动态发展,这与人工智能的进化逻辑根本冲突。
技术形式则相反,在市场机制下,企业为了在竞争中脱颖而出,会在追求技术创新的同时追求风险防控。曾被欧盟AI草案列为高风险的深度伪造问题,到2024年,多款开源工具已在社交平台实现自动识别,将风险控制在日常审核级别。可见,在市场环境下,开发者为了满足民众对安全管控的需求,会自动投入研发力量进行风险防控,实现产业发展和风险防控的平衡。
感谢反方一辩。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
在当前技术飞速迭代的背景下,何种形式更能应对生成式人工智能带来的现实困境
质询反方应变规则同上,时间同样是1分30秒,发音及计时有请。
可以听到吗?
可以的。
我首先请问你,你觉得规则可以涵盖什么?您可不可以给我举个具体例子?
我刚才说法律肯定是规则吗?
法律是规则的一种,等不等于规则?
只能说法律是规则的一部分,当然不完全等于。
你现在发现了吗?你方所谓的死的法律也只是规则的一部分。
我进一步问你,我今天立一个校规,规范AI相关的学术内容,可以吗?校规可不可以是规则的一部分?
要看你这个校规具体里面讲了些什么东西吧。
对,没关系。所以我们发现规则很广泛,我们以后会在具体的例子里跟你聊为什么有这么多东西都可以是规则的一部分,因为我们觉得今天规则的根本逻辑不在你方的静态,而在我方,所谓的规则是用来管人的。
我进一步跟你确认你方的技术型,在立论稿也说了,你们要有新算法和新技术,你们有技术突破,对不对?
对。
所以你们技术型的根本逻辑是用新的技术解决现有技术的问题,用技术制约技术,没问题吧?
也可以用既往存在的某些技术加强组合,通过反组合形成新的技术,可能可以解决动态的现在问题,就是要用新的技术,用技术的更新来治理旧的技术,没有问题。
所以说期待技术的突破是你方的根本逻辑,而我方觉得我们用规则管制人也可以解决很多问题。
我进一步问你,你方觉得AI和AIC将带来的风险是什么?
那是回答你们之前的问题吧。那您方今天跟我讲,我要规则管制人,那么你们这个规则也得是新出来的规则吧?
我来回答您方这个问题啊。
麻烦你方再重复一下问题吗?
你方觉得AIC将带来的具体风险是什么?
这种风险有很多,它的黑箱只是一个技术问题,因为它的黑箱存在,所以它的算法中间不透明度,你只能知道它的结果,而不知道它的过程,那你是不是没有办法知道这个结果到底是对是错,它的逻辑是什么样的呢?
所以你觉得AIC的风险是大家不信任AI吗?
不是,是它本身可能生成错误的结论,但我们不知道它是错的。生成错误的结论,我们不知道它是错误的,具体的危害体现在...是不是有很多?我给你举个例子吧。现在我是大学生,我用AI想要写一篇论文,它给我生成了错误的数据;我现在想用AI打辩论,它给我生成了一些错误的例子、错误的数据,我去使用这些东西不会带来很不好的危害吗?这就是风险其中一种吧。
嗯,对。所以你发现了,哪怕是你方概括指出的所谓黑箱,在具体例子里面带来的风险也是不同的。比如说你刚说的,我用这种不知道是真是假的数据放到我的论文里,可能会带来学术造假、学术不规范的问题,所以我必须进入到具体的例子来聊,具体的我们会给出什么样的规则。
以上。
质询反方应变规则同上,时间同样是1分30秒,发音及计时有请。
可以听到吗?
可以的。
我首先请问你,你觉得规则可以涵盖什么?您可不可以给我举个具体例子?
我刚才说法律肯定是规则吗?
法律是规则的一种,等不等于规则?
只能说法律是规则的一部分,当然不完全等于。
你现在发现了吗?你方所谓的死的法律也只是规则的一部分。
我进一步问你,我今天立一个校规,规范AI相关的学术内容,可以吗?校规可不可以是规则的一部分?
要看你这个校规具体里面讲了些什么东西吧。
对,没关系。所以我们发现规则很广泛,我们以后会在具体的例子里跟你聊为什么有这么多东西都可以是规则的一部分,因为我们觉得今天规则的根本逻辑不在你方的静态,而在我方,所谓的规则是用来管人的。
我进一步跟你确认你方的技术型,在立论稿也说了,你们要有新算法和新技术,你们有技术突破,对不对?
对。
所以你们技术型的根本逻辑是用新的技术解决现有技术的问题,用技术制约技术,没问题吧?
也可以用既往存在的某些技术加强组合,通过反组合形成新的技术,可能可以解决动态的现在问题,就是要用新的技术,用技术的更新来治理旧的技术,没有问题。
所以说期待技术的突破是你方的根本逻辑,而我方觉得我们用规则管制人也可以解决很多问题。
我进一步问你,你方觉得AI和AIC将带来的风险是什么?
那是回答你们之前的问题吧。那您方今天跟我讲,我要规则管制人,那么你们这个规则也得是新出来的规则吧?
我来回答您方这个问题啊。
麻烦你方再重复一下问题吗?
你方觉得AIC将带来的具体风险是什么?
这种风险有很多,它的黑箱只是一个技术问题,因为它的黑箱存在,所以它的算法中间不透明度,你只能知道它的结果,而不知道它的过程,那你是不是没有办法知道这个结果到底是对是错,它的逻辑是什么样的呢?
所以你觉得AIC的风险是大家不信任AI吗?
不是,是它本身可能生成错误的结论,但我们不知道它是错的。生成错误的结论,我们不知道它是错误的,具体的危害体现在...是不是有很多?我给你举个例子吧。现在我是大学生,我用AI想要写一篇论文,它给我生成了错误的数据;我现在想用AI打辩论,它给我生成了一些错误的例子、错误的数据,我去使用这些东西不会带来很不好的危害吗?这就是风险其中一种吧。
嗯,对。所以你发现了,哪怕是你方概括指出的所谓黑箱,在具体例子里面带来的风险也是不同的。比如说你刚说的,我用这种不知道是真是假的数据放到我的论文里,可能会带来学术造假、学术不规范的问题,所以我必须进入到具体的例子来聊,具体的我们会给出什么样的规则。
以上。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
graph TD
A[正方提问] -->|规则涵盖范围+举例| B[反方反问]
B -->|法律是否等于规则| C[正方确认法律是规则一部分⊣反方回避]
C -->|校规是否属于规则| D[反方要求具体内容]
D -->|正方提出规则广泛性主张| E[转向技术型治理逻辑]
E -->|确认技术型依赖新突破| F[反方承认技术组合创新]
F -->|提出规则管制人替代方案| G[反方反问规则时效性]
G -->|正方追问AIC风险| H[反方以黑箱问题回应]
H -->|正方归谬为信任问题| I[反方修正为错误结论风险]
I -->|反方举例学术数据错误| J[正方总结风险多样性需具体规则]
N辩手,下面有请反方二辩进行小结,时间为2分钟。
好,发言及计时开始。
谢谢主席,大家好。
第一件事情,对方没有进行比较。对方只是告诉我规则可以解决一些问题,我方完全承认规则确实能解决一些问题,但是你方没有说明为什么规则更重要。你方指出了两个点,只是告诉我规则能做什么,可是规则比技术更好以及相关论证,在我方这里是没有听到的。
第二件事情,你方告诉我规则,法律是规则的一种,还有其他的规则。可是规则无论如何,它是通过惩罚让人们害怕来实施治理效果的。你要讲其他的规则,你得告诉我为什么大家会听从和害怕。
第二件事情,你方告诉我规则也可以更新迭代得很快,可是你方知不知道规则更新迭代很快,最大的问题就是它的指引性。规则的指引性会带来不确定的预期,也就是说,在这样的指引之下,企业不知道什么能做,不知道什么不能做,在这种情况下,他们会趋向于选择一种更为安全、更为保守的发展路径,而这件事情并不利于当下中国的AI发展战略,这是您方规则性治理如果想要让它更新迭代更快的话,必须要承担的必然代价。
我跟你聊具体的风险好了。AI的风险我们完全可以把它分为三种。第一种就是AI模型的内生性风险,这种算法本身以及它的“AI幻觉”这样的问题,是基于AI的底层算法原理、架构导致的。在这种结构之下,我不知道你方的规则到底可以干什么,但恰恰是技术的方法可以告诉你怎么去降低这些问题的出现。你方担心无非是“黑箱”,为什么这算风险?很简单,当一个AI的结论要用于决策的时候,你是不是要保证这个结论至少为真?可是当现在这个事情无法做到的时候,你方这个时候风险就已经出现了。
第二件事情,我在跟你聊那些AI生成的不良内容问题,比如黄片。黄片的问题以前难道大家不治理吗?比如内容审核。没有AI,大家不治理名誉侵权吗?不是这样的,我们一直在治理。可是恰恰是AI的出现之后,让这些问题变得复杂化了,因为AI是每个人都可以使用的工具,所以问题会变得非常普遍。在普遍的情况下,规则可以不变,但是如果你的技术会发生新的变化,会在前端进行拦截,那风险就会得到缓解。
感谢反方二辩的发言。
N辩手,下面有请反方二辩进行小结,时间为2分钟。
好,发言及计时开始。
谢谢主席,大家好。
第一件事情,对方没有进行比较。对方只是告诉我规则可以解决一些问题,我方完全承认规则确实能解决一些问题,但是你方没有说明为什么规则更重要。你方指出了两个点,只是告诉我规则能做什么,可是规则比技术更好以及相关论证,在我方这里是没有听到的。
第二件事情,你方告诉我规则,法律是规则的一种,还有其他的规则。可是规则无论如何,它是通过惩罚让人们害怕来实施治理效果的。你要讲其他的规则,你得告诉我为什么大家会听从和害怕。
第二件事情,你方告诉我规则也可以更新迭代得很快,可是你方知不知道规则更新迭代很快,最大的问题就是它的指引性。规则的指引性会带来不确定的预期,也就是说,在这样的指引之下,企业不知道什么能做,不知道什么不能做,在这种情况下,他们会趋向于选择一种更为安全、更为保守的发展路径,而这件事情并不利于当下中国的AI发展战略,这是您方规则性治理如果想要让它更新迭代更快的话,必须要承担的必然代价。
我跟你聊具体的风险好了。AI的风险我们完全可以把它分为三种。第一种就是AI模型的内生性风险,这种算法本身以及它的“AI幻觉”这样的问题,是基于AI的底层算法原理、架构导致的。在这种结构之下,我不知道你方的规则到底可以干什么,但恰恰是技术的方法可以告诉你怎么去降低这些问题的出现。你方担心无非是“黑箱”,为什么这算风险?很简单,当一个AI的结论要用于决策的时候,你是不是要保证这个结论至少为真?可是当现在这个事情无法做到的时候,你方这个时候风险就已经出现了。
第二件事情,我在跟你聊那些AI生成的不良内容问题,比如黄片。黄片的问题以前难道大家不治理吗?比如内容审核。没有AI,大家不治理名誉侵权吗?不是这样的,我们一直在治理。可是恰恰是AI的出现之后,让这些问题变得复杂化了,因为AI是每个人都可以使用的工具,所以问题会变得非常普遍。在普遍的情况下,规则可以不变,但是如果你的技术会发生新的变化,会在前端进行拦截,那风险就会得到缓解。
感谢反方二辩的发言。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
(正方三辩做盘问小结,时间为2分钟,发言即计时)
我先来解释对面那个算法推箱的问题,它本质上是在说什么。他在把现在AI的精度不够、准确性还不够,通通叫做风险。所以今天关于风险防控,我方看到的是实实在在发生在现实社会的问题,对方只关注如果给了我一个假数据,我能不能不查验、能不能跳过查验那一步。所以这是本质上对方想用AI的发展等于AI的风险来论证这个事情,我方觉得很可笑。
回到下面一个问题:你方说学术造假,我方怎么解决?首先规则出台的第一步,当我的课任老师告诉我,你使用AI生成论文就会面临挂科的风险时,第一从威慑的作用已经达到了。而你方如果没有这个规则,你方只是在做无聊的“我查你查、降重你再查、我再降”的行为。你方不是没有解决力,你方是有解决力但没有做好,你方是根本没有解决力。
所以你方向我方问的是,我方可以解决所有的问题吗?我方坦然承认,没有,世界上没有任何一种违法犯罪是可以从根本上杜绝的,但是规则的处理上,我们能最大限度地去防范它。
什么意思?就像今天AI绘画,当我们意识到AI软件公司在没有经过任何画家版权授权的情况下,直接将其作品喂给AI训练时,我要告诉他的是,你不能这么做,你要么就去和他商量。可是没有规则前提下,公司会说“这是我的公司机密,我凭什么要把训练AI的数据给你来查看”,问题就在这里。而对于这部分AI,你方说要让它自由发展,而我方觉得如果一旦出现这个问题,我宁愿它不发展。所以某款AI软件最终因为规则直接下架了。
所以你方的意思是,我一定要AI发展,然后它可以代替我所有的方法,给我一个绝对正确的指令,可是本身就不可能。而我方的意思是人带来的问题由人解决。
(感谢正方三辩)
(正方三辩做盘问小结,时间为2分钟,发言即计时)
我先来解释对面那个算法推箱的问题,它本质上是在说什么。他在把现在AI的精度不够、准确性还不够,通通叫做风险。所以今天关于风险防控,我方看到的是实实在在发生在现实社会的问题,对方只关注如果给了我一个假数据,我能不能不查验、能不能跳过查验那一步。所以这是本质上对方想用AI的发展等于AI的风险来论证这个事情,我方觉得很可笑。
回到下面一个问题:你方说学术造假,我方怎么解决?首先规则出台的第一步,当我的课任老师告诉我,你使用AI生成论文就会面临挂科的风险时,第一从威慑的作用已经达到了。而你方如果没有这个规则,你方只是在做无聊的“我查你查、降重你再查、我再降”的行为。你方不是没有解决力,你方是有解决力但没有做好,你方是根本没有解决力。
所以你方向我方问的是,我方可以解决所有的问题吗?我方坦然承认,没有,世界上没有任何一种违法犯罪是可以从根本上杜绝的,但是规则的处理上,我们能最大限度地去防范它。
什么意思?就像今天AI绘画,当我们意识到AI软件公司在没有经过任何画家版权授权的情况下,直接将其作品喂给AI训练时,我要告诉他的是,你不能这么做,你要么就去和他商量。可是没有规则前提下,公司会说“这是我的公司机密,我凭什么要把训练AI的数据给你来查看”,问题就在这里。而对于这部分AI,你方说要让它自由发展,而我方觉得如果一旦出现这个问题,我宁愿它不发展。所以某款AI软件最终因为规则直接下架了。
所以你方的意思是,我一定要AI发展,然后它可以代替我所有的方法,给我一个绝对正确的指令,可是本身就不可能。而我方的意思是人带来的问题由人解决。
(感谢正方三辩)
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
(正方四辩发言)下面由双方四辩进行对辩环节,每人各有一分30秒,由正方先开始发言。
(反方四辩)可以听得到吗?
(正方四辩)可以的,听得到。好,我方现在发现现在有很多违法AI的公司,他们就是用那些没有经过别人允许就使用的数据权限,侵犯别人隐私权。“怕”这个东西出在这里,让他们不敢去逾越雷池,这为什么不是一件好事?所以我们可以达成共识的呀,今天我们需要有一个规则,它得是明确责任的。
(反方四辩)在2023年的量在突破事件中,顶级顶尖医疗AI时不时会出现那些过时的治疗方案,这部分安全算法黑箱的风险,你方考虑吗?还不打算根治?
(正方四辩)我方并不觉得是个风险问题。我方发现现在我们不允许直接用AI的诊断方法去治疗病人,就是我方觉得这现在规则已经很好了。
(反方四辩)所以我来问你强制性的问题,就算有一个AI很先进,它能够解决很多问题,那么如果一家公司掌握了非常先进的AI技术,它可能给全世界去共享它的技术吗?
(正方四辩)当然不可能,这也是我方要讲的国际的风险。今天如果你有技术,我没技术,这也是一种风险,那难道你方就不考虑那些医疗方案导致严重安全隐患吗?
(反方四辩)这当然是有风险。
(正方四辩)接下来问你方技术应用的风险。以前也有不能抄袭的规则,为什么近几年AI抄袭的问题屡禁不绝呢?我方恰恰发现的是以前比如说您刚刚说的那个P图的东西,不是所有人都可以,但现在AI导致的所有人只要一键就可以了,就是我方觉得规则需要限制的问题。
(反方四辩)回到你刚刚那个医疗的问题,我觉得解释已经很清楚了,叫做我方现在至少不可能用AI去进行一个病例的治疗,所以还是回到强制这个东西。现在我们发现我们现在规则统一,比如说我国实行的暂停方法,就可以让我国的所有的AI的一些比较优秀的东西进行一个普适的公布。如果没有规则性的强制性,如何达成这样的一个效果呢?
(正方四辩)所以首先您方也发现,您方也倡导用消费者运用技术去抵御这块的风险,就是因为之前也有规则,这个规则失灵了嘛。
(反方四辩)接下来再问您方,今天人工智能生成内容标签到2025年才生效,在2023年抖音就上线了AI打标功能,这难道不是在驱动企业进行技术治理吗?不是也达到效果了吗?
(正方四辩)所以辩友,所以还是,您方刚开始觉得那个问题也是一样的,我方告诉你规则缺陷,所以现在需要完善规则。可是我方发现,在现在时代进步的今天,一个AI的灵活立法,三十天就可以出一个行政法规,就是我们现在需要做的一个快速的更新迭代问题。对,所以发现了没有,今天2025年才生效的法律,2023年企业就自我进行治理了,市场会解决这部分问题,这没有什么不好。
(反方四辩)接下来我们再聊一下您方提到的国家层面的风险。以前我们说核武器风险,是不是也包括没有核武器被其他国家卡脖子的风险?今天我们恰恰看到今天基础算法国产率仅有28%,这部分我没技术,你有技术的风险,也是AI的内生风险,是我们需要重点进行讨论的。
(正方四辩)接下来再来说算法黑箱问题,只有技术才能解决这个问题,这不是一个问题,民风也,第一章是要继续解决这个问题,小。
(正方四辩发言)下面由双方四辩进行对辩环节,每人各有一分30秒,由正方先开始发言。
(反方四辩)可以听得到吗?
(正方四辩)可以的,听得到。好,我方现在发现现在有很多违法AI的公司,他们就是用那些没有经过别人允许就使用的数据权限,侵犯别人隐私权。“怕”这个东西出在这里,让他们不敢去逾越雷池,这为什么不是一件好事?所以我们可以达成共识的呀,今天我们需要有一个规则,它得是明确责任的。
(反方四辩)在2023年的量在突破事件中,顶级顶尖医疗AI时不时会出现那些过时的治疗方案,这部分安全算法黑箱的风险,你方考虑吗?还不打算根治?
(正方四辩)我方并不觉得是个风险问题。我方发现现在我们不允许直接用AI的诊断方法去治疗病人,就是我方觉得这现在规则已经很好了。
(反方四辩)所以我来问你强制性的问题,就算有一个AI很先进,它能够解决很多问题,那么如果一家公司掌握了非常先进的AI技术,它可能给全世界去共享它的技术吗?
(正方四辩)当然不可能,这也是我方要讲的国际的风险。今天如果你有技术,我没技术,这也是一种风险,那难道你方就不考虑那些医疗方案导致严重安全隐患吗?
(反方四辩)这当然是有风险。
(正方四辩)接下来问你方技术应用的风险。以前也有不能抄袭的规则,为什么近几年AI抄袭的问题屡禁不绝呢?我方恰恰发现的是以前比如说您刚刚说的那个P图的东西,不是所有人都可以,但现在AI导致的所有人只要一键就可以了,就是我方觉得规则需要限制的问题。
(反方四辩)回到你刚刚那个医疗的问题,我觉得解释已经很清楚了,叫做我方现在至少不可能用AI去进行一个病例的治疗,所以还是回到强制这个东西。现在我们发现我们现在规则统一,比如说我国实行的暂停方法,就可以让我国的所有的AI的一些比较优秀的东西进行一个普适的公布。如果没有规则性的强制性,如何达成这样的一个效果呢?
(正方四辩)所以首先您方也发现,您方也倡导用消费者运用技术去抵御这块的风险,就是因为之前也有规则,这个规则失灵了嘛。
(反方四辩)接下来再问您方,今天人工智能生成内容标签到2025年才生效,在2023年抖音就上线了AI打标功能,这难道不是在驱动企业进行技术治理吗?不是也达到效果了吗?
(正方四辩)所以辩友,所以还是,您方刚开始觉得那个问题也是一样的,我方告诉你规则缺陷,所以现在需要完善规则。可是我方发现,在现在时代进步的今天,一个AI的灵活立法,三十天就可以出一个行政法规,就是我们现在需要做的一个快速的更新迭代问题。对,所以发现了没有,今天2025年才生效的法律,2023年企业就自我进行治理了,市场会解决这部分问题,这没有什么不好。
(反方四辩)接下来我们再聊一下您方提到的国家层面的风险。以前我们说核武器风险,是不是也包括没有核武器被其他国家卡脖子的风险?今天我们恰恰看到今天基础算法国产率仅有28%,这部分我没技术,你有技术的风险,也是AI的内生风险,是我们需要重点进行讨论的。
(正方四辩)接下来再来说算法黑箱问题,只有技术才能解决这个问题,这不是一个问题,民风也,第一章是要继续解决这个问题,小。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方三辩:对方辩友,你觉得内生技术的发展可以解决我写论文会出错、数据出错这个问题,对吧?
反方:没有太懂,明讲的什么意思。你刚才说黑箱算法,提到的问题是可能现在我写论文会出错,那你是不是要通过技术来确保AI生成的论文不出错?
正方三辩:我方观点是,AI可以作为工具提供参考,但不要求它百分百正确。你方要求AI百分百对本身就是有问题的。
反方:我问你,现在AI让我生成一篇不出错的论文,这是好事。你为什么非要纠结于写论文,把它换成一个科研项目,它就是好事啊。所以它今天可以不用我做实验,直接推导出来一个正确的数据,很多实验室就在用AI,比如严明的那个实验室就在用AI去模拟,但还是无法完全替代实实在在的实验。
正方三辩:我接下来问你,今天我用AI生成一篇学术论文,涉及学术造假,你怎么用技术解决这个问题?
反方:很简单啊,AI生成的论文可以用识别AI的工具。现在不仅有AI查重工具,还有AI降重工具,我用AI降重工具把AI生成的论文修改后,AI查重工具就查不出来了。
正方三辩:在你的态度下,查都查不出来,规则怎么执行?你知道问题在哪里吗?问题在于你方依赖技术对抗,技术最大的问题在于需要不断有新技术出现来应对旧技术,而对方的技术也在迭代,你们只是在做军备竞赛。
反方:当我的老师一开始跟我说,结课论文一旦使用AI立马挂科时,相信大部分人就不敢做了,这就是惩戒的作用。为什么不好?太荒谬了,我查都查不过来,你凭什么查我呀?
正方三辩:对面的意思就是说,管不到就不要管,管不到就一直等到最新的技术发展出来,时间到。
正方三辩:对方辩友,你觉得内生技术的发展可以解决我写论文会出错、数据出错这个问题,对吧?
反方:没有太懂,明讲的什么意思。你刚才说黑箱算法,提到的问题是可能现在我写论文会出错,那你是不是要通过技术来确保AI生成的论文不出错?
正方三辩:我方观点是,AI可以作为工具提供参考,但不要求它百分百正确。你方要求AI百分百对本身就是有问题的。
反方:我问你,现在AI让我生成一篇不出错的论文,这是好事。你为什么非要纠结于写论文,把它换成一个科研项目,它就是好事啊。所以它今天可以不用我做实验,直接推导出来一个正确的数据,很多实验室就在用AI,比如严明的那个实验室就在用AI去模拟,但还是无法完全替代实实在在的实验。
正方三辩:我接下来问你,今天我用AI生成一篇学术论文,涉及学术造假,你怎么用技术解决这个问题?
反方:很简单啊,AI生成的论文可以用识别AI的工具。现在不仅有AI查重工具,还有AI降重工具,我用AI降重工具把AI生成的论文修改后,AI查重工具就查不出来了。
正方三辩:在你的态度下,查都查不出来,规则怎么执行?你知道问题在哪里吗?问题在于你方依赖技术对抗,技术最大的问题在于需要不断有新技术出现来应对旧技术,而对方的技术也在迭代,你们只是在做军备竞赛。
反方:当我的老师一开始跟我说,结课论文一旦使用AI立马挂科时,相信大部分人就不敢做了,这就是惩戒的作用。为什么不好?太荒谬了,我查都查不过来,你凭什么查我呀?
正方三辩:对面的意思就是说,管不到就不要管,管不到就一直等到最新的技术发展出来,时间到。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
(注:攻防转换节点分别为第2轮场景转移、第3轮问题切换、第5轮本质揭露、第6轮解决方案转换)
对方今天说人类带来的问题就应该由人来解决,可问题在于,今天AI的风险不完全都是人类带来的。
我方今天告诉你,2021年1月20日万方平台上线的算法黑箱成因风险,学术界普遍认为这是AI需要面临的风险,而您方却认为不是,您觉得问题出在哪里呢?
那解决您方的第一个问题:您方整篇论证告诉我,我们可以用新的规则来填补空白,所以问题就被解决了。可是具体有什么规则填补了什么空白,如何填补这些空白,您方通篇都没有讲过。您举的例子是“今天我的老师说你不要用AI造假”,这并不能算作您方所说的规则形式。
我们的问题又来了:今天是不是导师让我不做,我就一定不做呢?以前老师还叫我不要抄袭,我是不是就不抄袭了呢?所以我们看到,您方的论述从根本上就存在问题。您方认为规则只要能起到监管效果,至少能识别出有问题的行为,才算有效。但识别和监管难道不需要借助AI技术吗?在这一点上,您方的论述也不够充分。
第二个问题,您方认为在当前社会条件下,我们不应该因为AI不明白就放弃使用,而应推动其继续发展,因为发展程度不到位。但如果按照您方的心态,只要出了问题就用规则去管,就会导致大量企业因合规成本过高而放弃有规则的领域,而转向规则较新的地方。这种现象在欧盟已经非常普遍,尤其是在德国,由于欧盟提出相关立法,导致很多企业外流。这种风险您看好吗?
对方今天说人类带来的问题就应该由人来解决,可问题在于,今天AI的风险不完全都是人类带来的。
我方今天告诉你,2021年1月20日万方平台上线的算法黑箱成因风险,学术界普遍认为这是AI需要面临的风险,而您方却认为不是,您觉得问题出在哪里呢?
那解决您方的第一个问题:您方整篇论证告诉我,我们可以用新的规则来填补空白,所以问题就被解决了。可是具体有什么规则填补了什么空白,如何填补这些空白,您方通篇都没有讲过。您举的例子是“今天我的老师说你不要用AI造假”,这并不能算作您方所说的规则形式。
我们的问题又来了:今天是不是导师让我不做,我就一定不做呢?以前老师还叫我不要抄袭,我是不是就不抄袭了呢?所以我们看到,您方的论述从根本上就存在问题。您方认为规则只要能起到监管效果,至少能识别出有问题的行为,才算有效。但识别和监管难道不需要借助AI技术吗?在这一点上,您方的论述也不够充分。
第二个问题,您方认为在当前社会条件下,我们不应该因为AI不明白就放弃使用,而应推动其继续发展,因为发展程度不到位。但如果按照您方的心态,只要出了问题就用规则去管,就会导致大量企业因合规成本过高而放弃有规则的领域,而转向规则较新的地方。这种现象在欧盟已经非常普遍,尤其是在德国,由于欧盟提出相关立法,导致很多企业外流。这种风险您看好吗?
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
你反方三辩盘问正方时间同样为1分30秒,正方选择哪位辩手进行接盘呢?
正方一辩:好。
提问方:提气时有请反方三辩。可以听得到我说话吗?
正方一辩:可以的啊。
提问方:好同学,先确认您方态度吧。您方今天需要给我论证的是,即您方的规则有解决力,您方更依赖什么?更依赖就在于你的技术只是在一个不断的迭代更新,你根本问题没有解决,根本问题只有技术才能解决,还是只有规则才能够解决?
正方一辩:不好意思,您方今天所谓的根本性问题,我们今天跟您谈好了。您方一直很喜欢谈的这个造假问题,今天是每个学校没有一条校规是管造假问题吗?还是?造假的问题在于它的根本错误是人发出的,而你技术就像刚刚我方三辩说的,它不断的更新的问题,你说对吗?没有AI之前有没有人造假?造假的程度是不一样的,AI让他们造假程度不一样,它的规格是您方的规则是怎么解决多出来这个部分的,所以规则在不断需要去填补空白了。
提问方:导师直接告诉那我我明白了,我明白了,所以说您方的态度是我会产生新的规则去解决这个新的问题,可是具体是什么,是新的规则,新的规则怎么起效果,您方都不打算说吗?我确认到这里。
第二个问题,您方今天我们今天跟你讲两部分问题吗?内生性问题,你方算法这一章听不懂,我现在这么跟你说,我们都是答辩的,答辩过程当中查数据,数据是假的,查出来我比赛会输,这是不是风险?
正方一辩:先回答上一个导师的那个新规定,说你不准用AI来就是新的规定,现在再回答你这个问题:叫做答辩了,你难道不应该有个诚挚的态度,自己再去搜一下吗?如果你就是一个为了图便捷的人,那你该输这场比赛,你又该出去,你就该自己去搜一下,所以说我理解下来,对方认为现在技术不足所带来的所有问题,我们都说不用AI来解决,对不对?
提问方:不是,我方告诉你的是技术,你在不断的一个相互对抗性生成当中无法解决,没办法,规则才是工作的,所以我就不要它了吗?那我们现在是不是所有人回到山洞里面去,绝对不会有学生作弊行为,根本上解决问题,所以我们正依赖回山洞,对不对?
正方一辩:不对。像刚刚你说的那个例子里面,我们AI规则是叫做你给出我原来的网页,我可以自己去查,所以它起到这个便捷作用,而规则才解决了造假的问题。
提问方:哦,您方退了,您方现在又说我们现在这个AI的生成可以有网页标准,网页是不是也是一种技术的进步?好,我接下来跟你讲运用的问题,比如说接下来,我们可以问题,原来也有法律,现在也有法律,这个增量您方怎么解决?所以在规则没有出现之前,没有商家主动去做这一步,没有商家主动去标识,这是AI生产,他们不需要投入成本所确认的,您方是说查的解决了,您只打算谈驱动力对不对?
正方一辩:那好,那我们后场跟你谈这个驱动力的问题,感谢。所以这就是一种解决力规则,谢谢。
你反方三辩盘问正方时间同样为1分30秒,正方选择哪位辩手进行接盘呢?
正方一辩:好。
提问方:提气时有请反方三辩。可以听得到我说话吗?
正方一辩:可以的啊。
提问方:好同学,先确认您方态度吧。您方今天需要给我论证的是,即您方的规则有解决力,您方更依赖什么?更依赖就在于你的技术只是在一个不断的迭代更新,你根本问题没有解决,根本问题只有技术才能解决,还是只有规则才能够解决?
正方一辩:不好意思,您方今天所谓的根本性问题,我们今天跟您谈好了。您方一直很喜欢谈的这个造假问题,今天是每个学校没有一条校规是管造假问题吗?还是?造假的问题在于它的根本错误是人发出的,而你技术就像刚刚我方三辩说的,它不断的更新的问题,你说对吗?没有AI之前有没有人造假?造假的程度是不一样的,AI让他们造假程度不一样,它的规格是您方的规则是怎么解决多出来这个部分的,所以规则在不断需要去填补空白了。
提问方:导师直接告诉那我我明白了,我明白了,所以说您方的态度是我会产生新的规则去解决这个新的问题,可是具体是什么,是新的规则,新的规则怎么起效果,您方都不打算说吗?我确认到这里。
第二个问题,您方今天我们今天跟你讲两部分问题吗?内生性问题,你方算法这一章听不懂,我现在这么跟你说,我们都是答辩的,答辩过程当中查数据,数据是假的,查出来我比赛会输,这是不是风险?
正方一辩:先回答上一个导师的那个新规定,说你不准用AI来就是新的规定,现在再回答你这个问题:叫做答辩了,你难道不应该有个诚挚的态度,自己再去搜一下吗?如果你就是一个为了图便捷的人,那你该输这场比赛,你又该出去,你就该自己去搜一下,所以说我理解下来,对方认为现在技术不足所带来的所有问题,我们都说不用AI来解决,对不对?
提问方:不是,我方告诉你的是技术,你在不断的一个相互对抗性生成当中无法解决,没办法,规则才是工作的,所以我就不要它了吗?那我们现在是不是所有人回到山洞里面去,绝对不会有学生作弊行为,根本上解决问题,所以我们正依赖回山洞,对不对?
正方一辩:不对。像刚刚你说的那个例子里面,我们AI规则是叫做你给出我原来的网页,我可以自己去查,所以它起到这个便捷作用,而规则才解决了造假的问题。
提问方:哦,您方退了,您方现在又说我们现在这个AI的生成可以有网页标准,网页是不是也是一种技术的进步?好,我接下来跟你讲运用的问题,比如说接下来,我们可以问题,原来也有法律,现在也有法律,这个增量您方怎么解决?所以在规则没有出现之前,没有商家主动去做这一步,没有商家主动去标识,这是AI生产,他们不需要投入成本所确认的,您方是说查的解决了,您只打算谈驱动力对不对?
正方一辩:那好,那我们后场跟你谈这个驱动力的问题,感谢。所以这就是一种解决力规则,谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
攻防转换节点:
本界对双方各计时3分钟,由正方先开始发言。
有请。欧盟的AI法律出台之后,大量企业流向那些立法不完善的地方,你现在觉得这是一个好事儿。所以他到底应该……所以你方认为AI最应该发展的就是一个没有法律的社会,因为它可以自由自在地发展技术,对不对?
不对。所以你看到了法国的DL这样的AI公司搬到新加坡了,所以你看到欧盟的AI市场很烂,没什么新的作品,没什么突破性技术,这是你期待的吗?中国的AI市场吗?欧盟那边作品进展很慢,没有突破性技术,你方自己都没有提。你方只是说有一家公司搬到了新加坡,我问你,所以是不是越没有立法的地方,你方认为自己的AI发展基础是越好的?
不是。我方觉得双方都很重要,我方完全不打算否认规则。可是你也要看到,欧盟现在的合规成本非常高,DL这样的公司已经搬到了新加坡,大量的欧盟的好的东西在外流。而欧盟你告诉我,它有什么很厉害的AI技术吗?所以你方觉得是立法限制AI发展,可是国务院在2025年的立法工作计划将人工智能法改为了推进人工智能健康发展立法工作制,所以发现没有,它其实在倡导的是我们可以动态监测AI的真实风险,而不是一刀切,这就可以解决规则限制技术带来的问题。而你方的观点也可以解决吗?在回答我方的问题好了,如果出问题的是人在不断地用AI做坏的事情,你方应该怎么限制他?
嗯,所以你方也发现了规则治理生效的条件是惩罚。如果你方不打算惩罚他,规则没有问题,它怎么治理的,你告诉我。你们刚刚一直在说搬到新加坡,可是新加坡关于人工智能监管机构和这方面的规则恰恰是非常完善的,他们设立专门的人工智能监管机构,加强监管,所以说你会了,是不是你也发现了,没有哪个地方好的发展是能够脱离规则的?
我进一步往下问你,我们现在主要面临的问题是什么?我们举出来的这些比如侵权等等这些问题,你真的是觉得技术发展还不够,所以才导致我们这么多的人产生这些问题吗?
高票,我刚什么时候说到脱离规则?你方自己说了,因为这个地方规则太严了,所以我去一个规则不严的地方。可是恰恰新加坡的那个规则是最严的,所以那些大公司巴不得去找到一个规则真正能促进我发展的地区发展。
我继续来问你好了,比如网易的那个AI公司,它没有经过画手的同意,就把他的画塞给AI了,这部分的技术风险怎么用技术来填补?第一,新加坡的规则最严是你方口中的,所有的学界论文告诉你的都是欧盟管理更严,你觉得新加坡管理更严,你给我举实证。
第二个我刚提到的就是人的问题,所以大家都叫我们高考不要作弊,还是有很多人要带作弊工具进去啊,这时候你不依赖技术怎么办?所以恰恰是AI让这个办法的成本大大降低了,让每一个人都有可能拿起这个工具,这个时候已经有了监管制度很完善了,你不突破技术,你不做前端识别,怎么管这个问题?
规则的多少不代表你完善。那我刚才二辩举的那一堆数据是什么,你继续来回答我这个问题:如果这个公司他没有经过画师的同意,就把他的画塞在了素材库里面,你方技术要怎么解决这个问题,识别这幅画不让它加入素材库?我跟你说,AI数据的学习是否要支付版权,这在法律上本来就没有规则规定,所以在这种情况下,你方如果一定要立法,你得告诉我立法的合理性以及必要性在哪,因为这些画师他不想自己的画变成AI的素材,这是他自己的知识产权,他就是被侵犯了。你方跟我说这方面法律不成熟,所以就要进行立法吗?
我来继续问你这个问题,立法不完善的地方,那个公司会说我的素材库是我的公司机密,凭什么要给你看,就是连查证都没有办法查证的事情,你方用技术怎么发展呀?在法律没有规定AI学习的这个部分的时候,有很多平台是怎么做的,是他们画师自己联合去反对这件事情,这件事情也得到解决了。所以你看现在在法律没有明确规定的时候,市场也能够解决问题,你方的解决力没有那么有必要。
所以我再问你了,在现在黄片这么泛滥的情况,在这种AI换脸比较泛滥的情况下,你不通过前端的技术识别,你怎么抓吗?
好奇怪,那群画师联合起来说,我觉得你的公司抄袭了我的作品,说我的素材不是我的机密,你不能看,这涉及公司的利益,它怎么解决?所以它最后是通过什么样的方式解决?是有一个规则,强制性地说这个软件你不能再发展,就像网易那个AI绘画软件一样,它最后下架了,这才恰恰是我方最后的一层底价,叫做什么,如果这个东西它真的引起了这么大的风险,我宁愿让它束缚在规则里面稳稳地前进,也不要它没有规则肆意地发展。
你只是看到了结果,但结果是由规则解决的吗?在现在知识产权法里面都没有明确规定机器学习使用是否需要付费,以及这一系列的规则都没有明确规定的时候,你怎么可以说规则在解决这件事情?而那个时候我们恰恰发现了,即使规则不存在,市场也能够解决这些问题,那些敏感的用户自己选择放弃这个平台,与平台去博弈,市场反馈同样可以解决这些存在争议的问题。我方态度很简单,在存在争议的地方,你让他们市场自由博弈就够了。
在涉及公序良俗的地方,我方认为规则确实有效,没问题,可是在那些问题上面恰恰是,AI让这个问题复杂化了,让每个人都可以创作黄色小说进行AI换脸,在没有进行识别的情况之下,规则在那里,反名誉侵权的规则在那里,反对自己的规则在那里,不需要你再增加什么新的东西,恰恰是只有技术治理才能够解决这个问题。
最后我们总结的时候再跟你讲,在当前中美发展的战略之下,AI战略以及AI发展方向到底是怎么样的,它期待的一定不是像你方那样,我们要一个保守的、像欧盟这样子,没有一个好的AI问世的。
本界对双方各计时3分钟,由正方先开始发言。
有请。欧盟的AI法律出台之后,大量企业流向那些立法不完善的地方,你现在觉得这是一个好事儿。所以他到底应该……所以你方认为AI最应该发展的就是一个没有法律的社会,因为它可以自由自在地发展技术,对不对?
不对。所以你看到了法国的DL这样的AI公司搬到新加坡了,所以你看到欧盟的AI市场很烂,没什么新的作品,没什么突破性技术,这是你期待的吗?中国的AI市场吗?欧盟那边作品进展很慢,没有突破性技术,你方自己都没有提。你方只是说有一家公司搬到了新加坡,我问你,所以是不是越没有立法的地方,你方认为自己的AI发展基础是越好的?
不是。我方觉得双方都很重要,我方完全不打算否认规则。可是你也要看到,欧盟现在的合规成本非常高,DL这样的公司已经搬到了新加坡,大量的欧盟的好的东西在外流。而欧盟你告诉我,它有什么很厉害的AI技术吗?所以你方觉得是立法限制AI发展,可是国务院在2025年的立法工作计划将人工智能法改为了推进人工智能健康发展立法工作制,所以发现没有,它其实在倡导的是我们可以动态监测AI的真实风险,而不是一刀切,这就可以解决规则限制技术带来的问题。而你方的观点也可以解决吗?在回答我方的问题好了,如果出问题的是人在不断地用AI做坏的事情,你方应该怎么限制他?
嗯,所以你方也发现了规则治理生效的条件是惩罚。如果你方不打算惩罚他,规则没有问题,它怎么治理的,你告诉我。你们刚刚一直在说搬到新加坡,可是新加坡关于人工智能监管机构和这方面的规则恰恰是非常完善的,他们设立专门的人工智能监管机构,加强监管,所以说你会了,是不是你也发现了,没有哪个地方好的发展是能够脱离规则的?
我进一步往下问你,我们现在主要面临的问题是什么?我们举出来的这些比如侵权等等这些问题,你真的是觉得技术发展还不够,所以才导致我们这么多的人产生这些问题吗?
高票,我刚什么时候说到脱离规则?你方自己说了,因为这个地方规则太严了,所以我去一个规则不严的地方。可是恰恰新加坡的那个规则是最严的,所以那些大公司巴不得去找到一个规则真正能促进我发展的地区发展。
我继续来问你好了,比如网易的那个AI公司,它没有经过画手的同意,就把他的画塞给AI了,这部分的技术风险怎么用技术来填补?第一,新加坡的规则最严是你方口中的,所有的学界论文告诉你的都是欧盟管理更严,你觉得新加坡管理更严,你给我举实证。
第二个我刚提到的就是人的问题,所以大家都叫我们高考不要作弊,还是有很多人要带作弊工具进去啊,这时候你不依赖技术怎么办?所以恰恰是AI让这个办法的成本大大降低了,让每一个人都有可能拿起这个工具,这个时候已经有了监管制度很完善了,你不突破技术,你不做前端识别,怎么管这个问题?
规则的多少不代表你完善。那我刚才二辩举的那一堆数据是什么,你继续来回答我这个问题:如果这个公司他没有经过画师的同意,就把他的画塞在了素材库里面,你方技术要怎么解决这个问题,识别这幅画不让它加入素材库?我跟你说,AI数据的学习是否要支付版权,这在法律上本来就没有规则规定,所以在这种情况下,你方如果一定要立法,你得告诉我立法的合理性以及必要性在哪,因为这些画师他不想自己的画变成AI的素材,这是他自己的知识产权,他就是被侵犯了。你方跟我说这方面法律不成熟,所以就要进行立法吗?
我来继续问你这个问题,立法不完善的地方,那个公司会说我的素材库是我的公司机密,凭什么要给你看,就是连查证都没有办法查证的事情,你方用技术怎么发展呀?在法律没有规定AI学习的这个部分的时候,有很多平台是怎么做的,是他们画师自己联合去反对这件事情,这件事情也得到解决了。所以你看现在在法律没有明确规定的时候,市场也能够解决问题,你方的解决力没有那么有必要。
所以我再问你了,在现在黄片这么泛滥的情况,在这种AI换脸比较泛滥的情况下,你不通过前端的技术识别,你怎么抓吗?
好奇怪,那群画师联合起来说,我觉得你的公司抄袭了我的作品,说我的素材不是我的机密,你不能看,这涉及公司的利益,它怎么解决?所以它最后是通过什么样的方式解决?是有一个规则,强制性地说这个软件你不能再发展,就像网易那个AI绘画软件一样,它最后下架了,这才恰恰是我方最后的一层底价,叫做什么,如果这个东西它真的引起了这么大的风险,我宁愿让它束缚在规则里面稳稳地前进,也不要它没有规则肆意地发展。
你只是看到了结果,但结果是由规则解决的吗?在现在知识产权法里面都没有明确规定机器学习使用是否需要付费,以及这一系列的规则都没有明确规定的时候,你怎么可以说规则在解决这件事情?而那个时候我们恰恰发现了,即使规则不存在,市场也能够解决这些问题,那些敏感的用户自己选择放弃这个平台,与平台去博弈,市场反馈同样可以解决这些存在争议的问题。我方态度很简单,在存在争议的地方,你让他们市场自由博弈就够了。
在涉及公序良俗的地方,我方认为规则确实有效,没问题,可是在那些问题上面恰恰是,AI让这个问题复杂化了,让每个人都可以创作黄色小说进行AI换脸,在没有进行识别的情况之下,规则在那里,反名誉侵权的规则在那里,反对自己的规则在那里,不需要你再增加什么新的东西,恰恰是只有技术治理才能够解决这个问题。
最后我们总结的时候再跟你讲,在当前中美发展的战略之下,AI战略以及AI发展方向到底是怎么样的,它期待的一定不是像你方那样,我们要一个保守的、像欧盟这样子,没有一个好的AI问世的。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
(注:全程围绕"法律规制"与"技术治理"的优先级展开,核心争议点包括:规则严格性的实证比较、技术解决侵权问题的可行性、法律与技术的互补关系)
正方四辩总结陈词时间同样为3分30秒,发音及计时有请。
各位可以听到吗?可以的,请看计时。解决问题的关键在于找到关键的问题。你方刚刚一直在跟我说那个黑箱的问题,可是黑箱本身就是黑箱带来的,最后的结果归咎于证据本身是问题吗?所以您方现在告诉我,医学没有办法解决癌症,它真的是一个现在的风险吗?我们现在是要解决的风险吗?不是的。所以我方发现的是恰恰是我们现在的规则可以解决这个问题,告诉我们现在至少不允许AI直接用来诊断,或者说直接用AI去做手术。所以对方不能把一个东西发展到不完善,本身等同于风险,这样您方就直接循环论证得到您方叫做发展技术是一个灰色过程,这是一个逻辑错误。
您方第二个告诉我们提出的问题风险叫做技术会被现实发展,就是你刚刚做小型公司的例子。可是恰恰发现那些被法案驱除出去的技术,或者说那些被法案驱除的公司,它本身就带来风险。就是为什么我们要限制一些伦理学的医学的发展问题,因为它本身就会带来风险。您方刚刚跟我说的叫做要用AI去解决AI,这恰恰会导致我方所说的军备竞赛。是您方觉得只要发展一个AI的技术,就可以去把原先的AI给解决,可是我方发现在这样的逻辑之下,恰恰会导致两边的AI不断发展,技术的发展脱离规则的限制,这是您方想要达到的。世界告诉我一个没有规则,看谁的AI发展更好,就有谁能得到优势的一个世界,可是这样的世界真的还有人的存在吗?这样的世界才是风险最大的事件,所以这就是您刚刚举的那个网易化手的例子,叫做我们只需要通过让那些被压迫的权利被侵占的人没有办法组团去反抗了,才能解决这个问题,这恰恰是技术失去监管的问题。而我方恰恰告诉你的是那些画手用什么方法才可以去维护自己权益,恰恰是利用我方说的规则和法律去维护自己的权益。
这就是我方所说的关键问题在于什么,问题在于人,问题在于我们现在发展AI的公司不择手段,问题是现在我们使用AI的人不知道AI发展的边界,就是我方所说的第一个解决方案叫做威慑。我方把这个问题的后果明确指出来,这样至少我方所说,比如说AI侵权,他在做这件事的时候会有一些顾虑,叫做这件事情可能违法,可能会受到一定的惩罚,就是他不敢去做那些有风险的事情。第二层叫做强制性,就是我方想告诉你的是那些AI公司,他们根本就不想去公布自己的数据库,可是我方告诉你规则的事情可以限制他们的数据库不去使用那些不应该使用在AI里的东西。最后一层是什么?最后一层是解决力的问题。你方一直在苛责我,叫做之前有法律,所以有法律不代表现在就没有侵权的事情发生,可是我方告诉你的是,没有任何一个解决方法能把所有的事情都解决完毕,都是需要有一定的过程的。而我方所说的解决力是什么?解决力是在现在AI技术迅速发展的状态下,我们现在需要一个叫做规则的缰绳,来限制技术的发展,让技术的发展是便于人类,而不是如同一个脱缰的野马一样横冲直撞。谢谢。
正方四辩总结陈词时间同样为3分30秒,发音及计时有请。
各位可以听到吗?可以的,请看计时。解决问题的关键在于找到关键的问题。你方刚刚一直在跟我说那个黑箱的问题,可是黑箱本身就是黑箱带来的,最后的结果归咎于证据本身是问题吗?所以您方现在告诉我,医学没有办法解决癌症,它真的是一个现在的风险吗?我们现在是要解决的风险吗?不是的。所以我方发现的是恰恰是我们现在的规则可以解决这个问题,告诉我们现在至少不允许AI直接用来诊断,或者说直接用AI去做手术。所以对方不能把一个东西发展到不完善,本身等同于风险,这样您方就直接循环论证得到您方叫做发展技术是一个灰色过程,这是一个逻辑错误。
您方第二个告诉我们提出的问题风险叫做技术会被现实发展,就是你刚刚做小型公司的例子。可是恰恰发现那些被法案驱除出去的技术,或者说那些被法案驱除的公司,它本身就带来风险。就是为什么我们要限制一些伦理学的医学的发展问题,因为它本身就会带来风险。您方刚刚跟我说的叫做要用AI去解决AI,这恰恰会导致我方所说的军备竞赛。是您方觉得只要发展一个AI的技术,就可以去把原先的AI给解决,可是我方发现在这样的逻辑之下,恰恰会导致两边的AI不断发展,技术的发展脱离规则的限制,这是您方想要达到的。世界告诉我一个没有规则,看谁的AI发展更好,就有谁能得到优势的一个世界,可是这样的世界真的还有人的存在吗?这样的世界才是风险最大的事件,所以这就是您刚刚举的那个网易化手的例子,叫做我们只需要通过让那些被压迫的权利被侵占的人没有办法组团去反抗了,才能解决这个问题,这恰恰是技术失去监管的问题。而我方恰恰告诉你的是那些画手用什么方法才可以去维护自己权益,恰恰是利用我方说的规则和法律去维护自己的权益。
这就是我方所说的关键问题在于什么,问题在于人,问题在于我们现在发展AI的公司不择手段,问题是现在我们使用AI的人不知道AI发展的边界,就是我方所说的第一个解决方案叫做威慑。我方把这个问题的后果明确指出来,这样至少我方所说,比如说AI侵权,他在做这件事的时候会有一些顾虑,叫做这件事情可能违法,可能会受到一定的惩罚,就是他不敢去做那些有风险的事情。第二层叫做强制性,就是我方想告诉你的是那些AI公司,他们根本就不想去公布自己的数据库,可是我方告诉你规则的事情可以限制他们的数据库不去使用那些不应该使用在AI里的东西。最后一层是什么?最后一层是解决力的问题。你方一直在苛责我,叫做之前有法律,所以有法律不代表现在就没有侵权的事情发生,可是我方告诉你的是,没有任何一个解决方法能把所有的事情都解决完毕,都是需要有一定的过程的。而我方所说的解决力是什么?解决力是在现在AI技术迅速发展的状态下,我们现在需要一个叫做规则的缰绳,来限制技术的发展,让技术的发展是便于人类,而不是如同一个脱缰的野马一样横冲直撞。谢谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
发二辩做小结,时间同样为2分钟,发言及计时有请。
好,感谢。今天第一件事情,我方想要讲的规则是很广泛的。前面用一些校规进行类比,只是想跟对方确认的是,规则是很细化的——我们在不同的案例里可以有不同的规则,我们可以不断出台新的灵活立法。这不仅符合灵活立法的要求,也适用于不同的公司、不同的事业单位等,他们有相对应的自己的规则可以去应对和管制。这是第一件事情。它不能够被简单地定义为单一的法律。好像我们今天不立法,就没有规则产生一样,这是不对的。
第一步往下跟对方聊,我们今天讲规则,其最根本在于管人。对方对我们进行了一个指责,告诉我们“这就是让人怕吗?”。没关系,我们可以坦然承认,因为我们觉得在面对这么多问题出现时,让人怕、让人知道雷池在哪里、让人知道不可逾越的地方在哪里,就是最重要的一步。你今天指责我只是让人怕,我不知道到底危害在哪里,最起码它不敢做了,对不对?而你方今天期待的是什么?是一个没有怕的世界,你会觉得技术可以自由自在地发展和更新。可是我问你,你今天怎么敢肯定这些公司一定就会自主地投入那么多的成本去发展他们的技术呢?根本都没有人要求,他们自己也不会有内发的动力去跟进啊。所以发现没有,没有怕在你方看来或许是好的,但对技术发展而言也是一个不好的事情。
我进一步往下跟你聊,你方今天对我们提出的你们最想解决的“黑箱”问题,可是我真的不知道,如果我面对黑箱,只意味着我不知道它的机制是什么,到底危害在哪里。我们到现在也没有人能够证明1+1到底为什么等于2,难道我们在做数学题的时候就会像你方那样面临很大很大的风险吗?我觉得不一定吧。
接着往下跟你聊,哪怕我不知道你方那个“非箱”(此处原文为“非箱”,按上下文推测可能为“黑箱”或其他术语,暂保留原始表述)什么时候可以完全解决,在我们现在规则的要求下,一定有很多AI,包括大模型,当你向它要资料的时候,它会给你标明资料的来源和它原本的网页在哪里。发现没有,这就带来了可靠性。在你方技术解决不了的地方,正是规则在默默作用,而你方就是要否认这样的作用,这就是一种比较好的...(此处原文结尾“感谢”前的内容不完整,按原始文本保留)感谢。
发二辩做小结,时间同样为2分钟,发言及计时有请。
好,感谢。今天第一件事情,我方想要讲的规则是很广泛的。前面用一些校规进行类比,只是想跟对方确认的是,规则是很细化的——我们在不同的案例里可以有不同的规则,我们可以不断出台新的灵活立法。这不仅符合灵活立法的要求,也适用于不同的公司、不同的事业单位等,他们有相对应的自己的规则可以去应对和管制。这是第一件事情。它不能够被简单地定义为单一的法律。好像我们今天不立法,就没有规则产生一样,这是不对的。
第一步往下跟对方聊,我们今天讲规则,其最根本在于管人。对方对我们进行了一个指责,告诉我们“这就是让人怕吗?”。没关系,我们可以坦然承认,因为我们觉得在面对这么多问题出现时,让人怕、让人知道雷池在哪里、让人知道不可逾越的地方在哪里,就是最重要的一步。你今天指责我只是让人怕,我不知道到底危害在哪里,最起码它不敢做了,对不对?而你方今天期待的是什么?是一个没有怕的世界,你会觉得技术可以自由自在地发展和更新。可是我问你,你今天怎么敢肯定这些公司一定就会自主地投入那么多的成本去发展他们的技术呢?根本都没有人要求,他们自己也不会有内发的动力去跟进啊。所以发现没有,没有怕在你方看来或许是好的,但对技术发展而言也是一个不好的事情。
我进一步往下跟你聊,你方今天对我们提出的你们最想解决的“黑箱”问题,可是我真的不知道,如果我面对黑箱,只意味着我不知道它的机制是什么,到底危害在哪里。我们到现在也没有人能够证明1+1到底为什么等于2,难道我们在做数学题的时候就会像你方那样面临很大很大的风险吗?我觉得不一定吧。
接着往下跟你聊,哪怕我不知道你方那个“非箱”(此处原文为“非箱”,按上下文推测可能为“黑箱”或其他术语,暂保留原始表述)什么时候可以完全解决,在我们现在规则的要求下,一定有很多AI,包括大模型,当你向它要资料的时候,它会给你标明资料的来源和它原本的网页在哪里。发现没有,这就带来了可靠性。在你方技术解决不了的地方,正是规则在默默作用,而你方就是要否认这样的作用,这就是一种比较好的...(此处原文结尾“感谢”前的内容不完整,按原始文本保留)感谢。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)