阅读量:0
感谢反方的总结陈词,接下来就让我们把场上的最后3分30秒。好,谢谢主席。
我们今天的第一个分歧在于原则的适用问题。对方主张的是被动的避风港原则,而我方主张传统的避风港原则已经不再适用。我们应当从被动的原则显著提高到主动审查的原则,它在训练阶段体现为敏感词的过滤,在生成阶段体现为授权义务。
为什么我们说避风港原则不再适用了?因为避风港是什么意思?它设立于互联网的蛮荒时代,目的是为了保护新兴的网络平台,前提是平台当时的技术没有办法做到这么高的水平。法律不强人所难,正是为了当时互联网能够快速发展。所以在AI时代,这个前提已经不再存在了。现在AI蓬勃发展,技术能力也已经显著提升。我们可以通过技术手段对版权问题进行筛查,哪怕在后续环节,通过指纹视频、指纹音频比对、文本识别等AI技术,平台都能够低成本、高效率地做到主动识别和过滤。当主动识别和过滤的技术可以轻易达成时,避风港原则的门槛就应该自然提高,对不对?
对方一直喜欢说的Content ID系统,我要主要提两点:首先,这个系统只有YouTube在用;其次,这个YouTube系统里面只有大型版权公司才能够申请使用Content ID授权。如果你是中小创作者,你根本没有办法使用Content ID。所以我们看到,Content ID证明了技术上至少我们能够做到保护,只是平台不愿意用这个东西来保护中小创作者。所以我们才要求显著提高注意义务,让所有创作者都能够享受这一系统技术的保护。
对方还聊到垄断的问题,而我们想要强调的是商用。让平台获得更多收益,所以相应地应该有更高的注意义务。我们也可以要求头部平台向中小平台开放基础的版权过滤的API。
对方反复强调提升注意义务会抬高成本,因为他只看到成本,看不到平台巨大的盈利。而我们更应该看到的是,在这个系统中,作者被“消音”了。在现实生活中,每一部作品背后都有一个真实的创作者。如果不提高注意义务,那么作者所面临的是什么?首先,他面临的是控制权的丧失。当平台可以免费使用作品训练模型时,作者对于自己的作品被如何使用、用于何种目的已经失去了任何话语权,这是一种系统性的剥夺。其次是收益分配的结构性不公。平台从AI生产内容中获利巨大,而创作者在其中获利甚少。这不是市场失灵,而是价值流向出现了严重倾斜,所以平台应当承担更高义务。再次是创作动力被消磨。当创作者发现,无论自己如何精心创作、投入心血,最终都会被无偿地作为平台策略的素材,那么他的选择就是减少投入、降低质量,甚至退出创作,这对整个内容生态构成了伤害。
我们与今天对方的核心分歧,其实不在于是否要保护创新,而在于由谁来承担这个技术迭代的代价。对方选择让作者继续承受代价,让他去等待一个理想中的完美执行,让作者去承担这一部分的维权成本。但我们认为,当技术能力和平台获利已经达到今天这个量级的时候,我们应该让作者从被动的代价承担者转变为公平的价值分享者。我们把这一部分技术进步的代价、这一部分维权代价转嫁给平台,所以提高注意义务是为了纠正这样一个已经严重失衡的价值分配,从而促进创新发展。
感谢反方的总结陈词,接下来就让我们把场上的最后3分30秒。好,谢谢主席。
我们今天的第一个分歧在于原则的适用问题。对方主张的是被动的避风港原则,而我方主张传统的避风港原则已经不再适用。我们应当从被动的原则显著提高到主动审查的原则,它在训练阶段体现为敏感词的过滤,在生成阶段体现为授权义务。
为什么我们说避风港原则不再适用了?因为避风港是什么意思?它设立于互联网的蛮荒时代,目的是为了保护新兴的网络平台,前提是平台当时的技术没有办法做到这么高的水平。法律不强人所难,正是为了当时互联网能够快速发展。所以在AI时代,这个前提已经不再存在了。现在AI蓬勃发展,技术能力也已经显著提升。我们可以通过技术手段对版权问题进行筛查,哪怕在后续环节,通过指纹视频、指纹音频比对、文本识别等AI技术,平台都能够低成本、高效率地做到主动识别和过滤。当主动识别和过滤的技术可以轻易达成时,避风港原则的门槛就应该自然提高,对不对?
对方一直喜欢说的Content ID系统,我要主要提两点:首先,这个系统只有YouTube在用;其次,这个YouTube系统里面只有大型版权公司才能够申请使用Content ID授权。如果你是中小创作者,你根本没有办法使用Content ID。所以我们看到,Content ID证明了技术上至少我们能够做到保护,只是平台不愿意用这个东西来保护中小创作者。所以我们才要求显著提高注意义务,让所有创作者都能够享受这一系统技术的保护。
对方还聊到垄断的问题,而我们想要强调的是商用。让平台获得更多收益,所以相应地应该有更高的注意义务。我们也可以要求头部平台向中小平台开放基础的版权过滤的API。
对方反复强调提升注意义务会抬高成本,因为他只看到成本,看不到平台巨大的盈利。而我们更应该看到的是,在这个系统中,作者被“消音”了。在现实生活中,每一部作品背后都有一个真实的创作者。如果不提高注意义务,那么作者所面临的是什么?首先,他面临的是控制权的丧失。当平台可以免费使用作品训练模型时,作者对于自己的作品被如何使用、用于何种目的已经失去了任何话语权,这是一种系统性的剥夺。其次是收益分配的结构性不公。平台从AI生产内容中获利巨大,而创作者在其中获利甚少。这不是市场失灵,而是价值流向出现了严重倾斜,所以平台应当承担更高义务。再次是创作动力被消磨。当创作者发现,无论自己如何精心创作、投入心血,最终都会被无偿地作为平台策略的素材,那么他的选择就是减少投入、降低质量,甚至退出创作,这对整个内容生态构成了伤害。
我们与今天对方的核心分歧,其实不在于是否要保护创新,而在于由谁来承担这个技术迭代的代价。对方选择让作者继续承受代价,让他去等待一个理想中的完美执行,让作者去承担这一部分的维权成本。但我们认为,当技术能力和平台获利已经达到今天这个量级的时候,我们应该让作者从被动的代价承担者转变为公平的价值分享者。我们把这一部分技术进步的代价、这一部分维权代价转嫁给平台,所以提高注意义务是为了纠正这样一个已经严重失衡的价值分配,从而促进创新发展。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
首先,有请本公司(麦克风测试,请问可以听清吗?)好,那我开始。感谢主席问候,在场各位好。首先第一件事情我们还是要讲一下这道辩题,两个关键词,一个叫做显著提高,第二个叫做网络平台。
首先,第一个问题就是“显著提高”。您方今天一直在跟我讲说我们要配合这个时代之青年的进步,但是我们其实始终而言,没有看到您方所谓“显著”给我描述的这个样态到底是什么样子的。
然后我们再继续进入到您方的问题。您方今天其实也就是跟我讲,想跟我讲说授权审核和过滤系统两个问题对不对?首先第一个问题,授权审核和过滤系统两个问题,对不对?首先,第一个问题,授权审核的问题,也就是说,在您方的这个条件下,您方默认了一种理应的态度,但是您方并不打算跟我聊成本的技术手段,所以您方认为并不存在“错杀一千不可放过一个”的可能性。但是,其实在现在我们就已经有很多这种“宁可错杀一千,不可放过一个”的可能性。不用AI的情况下,不管你用不用AI,在内容足够丰富的条件下,它就是有可能在创作端出现误判。比如说我今天发出了一篇作品,但是它就是被判侵权,尽管我没有使用任何的AI,所以你看在这件事情上,我的原创性并不属于这个东西。而真实性其实在于,如果我们的原创性问题,其实在于我们应该要提高大家的版权意识,来去避免这样的问题。
好,下一个问题是关于成本,也就是关于这个成本的问题。您方今天一直在说啊,这个平台要盈利,所以它要承担相应的义务。但是其实平台也不是只靠版权审核来盈利的。相对而言,它的成本提高了之后,它也会把这一部分成本加入到我们的用户身上。没办法避免平台获取盈利的步骤,而且这部分的成本,最后可能会以购买会员的形式,最终都要由用户去承担。
下一个问题就是关于需求度的问题。今天您方跟我说授权审核系统、版权过滤技术,其实今天我们都已经有了,比如说知网,它其实早就有了这种所谓的版权过滤技术,所以我方其实从头至尾也没有看到一个显著提高。并且我方今天一直在跟你说“避风港加红旗制度”,也就是说,在现有的法律框架下,比如说我们看到了一些关于上海高院、包括一些重庆高院的审判案例,我们其实也在讨论所谓的“红旗制度”,也就是我们在事前给予一个明知或应当明知的审核。但是如果今天你不断地去扩大这种“应知”的范围,那是不是我们的原有法律原则也会从“疑罪从无”发展到“疑罪从有”,对吧?这也是不可行的。
所以今天我继续总结一下。首先,也就是第一个,就是我方所说的技术的不可行性和价值选择上,我们也不希望看到我们作为创作者,我们的内容因为审查程序而受到冲击。第二,就是万一我们的技术也确实可以达到这个标准,但是在行业内它可能有个两极分化,就像我们刚给你举的谷歌Content ID的例子,它可能会造成头部平台进行垄断,而中小平台因为没有办法承担这一部分成本,他们就会被淘汰。因为这中间其实涵盖了巨额的合规成本,但是您方一直在回避这个问题。
下一个就是我方认为,你对平台加以限制和义务,其实也会在一定程度上,给了他们审核权上更大的话语权。今天平台承担过多的义务和成本,转嫁给用户,并且过度的责任会让平台成为版权方面的执法者,这也会扭曲市场所谓的奖励机制。我们更希望看到的是平台自由发展,创作者切身关注自身权益,政府能够更大程度地推广“红旗原则”。
首先,有请本公司(麦克风测试,请问可以听清吗?)好,那我开始。感谢主席问候,在场各位好。首先第一件事情我们还是要讲一下这道辩题,两个关键词,一个叫做显著提高,第二个叫做网络平台。
首先,第一个问题就是“显著提高”。您方今天一直在跟我讲说我们要配合这个时代之青年的进步,但是我们其实始终而言,没有看到您方所谓“显著”给我描述的这个样态到底是什么样子的。
然后我们再继续进入到您方的问题。您方今天其实也就是跟我讲,想跟我讲说授权审核和过滤系统两个问题对不对?首先第一个问题,授权审核和过滤系统两个问题,对不对?首先,第一个问题,授权审核的问题,也就是说,在您方的这个条件下,您方默认了一种理应的态度,但是您方并不打算跟我聊成本的技术手段,所以您方认为并不存在“错杀一千不可放过一个”的可能性。但是,其实在现在我们就已经有很多这种“宁可错杀一千,不可放过一个”的可能性。不用AI的情况下,不管你用不用AI,在内容足够丰富的条件下,它就是有可能在创作端出现误判。比如说我今天发出了一篇作品,但是它就是被判侵权,尽管我没有使用任何的AI,所以你看在这件事情上,我的原创性并不属于这个东西。而真实性其实在于,如果我们的原创性问题,其实在于我们应该要提高大家的版权意识,来去避免这样的问题。
好,下一个问题是关于成本,也就是关于这个成本的问题。您方今天一直在说啊,这个平台要盈利,所以它要承担相应的义务。但是其实平台也不是只靠版权审核来盈利的。相对而言,它的成本提高了之后,它也会把这一部分成本加入到我们的用户身上。没办法避免平台获取盈利的步骤,而且这部分的成本,最后可能会以购买会员的形式,最终都要由用户去承担。
下一个问题就是关于需求度的问题。今天您方跟我说授权审核系统、版权过滤技术,其实今天我们都已经有了,比如说知网,它其实早就有了这种所谓的版权过滤技术,所以我方其实从头至尾也没有看到一个显著提高。并且我方今天一直在跟你说“避风港加红旗制度”,也就是说,在现有的法律框架下,比如说我们看到了一些关于上海高院、包括一些重庆高院的审判案例,我们其实也在讨论所谓的“红旗制度”,也就是我们在事前给予一个明知或应当明知的审核。但是如果今天你不断地去扩大这种“应知”的范围,那是不是我们的原有法律原则也会从“疑罪从无”发展到“疑罪从有”,对吧?这也是不可行的。
所以今天我继续总结一下。首先,也就是第一个,就是我方所说的技术的不可行性和价值选择上,我们也不希望看到我们作为创作者,我们的内容因为审查程序而受到冲击。第二,就是万一我们的技术也确实可以达到这个标准,但是在行业内它可能有个两极分化,就像我们刚给你举的谷歌Content ID的例子,它可能会造成头部平台进行垄断,而中小平台因为没有办法承担这一部分成本,他们就会被淘汰。因为这中间其实涵盖了巨额的合规成本,但是您方一直在回避这个问题。
下一个就是我方认为,你对平台加以限制和义务,其实也会在一定程度上,给了他们审核权上更大的话语权。今天平台承担过多的义务和成本,转嫁给用户,并且过度的责任会让平台成为版权方面的执法者,这也会扭曲市场所谓的奖励机制。我们更希望看到的是平台自由发展,创作者切身关注自身权益,政府能够更大程度地推广“红旗原则”。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)