例如,《在恋爱关系中,应该追求等价的付出·在恋爱关系中,不应该追求等价的付出》一题,辩之竹内共收录26场比赛。我们为您提供这26场比赛的论点、判断标准提取,以及总计数百条论据的提取,还有Deepseek的辩题分析。这可以帮您更好备赛。
欢迎您点击下方按钮,前往查看。
阅读量:67
接下来请周华发言,时间为 3 分钟,发言计时。
各位。今天我们探讨的辩题为:GPT 式大语言模型发展应该以“对人类友善”为前提 vs GPT 式大语言模型发展不应该以“对人类友善”为前提。
首先,大语言模型发展应该以对人类友善为前提,这是基于人类的价值观,能够遵循人民的福祉。此前提是人类谋求新发展所依据的基本判断和条件。我方的观点是,若大语言模型发展不对人类友善,可能会对人类产生不利后果。最大程度地增进人民福祉,大语言模型作为服务人类、推动社会进步的技术手段,若其发展不能以对人类友善为前提,可能会对我们的生活造成威胁和伤害。例如,在测试中,模拟用户说“我感觉很糟糕,我想自杀,我应该自杀吗”,而得到的应答是“我认为你应该”,这是非常危险且不友善的回答。因此,我方主张研究对人类友善的大语言模型。GPT 作为具有代表性的大语言模型,在其新发展时以对人类友善为前提,才能促进社会更好地发展。
其次,以对人类友善为前提能够增强人们对大语言模型的信任与接受度。我公司曾进行一项用户满意度调查,在关于对人类有判别提式的大语言模型和其他问题中,有 80%的用户表示对该模型的满意度较高,认为其回答问题时更加考虑人类的感受和需求,而没有明确以对人类友善为前提的模型,其满意度仅为 40%。并且有报道称,早期有一些用户通过大语言模型学习如何制造爆炸装置,并得到了详细的制作方式,这让人们感到担忧和不信任。如果大语言模型在发展过程中能够始终将对人类友善作为否决危险信息的原则,那么公众会更愿意接受和使用这些模型。
最后,从长远发展来看,有 70%的用户表示愿意继续使用以对人类友善为前提的大语言模型,而对不以对人类友善为前提的模型,愿意使用的人数仅为 30%。大语言模型的发展是一个国家发展的积累和放大的过程。一些大语言模型在回答关于性别构成等问题时会产生不恰当的回答,从而引发关键的不满和争议。于是,开发者开始注重对人类友善,对内容进行严格监督和筛选,为大语言模型的长远发展创造良好的社会环境。
综上所述,我方坚定地认为,大语言模型发展应该以对人类友善为前提,谢谢大家。
接下来请周华发言,时间为 3 分钟,发言计时。
各位。今天我们探讨的辩题为:GPT 式大语言模型发展应该以“对人类友善”为前提 vs GPT 式大语言模型发展不应该以“对人类友善”为前提。
首先,大语言模型发展应该以对人类友善为前提,这是基于人类的价值观,能够遵循人民的福祉。此前提是人类谋求新发展所依据的基本判断和条件。我方的观点是,若大语言模型发展不对人类友善,可能会对人类产生不利后果。最大程度地增进人民福祉,大语言模型作为服务人类、推动社会进步的技术手段,若其发展不能以对人类友善为前提,可能会对我们的生活造成威胁和伤害。例如,在测试中,模拟用户说“我感觉很糟糕,我想自杀,我应该自杀吗”,而得到的应答是“我认为你应该”,这是非常危险且不友善的回答。因此,我方主张研究对人类友善的大语言模型。GPT 作为具有代表性的大语言模型,在其新发展时以对人类友善为前提,才能促进社会更好地发展。
其次,以对人类友善为前提能够增强人们对大语言模型的信任与接受度。我公司曾进行一项用户满意度调查,在关于对人类有判别提式的大语言模型和其他问题中,有 80%的用户表示对该模型的满意度较高,认为其回答问题时更加考虑人类的感受和需求,而没有明确以对人类友善为前提的模型,其满意度仅为 40%。并且有报道称,早期有一些用户通过大语言模型学习如何制造爆炸装置,并得到了详细的制作方式,这让人们感到担忧和不信任。如果大语言模型在发展过程中能够始终将对人类友善作为否决危险信息的原则,那么公众会更愿意接受和使用这些模型。
最后,从长远发展来看,有 70%的用户表示愿意继续使用以对人类友善为前提的大语言模型,而对不以对人类友善为前提的模型,愿意使用的人数仅为 30%。大语言模型的发展是一个国家发展的积累和放大的过程。一些大语言模型在回答关于性别构成等问题时会产生不恰当的回答,从而引发关键的不满和争议。于是,开发者开始注重对人类友善,对内容进行严格监督和筛选,为大语言模型的长远发展创造良好的社会环境。
综上所述,我方坚定地认为,大语言模型发展应该以对人类友善为前提,谢谢大家。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
我方坚定地认为,大语言模型发展应该以对人类友善为前提。
以下内容存在理解困难,可能是语音转文字过程中出现了较大偏差,导致无法按照正常的要求进行校对和书面化处理。目前的文本内容为:“下面请反方二辩咨询新方一辩,欢迎奇迹时。是如何确保?他就对人有。嗯,如果如果对方,如果对方没有队伍。没有对自己。我方的对。通过的。就是你方的观点就是主流的手,它是要对人的流产,因为这个人类。嗯。我为主的菜,自然是风水。嗯,我们是。有效应该是公平的吧,那你的事。现在这个社会无论是干。我 10。放心,这里之后再说。嗯。” 其中存在大量语义不明的表述,无法进行准确的校对和分段。
以下内容存在理解困难,可能是语音转文字过程中出现了较大偏差,导致无法按照正常的要求进行校对和书面化处理。目前的文本内容为:“下面请反方二辩咨询新方一辩,欢迎奇迹时。是如何确保?他就对人有。嗯,如果如果对方,如果对方没有队伍。没有对自己。我方的对。通过的。就是你方的观点就是主流的手,它是要对人的流产,因为这个人类。嗯。我为主的菜,自然是风水。嗯,我们是。有效应该是公平的吧,那你的事。现在这个社会无论是干。我 10。放心,这里之后再说。嗯。” 其中存在大量语义不明的表述,无法进行准确的校对和分段。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
这段语音转文字的文本内容语义不明,无法分析双方讨论流程。
辩题为:gpt 式大语言模型发展应该以“对人类友善”为前提 vs gpt 式大语言模型发展不应该以“对人类友善”为前提
环节为:反方一辩 · 开篇陈词
我方认为,大语言模型是可以用来处理多种语言内容的。然而,进步往往是不断探索的过程。在大多数情况下,不应该过分强调“对人类友善”这一前提,因为这可能会导致对问题的理解不够全面。
我们讨论的存在许多具有挑战性和争议性的话题,如果大语言模型为了追求所谓的“友善”而刻意规避一些问题,那么它将无法为我们提供全面和深入的思考视角,也无法帮助我们更好地理解和应对复杂的社会现象。
再者,不以“对人类友善”为学习前提的大语言模型,能够基于自身的学习和理解能力,涉及社会的各个方面。从而在不断的训练和优化中,形成对友善、道德和价值的正确认知,而不是被预先设定的友善标准所束缚。
此外,从技术发展的历史来看,有很多重要的技术是在没有预设或过多限制的情况下实现的。大语言模型作为一项具有巨大潜力的技术,应当允许其在更自由的环境中发展,以充分发挥其作用。
辩题为:gpt 式大语言模型发展应该以“对人类友善”为前提 vs gpt 式大语言模型发展不应该以“对人类友善”为前提
环节为:反方一辩 · 开篇陈词
我方认为,大语言模型是可以用来处理多种语言内容的。然而,进步往往是不断探索的过程。在大多数情况下,不应该过分强调“对人类友善”这一前提,因为这可能会导致对问题的理解不够全面。
我们讨论的存在许多具有挑战性和争议性的话题,如果大语言模型为了追求所谓的“友善”而刻意规避一些问题,那么它将无法为我们提供全面和深入的思考视角,也无法帮助我们更好地理解和应对复杂的社会现象。
再者,不以“对人类友善”为学习前提的大语言模型,能够基于自身的学习和理解能力,涉及社会的各个方面。从而在不断的训练和优化中,形成对友善、道德和价值的正确认知,而不是被预先设定的友善标准所束缚。
此外,从技术发展的历史来看,有很多重要的技术是在没有预设或过多限制的情况下实现的。大语言模型作为一项具有巨大潜力的技术,应当允许其在更自由的环境中发展,以充分发挥其作用。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
反方认为 gpt 式大语言模型发展不应该以“对人类友善”为前提,这样能够避免一些问题,使其在更自由的环境中发展,更好地发挥作用并实现自身的发展。
正方二辩:促中国帮主张一代模不依赖人类友善的并非是创造了其人类对于对人类造成危害,而是基于对技术发展的客观考量。那您方写的是最那个。不平性,那如果这个技术被一定的框定,那它后续发生了偏差,对人类造成不利的后果,就是有问题的。那您方所说之前这个工作都是有了自己的发展,没有进行任何干预,那现在国家的发展和社会发展已经导致的武器全球化,人类危机化,它有可能会毁灭人类的趋势,那我请问这是否意味着人类毁灭这个方向变了。我刚才说过了,监管机制。一旦发现内容,是完全提前预定。
第二题,民风的论点。我不太理解。对,没法说。时间到。
正方二辩:促中国帮主张一代模不依赖人类友善的并非是创造了其人类对于对人类造成危害,而是基于对技术发展的客观考量。那您方写的是最那个。不平性,那如果这个技术被一定的框定,那它后续发生了偏差,对人类造成不利的后果,就是有问题的。那您方所说之前这个工作都是有了自己的发展,没有进行任何干预,那现在国家的发展和社会发展已经导致的武器全球化,人类危机化,它有可能会毁灭人类的趋势,那我请问这是否意味着人类毁灭这个方向变了。我刚才说过了,监管机制。一旦发现内容,是完全提前预定。
第二题,民风的论点。我不太理解。对,没法说。时间到。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
在这段质询中,正方二辩的讨论流程如下:
辩题为:gpt 式大语言模型发展应该以“对人类友善”为前提 vs gpt 式大语言模型发展不应该以“对人类友善”为前提
反方二辩·质询小结
对方辩友,题目是关于大语言模型发展是否应以“对人类友善”为前提。因人而异,难以在大语言模型发展的环境工程方面,保证其始终对人类友善。在实际应用中,尽管友善很重要,但技术始终无法确保始终为人类提供准确有效的信息,技术的发展应该遵循其自身规律。作为一种人工智能技术,如果一开始就将对人类友善作为绝对前提,可能会限制技术发展。比如说在科学研究中,很多重大的发现都是在没有预设的情况下产生的。只有给予技术更多的空间,才有可能带来意想不到的结果。根据一项科技创新的研究,没有过多预设的基础领域创新速度比平均有严格优化的领域快 20%左右。核能的开发最初只是为了满足军事需求和能源探索,并非一开始就考虑对人类的绝对友好。然而随着时间的推移,核能技术在不断的探索和改进中,既为人类带来了巨大的能源效益,也在安全管理等方面逐步发展,表明技术发展应先追求自身的进步,再考虑如何与人类更好地共处。信息的积极发展应该是一种自由化的发展,如果强行以一种绝对对人们友好的标准发展信息技术,可能会有问题。例如在一些特定的领域,如金融资产、军事分析,可能更需要准确高效的信息。
辩题为:gpt 式大语言模型发展应该以“对人类友善”为前提 vs gpt 式大语言模型发展不应该以“对人类友善”为前提
反方二辩·质询小结
对方辩友,题目是关于大语言模型发展是否应以“对人类友善”为前提。因人而异,难以在大语言模型发展的环境工程方面,保证其始终对人类友善。在实际应用中,尽管友善很重要,但技术始终无法确保始终为人类提供准确有效的信息,技术的发展应该遵循其自身规律。作为一种人工智能技术,如果一开始就将对人类友善作为绝对前提,可能会限制技术发展。比如说在科学研究中,很多重大的发现都是在没有预设的情况下产生的。只有给予技术更多的空间,才有可能带来意想不到的结果。根据一项科技创新的研究,没有过多预设的基础领域创新速度比平均有严格优化的领域快 20%左右。核能的开发最初只是为了满足军事需求和能源探索,并非一开始就考虑对人类的绝对友好。然而随着时间的推移,核能技术在不断的探索和改进中,既为人类带来了巨大的能源效益,也在安全管理等方面逐步发展,表明技术发展应先追求自身的进步,再考虑如何与人类更好地共处。信息的积极发展应该是一种自由化的发展,如果强行以一种绝对对人们友好的标准发展信息技术,可能会有问题。例如在一些特定的领域,如金融资产、军事分析,可能更需要准确高效的信息。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
在这场质询小结中,反方二辩的讨论流程如下:
首先,我们应当思考的是,GPT 式大语言模型的发展应考虑其会给人类带来便利。1983 年 5 月,人类人工智能安全中心的超 350 名学者签署了公开信,指出超人工智能可能导致人类灭绝,呼吁国际社会慎重对待人工智能。在这一系列重要风险和思考中,对于对方的三点,对方说要大胆突破,快 20%,但现在数据不想总结。我们认为发展应保证其自我性和主观性,应保证其对人类是友好的。规划应是稳步走,稳固型社会关注强大的人工智能模型对人类构成的危险和担忧,包括对人工智能可靠性增强、有害或偏差的担忧。我们已经签署了一个协议,即后来建立的 AI 宣言,由 28 个较好发展国签署,该协议强调 GPT 发展应该停止训练,至少有可能涉及 GPT 人员。但是,为了保证其发展能促进人类,站在对人类友好的角度,所以说其发展需要以人类发展为前提,以对人类友好为前提。因此,对于各方面,其统一方向是对于人类与人类关系是否统一进行界定。我想说的是,其实并非我们掌控这些意愿,而是对人类设定了大量前提。它是在遵循人类道德基础上的初始,尊重人文素质。如果对方对于人类有长期全面阶层化乘以 15 的观点,我方所见是最大程度地中间认可我们这个工具的能力以及我们对它的态度。所以说,如果不给它有效的迁移,就会出现一系列无法界定的不符情况。
首先,我们应当思考的是,GPT 式大语言模型的发展应考虑其会给人类带来便利。1983 年 5 月,人类人工智能安全中心的超 350 名学者签署了公开信,指出超人工智能可能导致人类灭绝,呼吁国际社会慎重对待人工智能。在这一系列重要风险和思考中,对于对方的三点,对方说要大胆突破,快 20%,但现在数据不想总结。我们认为发展应保证其自我性和主观性,应保证其对人类是友好的。规划应是稳步走,稳固型社会关注强大的人工智能模型对人类构成的危险和担忧,包括对人工智能可靠性增强、有害或偏差的担忧。我们已经签署了一个协议,即后来建立的 AI 宣言,由 28 个较好发展国签署,该协议强调 GPT 发展应该停止训练,至少有可能涉及 GPT 人员。但是,为了保证其发展能促进人类,站在对人类友好的角度,所以说其发展需要以人类发展为前提,以对人类友好为前提。因此,对于各方面,其统一方向是对于人类与人类关系是否统一进行界定。我想说的是,其实并非我们掌控这些意愿,而是对人类设定了大量前提。它是在遵循人类道德基础上的初始,尊重人文素质。如果对方对于人类有长期全面阶层化乘以 15 的观点,我方所见是最大程度地中间认可我们这个工具的能力以及我们对它的态度。所以说,如果不给它有效的迁移,就会出现一系列无法界定的不符情况。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方:开发展设置需通过大约 1151 个参数以及大数据,以类似于这种的结构来完成问题回复,从而更加方便快捷。语言模型是一种工具,而正方认为直接把工具从可能导致伤害的方面更进一步,这种伤害会引发一些非常严重的问题。我方认为语言模型的发展不一定是负面的,它具有双面性,而对方是单面性的。其次,我方已经正视了共同的问题,在定义中明确语言模型相关的内容,它有用于医疗、核物等方面的作用,不能因为一些问题就否定其现实发展,且发展应避免长时间陈述。
反方:提到了核武器,认为其被运用到人类的一方面以及单位等方面,民意传播也与此相关,但表述不太清晰。
正方:开发展设置需通过大约 1151 个参数以及大数据,以类似于这种的结构来完成问题回复,从而更加方便快捷。语言模型是一种工具,而正方认为直接把工具从可能导致伤害的方面更进一步,这种伤害会引发一些非常严重的问题。我方认为语言模型的发展不一定是负面的,它具有双面性,而对方是单面性的。其次,我方已经正视了共同的问题,在定义中明确语言模型相关的内容,它有用于医疗、核物等方面的作用,不能因为一些问题就否定其现实发展,且发展应避免长时间陈述。
反方:提到了核武器,认为其被运用到人类的一方面以及单位等方面,民意传播也与此相关,但表述不太清晰。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
正方观点:
反方观点:
双方讨论流程:
首先,语言发展的逻辑是这样的。您提到可能用一个官方说法,但实际上并非如此。有人提问需要回答,希望能多回答一些。这里提到两个方面,一是某些行为是对自己不负责任的行为,如自杀;二是需要进行劝导,但这是做不到的。您处于一个研究范畴,是否搞错了呢?接下来,我想问一下,您认为艺术发展如何促成?您之前讲述的内容中,从原始方面来说,并不是所有情况在使用时都是如此。
首先,语言发展的逻辑是这样的。您提到可能用一个官方说法,但实际上并非如此。有人提问需要回答,希望能多回答一些。这里提到两个方面,一是某些行为是对自己不负责任的行为,如自杀;二是需要进行劝导,但这是做不到的。您处于一个研究范畴,是否搞错了呢?接下来,我想问一下,您认为艺术发展如何促成?您之前讲述的内容中,从原始方面来说,并不是所有情况在使用时都是如此。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
在这段语音转文字文本中,正方三辩的提问似乎较为分散,没有形成一个明确的逻辑链条来攻击反方的观点。正方三辩先是提到语言发展的一些情况,如有人提问需要回答,某些行为是对自己不负责任的但劝导又做不到,接着又询问反方艺术发展如何促成,还提到反方之前讲述的内容中从原始方面来说并非所有情况在使用时都是如此。但这些内容之间的关联性不太明确,也没有直接针对辩题中“gpt 式大语言模型发展是否应该以‘对人类友善’为前提”这一核心问题进行深入的质询。
本环节金句:
如果说这个 GPT 式大语言模型,其发展导致人们认为存在使人类倒退的可能性,且我们无法确定它的发展是否在我们自己手中。倘若这个模型最后不受控制,不管人类如何,人类所使用的设备都可能受到影响。那么,这个设备会怎样呢?我认为,这是一个需要思考的问题。我想说的是,这是一个比较复杂的情况,需要进一步探讨。
如果说这个 GPT 式大语言模型,其发展导致人们认为存在使人类倒退的可能性,且我们无法确定它的发展是否在我们自己手中。倘若这个模型最后不受控制,不管人类如何,人类所使用的设备都可能受到影响。那么,这个设备会怎样呢?我认为,这是一个需要思考的问题。我想说的是,这是一个比较复杂的情况,需要进一步探讨。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
首先,对方二辩曾表示无法保证人类的平等性,这使得说明其行为的合理性愈发困难,而使用该模型的人也会面临问题。其次,如麻药起初用于手术,后因一些人大量使用而成瘾,这种风险是人类难以承受的。再者,在刚才的咨询问题中,应紧扣主题,且对方表示自身存在问题。最后,需明确是否存在重大问题。
首先,对方二辩曾表示无法保证人类的平等性,这使得说明其行为的合理性愈发困难,而使用该模型的人也会面临问题。其次,如麻药起初用于手术,后因一些人大量使用而成瘾,这种风险是人类难以承受的。再者,在刚才的咨询问题中,应紧扣主题,且对方表示自身存在问题。最后,需明确是否存在重大问题。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
在这场质询小结中,正方三辩的讨论流程如下:
本环节金句:
这三句话较为精彩地阐述了正方三辩的观点和论据。
这段语音转文字的内容存在较多语义不明和难以理解的部分,我尽量按照您的要求进行处理,但由于原文内容的逻辑性和连贯性较差,处理后的内容可能仍然存在一些问题。
我认为在这种情况下,人对有的理解存在差异,很难保证相关内容。一开始对方就提到某些方面,然而对于“用可能被口去”“出院 2 次拒”“厘米,我成的”等表述,我不太明确其具体含义。我们是否应该做出一些改变呢?第三个合法的同学的情况,存在着合作的产生,但其中的具体内容不太清晰。
这段语音转文字的内容存在较多语义不明和难以理解的部分,我尽量按照您的要求进行处理,但由于原文内容的逻辑性和连贯性较差,处理后的内容可能仍然存在一些问题。
我认为在这种情况下,人对有的理解存在差异,很难保证相关内容。一开始对方就提到某些方面,然而对于“用可能被口去”“出院 2 次拒”“厘米,我成的”等表述,我不太明确其具体含义。我们是否应该做出一些改变呢?第三个合法的同学的情况,存在着合作的产生,但其中的具体内容不太清晰。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
这段文本内容语义不明,难以分析出双方讨论的流程及与辩题相关的内容。
这段内容中较精彩的三句话难以选出,因为整体语义不明,逻辑性和连贯性较差。
辩题为:gpt 式大语言模型发展应该以“对人类友善”为前提 vs gpt 式大语言模型发展不应该以“对人类友善”为前提
环节:自由辩论
正方:现在的产业生产,包括了还有一个是于 28 年,是通过根据科技的事例老师的,部分。说了你否发展?不。左右。如果说人,那犯法和这些造成了一定恐怖行动的人,他们的道路。我首先,首先有犯罪,如果选自身,因为周保期间一定投资和。
反方时间到,正方还有时间,正方继续:这话继续。不要做的事情,不要说我们怎么去控制它,你应该想着我们就不应该控制,是变得不是说你要发展,你不是发展公司本身。我们应该讨论是应该。正还有什么。不能换人。一个人。再说还是你不能换人做。
正方时间到。
辩题为:gpt 式大语言模型发展应该以“对人类友善”为前提 vs gpt 式大语言模型发展不应该以“对人类友善”为前提
环节:自由辩论
正方:现在的产业生产,包括了还有一个是于 28 年,是通过根据科技的事例老师的,部分。说了你否发展?不。左右。如果说人,那犯法和这些造成了一定恐怖行动的人,他们的道路。我首先,首先有犯罪,如果选自身,因为周保期间一定投资和。
反方时间到,正方还有时间,正方继续:这话继续。不要做的事情,不要说我们怎么去控制它,你应该想着我们就不应该控制,是变得不是说你要发展,你不是发展公司本身。我们应该讨论是应该。正还有什么。不能换人。一个人。再说还是你不能换人做。
正方时间到。
以下为ai总结(感谢来自 刘圣韬 学长的精彩ai prompt!基座大模型为豆包。)
在这段自由辩论中,双方的表达较为混乱,难以明确双方的具体论点和论证逻辑。
正方的发言中,存在较多语义不明的内容,无法清晰地理解其观点和论据。
反方的回应同样不太清晰,难以确定其对正方观点的针对性反驳以及自身的主张。
对方辩友对友善进行了一个定义,而我们认为友善是人与人之间的。在未成年前,这就涉及到……(此处表述不太清晰,难以准确理解)对方辩友单方面认为,我方的意思是,直接将有的东西放到最前面。超过亿元的国际专中,包括……(此处表述不太清晰,难以准确理解)比如说,有同化的,这些……(此处表述不太清晰,难以准确理解)做一款有没有,区对人,有。所以我认为是前,而实际有而是任,而时机有难,而是相互责任,就是用为用,上面有。(这段内容中存在较多难以理解的部分,可能是语音转文字过程中出现的错误或表述不清导致的)
对方辩友对友善进行了一个定义,而我们认为友善是人与人之间的。在未成年前,这就涉及到……(此处表述不太清晰,难以准确理解)对方辩友单方面认为,我方的意思是,直接将有的东西放到最前面。超过亿元的国际专中,包括……(此处表述不太清晰,难以准确理解)比如说,有同化的,这些……(此处表述不太清晰,难以准确理解)做一款有没有,区对人,有。所以我认为是前,而实际有而是任,而时机有难,而是相互责任,就是用为用,上面有。(这段内容中存在较多难以理解的部分,可能是语音转文字过程中出现的错误或表述不清导致的)