并不是说冒犯民族感情不应入罪入罚,只是立法者对其加以规定时必须要对多种利益进行全面检视和权衡,其中包括冒犯的严重性、受众对冒犯是否已无法避免以及冒犯行为对个人权利和社会价值的伤害程度。
在对待智能产品深度学习中涉及到的知识产权问题,特别是具有著作权的各类作品的学习问题上,可以采取注释说明的方式,表明大数据的来源或者具有可追溯的透明机制即可。近日,欧盟提出了针对ChatGPT等服务进行监管的提案,重点提出生成式人工智能的新的版权规则。
并且,在国家提倡在大数据交易中心进行数据取得,数据作为市场要素进行流通的过程中,即使原始数据来源合法,也很难保证数据转用的合法性,生成式人工智能产品的预训练数据可能几易其手,中间涉及到多个数据处理者,在这样复杂的数据流转中,将责任归结到人工智能产品服务提供者过于简单。在欧盟议会《人工智能法案》的最近讨论中,知识产权以及隐私等数据合规问题也再次被强调,但欧洲立法的出发点是对抗性的,甚至是为了设置美国公司进入欧洲市场的贸易壁垒。对于个人信息中涉及到的隐私权和其他人身权可以按照前述三部法律来进行合规。这一提案得到一些共识,有望成为欧美在智能领域产品应用的另一场博弈。 数据来源合法性是数据产品合规的必要条件,若数据来源不合法不合规,该数据产品将无法进入市场应用阶段。
大数据每时每刻都在变化,智能式学习就是要求能够基于事物变化做出判断。我国对人工智能的监管目的是规范和促进性的,应当以扶持一批生成式人工智能的公司开展竞争性创新为出发点,在智能技术应用领域里,走出一条自主可控的创新路线和产业生态之路。在全过程人民民主制度建设中,加强全过程人民民主的法治保障是最为基础和关键的环节与要素
其次,向公众普及有关神经网络、深度学习等技术的知识,帮助人们理解生成式人工智能的运作原理和局限性,避免技术依赖。因此,在立法和监管上,就必须尽可能准确识别其风险,在原有信息内容治理框架内,完善从数据到算法到内容的链条性规制。但是,国内外大量经验事实证明,现代社会的法律与政策不仅仅有规制功能,更是国际制度竞争的重要方面。生成式人工智能大型语言模型具有更好的通用性、精度和效率,可以通过预训练或其他方式在大型数据集上进行学习,再通过微调高效地处理计算机视觉、自然语言处理等复杂任务。
(四)人工智能信息内容生成的特征在专业生成内容(PGC)、用户生成内容(UGC)以及混合生成等互联网信息内容生产模式之外,人工智能生成内容(AIGC)模式影响日益显著,带来内容生产主体和生产方式的演化、内容交互方式和分发方式的改进、内容生产质量和生成效果的提升。一是建立科学、明晰的法律责任承担机制。
商量SenseChat是高效聊天助手,它能秒解复杂问题,提供定制化建议,还能辅助创作一流文本,具备不断学习进化的特性。由于生成式人工智能大模型在信息内容生产与传播上高度的技术专业性已远离人们的既有常识,本文在第一部分将主要尽可能言简意赅地梳理出人工智能大模型在内容生成上的典型功能、应用场景与重要特征。如影SenseAvatar是人工智能数字人视频生成平台,仅需一段5分钟的真人视频素材,就可以生成出声音及动作自然、口型准确、多语种精通的数字人分身。随着美国人工智能研究公司开放人工智能(OpenAI)推出的聊天生成预训练转换器(ChatGPT)爆火,多家科技巨头不断加码生成式人工智能竞赛。
实际上,对于来自境外政府或相关组织利用生成式人工智能大语言模型传输违反我国法律法规信息的行为,不仅仅在技术上采取阻却措施,还可以探索建立反制机制,以更好维护国家主权、安全、发展利益。互联网发展史表明,虽然政府和国家的支撑作用不能忽视,但科学社群、技术社群的作用也同样重要。生成式人工智能大模型的应用和影响是全球性的,需要各国研发机构共同努力,协调技术标准。履行特殊标识义务,以显著、醒目的方式对深度合成内容进行标识。
实践证明,如果监管措施与规则能够与被监管对象激励相容,则不仅更容易实现监管目标,也会极大地降低监管成本,提高合规与守法积极性。在一定程度上,大模型融合了信息的搜索、查找、整合和初步输出等环节,有利于推动知识的传递、传播和传承。
(一)激励相容:优化大模型开发法治环境新一轮技术革命和产业革命蓬勃开展,每一次产业革命都会产生关系国家兴亡、民族盛衰、文明荣枯的重大影响。美国政府在当年的《资助伊朗持不同政见者报告》中明确表示对新媒体的资助,甚至直接要求Twitter官方推迟系统维护,以免反对派失去联系渠道。
ChatGPT-3就已经具备上下文学习的显著能力,能够预测上下文词汇,学习或模仿数据中的模式,通过对应的关键信息匹配和模式模仿来输出对应情境下的回答。欧洲消费者组织(BEUC)发起呼吁,要求欧盟和国家层面的欧洲监管机构对ChatGPT展开调查。而且,国外的人工智能监管当前仍主要集中在传统人工智能领域,而不是生成式人工智能大语言模型。在生成式人工智能大语言模型之前,人类获取知识和信息,或者靠面对面交流,或者靠查询图书资料,或者靠互联网搜索引擎。当用户提问时,可能会暴露并不想公开的个人信息。(二)大模型的内容生成功能大模型已经具备多模态、跨模态的信息内容生产能力。
在人工智能算法的风险应对方面,《算法推荐管理规定》对算法推荐服务进行监管,开启了算法治理的法治化进程。即使是片段性或零碎的信息,ChatGPT也可能将其与其他数据结合在一起进行挖掘分析,从而推断出关系国家安全、公共安全、个人和组织合法权益的情报信息。
自身存在问题的算法,可能被引导生成违反法律法规的内容。以商汤日日新大模型系列为例,秒画SenseMirage是文生图创作平台,可以文字生成光影真实、细节丰富、风格多变的图片,可支持6K高清图的生成。
但生成式人工智能以整合信息、分析数据完成了对海量公开知识的整合,而且能与人对话交互,从而集搜索引擎、百科知识平台、知识社区、软件开源社区和部分社交媒体等各类功能于一身,根据其所继承的海量知识进行精简高效的归纳输出,极大提高了人类获取信息的能力。当然,还要提升公民数字素养,避免生成式大语言模型的应用不平衡所带来的数字鸿沟。
在获取信息的方式上是单向的、枯燥的。特别是互联网作为新技术、新产业,背后复杂的代码世界和技术发展往往领先于日常生活世界,不可能立即被包括监管部门在内的社会大众所充分理解。此外,通过连接智慧生活、智慧根据文字描述进行AI换脸等等深度合成功能一键生成数字人分身,也较为强大。生成式人工智能大模型可以成为机灵的私人助理。
但生成式人工智能大语言模型极大地改变了人类获取知识和信息时的对话方式。但由于生成式人工智能大模型尚属于小荷尖角,世界各国并未能形成系统的法规政策与监管体制。
相比于从前媒体机构内部使用的人工智能工具,这一代生成式人工智能的应用面向所有用户开放,带来自我释放、自我创造的可能性,带来一种信息的普惠,从而缩小社会的知识鸿沟。如何在最大程度上发挥生成式人工智能技术效能的同时,减少新兴技术对社会发展造成的负面冲击,就成为全球性的重要问题。
对于专业领域的信息,在自然语言处理的过程中存在着通用化与专业化之间的矛盾,很难在保证结果易读的同时又不降低其专业性。在自媒体发展时代,舆论操纵成为更加严重的问题。
四、探寻生成式人工智能的信息内容治理之道网络安全是相对的,不是绝对的,零风险并不是一个科学的目标。人们可能会将最终决定权委托给某些自动文本生成器,就像今天他们向谷歌询问存在主义问题一样。进而,在对国内外信息内容治理作出简要梳理的情况下,尝试提出针对生成式人工智能信息内容的治理道路。当用于事务规划,因存在幻觉、准确性有限、上下文理解能力有限,易出现胡诌的情形,规划出错误的行程、日程安排。
在中美博弈日趋炽烈,美国对我国极限打压、封锁围堵的情况下,有没有生成式人工智能大模型,我们的大模型是否足够先进、强大,才是更具根本性的问题。(一)大模型规制成为欧美重要议题科技与产业界已经有不少人对生成式人工智能表现出警惕。
关键词:生成式人工智能。现实社会的权力结构被编码在大模型中,大模型输出体现现实权力机构的内容,产生权力的马太效应,结果往往是打造压迫的再生产系统,破坏信息生态系统。
二、生成式人工智能带来信息内容治理新挑战某种意义上说,生成式人工智能大模型正在成为人类信息内容生产与传播的集合体。内容审核具有难以控制的复杂性。