AIGC“狂飙”,多方呼吁合作应对AI风险,全球治理提速

资讯2个月前更新 AIGC学院
23 0

日前,在首届人工智能安全峰会上,中美英等28国家和欧盟签署《布莱奇利宣言》,同意共同管控人工智能带来的风险。今年以来,利用AIGC技术的语音、图像、视频等各类现象级传播案例日益涌现,也不可避免带来诸多技术以及法律、伦理问题,引发全球关切。如何采取有利于创新、适度的治理和监管方法,最大限度地发挥AIGC的效益,是视听行业必须面对的时代课题。

近期,一批高还原度的AI翻译视频近日在网络上广为传播,视频中美国歌手泰勒·斯威夫特、中国相声演员蔡明等人说起了外语,声线几乎没有变化,口型也能基本对上,被网友形容为“没有译制片腔调的翻译”。据了解,这些视频都使用AI视频生成服务“HeyGen”制作,用户只需要上传视频并选择要翻译的语言,即可实现自动翻译、调整音色、匹配嘴型。这些应用AIGC技术持续“狂飙”的一个缩影,也对大视听监管带来新的挑战。

一、大模型加速落地,行业级应用井喷

今年9月以来,百度、商汤、科大讯飞等国内多家科技企业或科研机构根据《生成式人工智能服务管理暂行办法》进行备案,并面向公众正式开放自研AI大模型,标志着国内大模型从小范围内测开始走向大规模应用。

各大互联网公司紧锣密鼓地部署大模型生态,在应用层发力。如百度基于“文心一言”大模型重构了百度旗下搜索、如流、地图、网盘、文库等十余款应用;腾讯“混元”大模型已接入了公司180个业务,重点打造腾讯会议、广告和浏览器等业务;阿里云已与60多个行业主体进行深度合作,推动“通义千问”大模型在办公、文旅、电力、政务、医保、交通、制造、金融、软件开发等领域的落地。

AIGC“狂飙”,多方呼吁合作应对AI风险,全球治理提速

在视听领域,普通用户拥抱着AIGC技术带来的新奇感和便利性,利用剪映、必剪等剪辑软件,可快速制作视频,自动配音、贴纸、特效等功能还能增强视频趣味性。短视频平台抖音、快手分别推出了“云雀大模型”“快意大模型”,为用户提供包括文本生成、图像生成、3D素材生成、音频生成、视频生成等在内的多种技术能力。B站推出“bilibili index大模型”,上线AI视频总结功能,可生成一段基于视频内容的文字总结。

一些专业性的创作团队也利用AIGC技术制作了颠覆传统创作逻辑的内容。如“AI-Talk”是由AI生成的谈话节目,团队制作了“马斯克对话乔布斯”“芭比对话奥本海默”“李白与林黛玉对诗”等,不但基本还原了人物的声音,还在一定程度上模拟了其思维。据《财新》报道,创作团队在视频制作过程中使用了多种AI工具和技术:先用ChatGPT创作脚本,通过角色的语料训练模型;然后用Midjourney或Stable Diffusion设计基础的角色形象,额外三四成通过手绘加工;接着靠团队自研AI技术生成谈话的语音。创始人介绍,这套技术主要基于“2.5D”模式,通过平面素材让AI模拟真人对话,既解决传统虚拟人生产效率的问题,又突破了创作题材的限制。

对广播电视台、网络视听平台、影视制作机构来说,由于文生视频技术在个性化、拟真度、素材丰富性方面还存在较大差距,并未在实际的影视内容制作、媒体内容生成领域得到广泛应用,但AIGC相关技术工具在策划、宣发等环节可较大提升工作效率。爱奇艺CEO龚宇认为,AIGC在影视制作方面的核心能力可总结为语言表达能力、美术视频能力、创意发散能力,这三种能力能够在策划、开发、制作、宣发等四大环节为创作者赋能。

二、AIGC技术引发视听领域多重风险

“AI幻觉”导致的内容失实问题仍然突出。“AI幻觉”是大模型的通病,指AI“一本正经地胡说八道”,生成完全捏造的、非真实存在的、不准确的信息。部分原因在于虚假、错误的训练数据。据英国媒体报道,不法分子会利用ChatGPT和Bard等AI聊天机器人制造出更有说服力的骗局,对公众构成威胁,且上述聊天机器人缺乏有效的防御措施。国内也出现过AI生成诋毁伟人、扭曲历史等违背主流价值观内容的案例。

AIGC引发的法律纠纷愈演愈烈。今年以来,AI引发的侵犯著作权、形象权等问题再次在全球范围内掀起波澜。特别是在视听领域,针对AI是否侵犯剧本内容、电影、电视剧以及人类声音、形象等的争论愈发激烈。在国内,“AI孙燕姿”“AI二创”引发了广泛讨论。

AIGC“狂飙”,多方呼吁合作应对AI风险,全球治理提速

国际上,5月开始的美国好莱坞罢工,核心争议之一就是AI的权益问题。美国编剧工会提出,AI创作的内容不能当成源材料,编剧写作指南范畴内的内容不能用于训练AI。美国演员工会提出,建立全套条款保护人类演员创作的作品,关于表演者“数字复制品”的使用、肖像或者声音的改编,都需要征求人类演员的同意,并支付相应的补偿。9月,《权力的游戏》原著作者等多名作家因版权问题将OpenAI告上法庭,要求禁止OpenAI未经授权使用版权作品,对已侵权的内容按每本书15万美元的价格赔偿作者。11月,美国演员斯嘉丽・约翰逊起诉了一家AI应用开发商,因其擅自使用了她的姓名、肖像和声音。

三、各方持续跟进监督治理

AI技术带来难以预知的各种风险和复杂挑战,AI治理攸关全人类命运,是世界各国面临的共同课题,紧迫性越来越强。

(一)国际社会:多方呼吁合作应对AI风险

联合国安理会在今年7月首次就人工智能问题举行主题为“人工智能给国际和平与安全带来的机遇与风险”的高级别公开会。联合国安理会秘书长古特雷斯警告称,人工智能正在多领域发挥作用,但它也可能被怀有恶意的人使用,包括将其用于恐怖主义、煽动仇恨和暴力等。他对建立一个新的联合国机构的呼吁表示欢迎,称这将有助于最大化发挥人工智能的作用并更好地管理风险。中国常驻联合国代表提出了关于人工智能治理的五条原则,包括坚持伦理先行、坚持安全可控、坚持公平普惠、坚持开放包容、坚持和平利用。

多国政府也积极倡导合作,提出治理方案。中国在10月发布《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三方面系统阐述了人工智能治理中国方案,彰显了大国责任与担当。11月1日,在英国布莱切利庄园举办的首届全球人工智能安全峰会上,中国等28国及欧盟签署首个全球性AI声明《布莱切利宣言》,旨在关注对未来强大AI模型构成人类生存威胁的担忧,以及对AI当前增强有害或偏见信息的担忧。

AIGC“狂飙”,多方呼吁合作应对AI风险,全球治理提速

在学术界,中国人工智能科学家与西方知名学者等24名AI专家在10月联合发表了论文《AI飞速发展时代的风险管理》,代表全球顶尖人工智能学者就政府应如何应对人工智能风险达成共识。他们呼吁对人工智能技术实施更严格的控制,建立一个国际监管机构,先进的人工智能系统须进行强制性注册和接受审核,引入即时“关闭”程序,并要求开发企业将30%的研究预算用于人工智能安全。

(二)政府:AI治理加速

全球对AI基本都按照平衡发展与治理的原则,既要降低AI的风险,又要支持本国AI发展。相较于此前一些新兴技术“先发展、再治理”的思路,全球主要国家和地区对AI治理的速度明显加快、力度也有所加强。

中国:规范AIGC关键环节。

今年7月,国家网信办、广电总局等部门发布《生成式人工智能服务管理暂行办法》,这是中国也是全球针对生成式人工智能服务领域制定的首部法规,其中提出了对生成式人工智能服务的分类分级监管要求,对生成式AI模型训练、数据标注、模型输出、用户使用等关键环节进行了规范,标志着我国生成式人工智能服务领域进入强监管和高合规标准的新阶段。10月11日,全国信息安全标准化技术委员会制定的技术文件《生成式人工智能服务安全基本要求》形成征求意见稿,提出建立语料来源黑名单,在训练过程中主要考虑生成内容的安全性。

欧盟:分级立法监管AI。

6月,欧洲议会通过世界首部AI监管法律《欧盟人工智能法案》,该法案根据4个级别的风险对人工智能系统进行分类,即“不可接受的风险”“高风险”“有限风险”“极小风险”,危险程度越低,受到的管制就越少,ChatGPT这样的生成式AI还将受到特别监管。

美国:鼓励AI以安全、可靠方式发展。

10月底,美国总统拜登发布“关于安全、可靠、值得信赖地发展人工智能的行政命令”,为AI安全和保障建立了新的标准,并在保护美国用户隐私、促进公平和公民权利、维护消费者和工人权益、促进创新竞争等8个方面进行了规定。行政令要求美国商务部、能源部和国土安全部等部门展开行动,保护美国人免受AI系统的潜在风险,要求外国大模型用美国云服务训练须申报。

(三)行业主体:未雨绸缪排风险

为了解决AI生成内容失实问题,很多AI研发企业在源头的数据端引入人工标注降低错误率。如OpenAI从2021年11月开始向肯尼亚的一家外包公司发送了数万条文本,以标出有关暴力、仇恨言论和性虐待的数据训练AI。百度“文心大模型”也采用了有监督精调、人类反馈的强化学习和提示等技术。

为应对未来的风险,OpenAI在今年10月底成立了一个名为“准备”(Preparedness)的团队,将跟踪、评估、预测和防范多个类别的“灾难性风险”,包括AI的说服人类能力、生成不当内容、自主复制与适应能力等风险。

作为AI造假的“重灾区”,利用AI生成虚假视频造谣、涉黄、诈骗的现象日益突出。对此,国内外多家网络平台发布规范AIGC的内容指引,要求创作者标记AI生成内容。今年9月,抖音公布关于“发布特定内容需主动添加标识”的公告,鼓励创作者尊重事实、发布客观真实信息,同时对于特定信息,应以“内容标识”的形式提供充分的说明。快手、B站随后也发表类似公告,要求创作者发布包含AI生成内容时添加作者声明。TikTok也要求,包含有AI图像、音频或视频的内容需要被打上“AI-generated”标签,避免误导用户。

(来源:微信公众号“国家广电智库”,作者:赵京文,国家广电总局发展研究中心)

© 版权声明

相关文章

暂无评论

暂无评论...