作为人工智能领域的新实践,近年来,利用深度学习、虚拟现实等生成合成类算法制作图像、音频、视频、虚拟场景等信息的深度合成技术,已在多个领域大量应用,伴随着不断涌现的使用需求,深度合成内容数量和关注度呈现快速增长态势。
另一方面,每一次技术变革,在造福社会的同时,也不可避免地会带来安全风险。恶意使用该技术生成的音视频,也显现出了巨大的破坏力,给个人、企业造成了声誉损害和财产损失,也对社会、国家安全造成威胁。
为了对人工智能和深度合成技术的健康发展提供参考和指引,清华大学人工智能研究院、北京瑞莱智慧科技有限公司、清华大学智媒研究中心、国家工业信息安全发展研究中心、北京市大数据中心近日联合发布《深度合成十大趋势报告》,从技术研究、领域应用、发展趋势等多个方面,全面深入地介绍和研判深度合成技术及应用带来的机遇与挑战,并就其发展与治理给出切实可行的建议和措施。
《报告》截图
深度合成爆发式增长
深度合成的图像、视频、音频、文本等内容,例如热门影视剧片段、话题明星的换脸视频等等,具有极强的娱乐性与传播性,伴随着技术的发展成熟,越来越多的创作者在互联网上发布和分享深度合成内容,数量逐年高速增长。以视频为例,《报告》显示,在国内外主流音视频网站、社交媒体平台上,2021年新发布的深度合成视频的数量较2017年已增长10倍以上。
深度合成在影视制作、广告营销、社交娱乐等领域发展出多元化的商业应用,例如AI合成主播、虚拟偶像、修复历史老照片、影视剧本地化配音、“数字复活”已过世演员等。
《报告》截图
一些面向公众开发的合成类产品也陆续推出,《报告》显示,视频、语音和文本形式的服务最为普遍,例如支持风格定制的特效视频制作软件等风靡网络;语音方向衍生出了语音导航、有声读物、自动新闻播报等应用;文本合成则在新闻报道、诗文创作、聊天问答等方面发挥着重要作用。
“元宇宙”等新商业思维的提出,也为深度合成提供了更广阔的应用场景。阿里巴巴安全感知与认知智能部负责人薛辉表示,比如虚拟人、数字人即是深度合成的主要应用,也是“元宇宙”的重要组成部分。
清华大学新闻与传播学院常务副院长陈昌凤认为,深度合成将重新定义虚拟数字化空间,从传播社会学意义上看,一个新的人类生存场景将以深度合成技术为基石展开。
瑞莱智慧CEO田天表示,技术不断成熟是深度合成内容迎来爆发式增长的重要原因。研究论文的持续增加、开源技术工具和大量代表性方法的涌现,令深度合成内容的效果更加逼真、制作也更加高效,尤其是生成对抗网络等算法的出现,让合成内容达到了 “真假难辨”的程度。
“深度伪造”风险加剧,亟需治理
正因如此,深度合成激发了新内容创造力的同时,也带来了新的威胁。
随着技术逐步“平民化”,不法分子可轻易伪造音频、视频,实施诬陷、诽谤、诈骗、勒索等违法行为,甚至捏造国家政要言论扰乱社会与政治秩序。
2021年10月,安徽合肥警方曾查获一起非法利用深度合成技术伪造手机用户人脸动态视频破解身份核验,为黑灰产业提供注册虚拟手机卡等技术支撑的案件。近年来,类似事件开始更多的进入公众视野。
深度合成内容模糊了真实和虚假的边界,将对社会信任、媒体信任、政治信任产生巨大的影响。陈昌凤表示,虚假内容的高难度甄别影响了事实核查的有效性,在社会重大事件或政治事件节点上,深度合成技术可能被用于操作舆论意见,借助社交媒体,使虚假信息短时间内引发产生病毒式扩散,激化社会矛盾。
负面风险不断加剧,如何有效甄别深度合成内容就成为了关键,但随着合成质量的不断提升,传统基于生物特征的鉴别方式越来越难以发挥作用。
浙江大学网络空间安全学院院长任奎表示,目前对深度合成的检测主要依赖于人工智能模型,依赖于训练数据的完备性,包括检测器泛用性相低、公开数据集适用性、数据敏感等,这些都将带来诸多挑战。
田天也表示,新型伪造方法层出不穷、网络传播环境的日趋复杂,加上基于检测算法存在漏洞缺陷等,反深伪检测技术面临“强对抗性”,需要持续更新与迭代。
《报告》显示,目前学术界和产业界均已对反深伪检测投入了大量研究,meta、谷歌、微软等机构均推出了深度合成视频认证的方法或产品。在国内,清华大学、中科大等高校在深度伪造内容检测方面取得显著成果,清华大学孵化团队瑞莱智慧推出的深度伪造内容检测平台DeepReal拥有工业级的检测性能和应对实网环境对抗变化的检测能力。清华大学人工智能研究院基础理论研究中心主任朱军认为,深度合成检测面临持续的攻防和博弈,未来还需融合多模态内容的取证分析、基于数字水印的溯源技术等多方面能力,实现精准识别。
同时,我们不能因为技术风险就因噎废食。
中国工程院院士邬贺铨认为,第一,任何新技术的出现和应用,都会带来社会问题,其中当然也有伦理问题;第二,伦理问题需要从道德和法律的层面来解决;第三,对于技术失控和技术滥用的问题,需要通过发展技术来解决,当前深度合成的技术发展得还不够,所谓“道高一尺魔高一丈”,发展永远在路上。
《报告》截图
构建法律、伦理等多维度治理机制
深度合成技术的良性发展,离不开多维度治理机制的探索。《报告》显示,除了发展深度伪造内容检测技术以外,近几年来,针对深度合成技术恶意使用所带来的挑战,世界各国纷纷出台相关法律法规,探索深度合成的治理路径。国际方面,美国从联邦和州层面进行专门立法,欧盟将深度合成纳入《通用数据保护条例》等现有法律框架规制。此外,德国、新加坡、英国、韩国等国家,均有适用于深度合成技术相关犯罪案件审理的法律法规。
清华大学苏世民书院院长薛澜提到,今天也有一些业内人士议论,人工智能领域刚刚发展就在探讨治理,是否过早?其实这是一个好事,因为过去许多其他技术在全球发展过程中,中国是落后的,这些技术引进中国时,相关的治理讨论已经结束了,中国直接参考结论即可。但这次人工智能技术的发展,中国至少处于并跑地位,在第一时间与其他国家共同面对如何治理的问题。
2019年11月起,我国先后出台《网络音视频信息服务管理规定》、《网络信息内容生态治理规定》、《中华人民共和国民法典》、《互联网信息服务算法推荐管理规定》,均对生成合成类内容等提出了不同程度的监管要求。今年1月,国家网信办公布了《互联网信息服务深度合成管理规定》,对深度合成内容的用途、标记、使用范围以及滥用处罚作出了具体规定。
对于深度合成内容治理路径的探索,陈昌凤表示可以从技术、伦理与法制等几个方面努力,技术方面,通过政府与社会组织参与、协同治理,伦理方面,确立和倡导相关的深度合成原则。中国社科院哲学所科技哲学研究室主任段伟文建议,对深度合成技术引发的社会、法律和伦理问题,应展开有系统性、前瞻性的跨学科研究,对其可能出现的高风险应用场景,进行有针对性的治理与监管。
中国科学院自动化研究所研究员陶建华认为,目前深度合成本身的内涵和外延不够清楚,在监管中有很大的困难。大量技术存在两面性,最早从事深度合成相关研究的人,其动机是从娱乐、改善人的生活出发的,比如声音的个性化模仿,很多人研究让机器自主学习妈妈的声音,给婴儿朗读故事,所以应该更有效地去管理技术的使用者,而不去过多的约束它的研制者。
中国科大网络空间安全学院执行院长俞能海强调了治理的“全国一盘棋”,他提到,目前国家很多部门在做治理的相关研究和工作,各部门应统筹协调,一方面,人工智能技术在不同领域的应用很难有一个放之四海而皆准的统一规则,另一方面,技术人员与法律、政府等规制层面的人员要跨界交流合作,尽量使规制跟上技术发展节奏。
由于法律规范往往缺乏弹性和前瞻性,薛澜特别强调伦理意识的重要性,他认为,很多问题很难用法律调整,需要更广泛的多元主体的对话机制,形成某种程度的社会共识,在这个基础上建立前沿研究和应用的伦理评估、预警和管控机制。因为“码农”他们最清楚代码背后的东西,所以提高从业者伦理意识非常关键。
中科院自动化所研究员、联合国教科文组织AI伦理特设专家组专家曾毅则倡导产研发展自律自治,他表示,在法律法规不完全成熟及体系化之前,产业界自身应强化“理论先行”意识,作为产业共同体共同防范滥用、严禁恶用。2021年11月,联合国教科文组织在全球共识的基础上发布了《人工智能伦理建议书》,成为全球首个针对人工智能的伦理规范框架,曾毅作为中方代表参与了建议书的讨论、咨询和起草。
对外经济贸易大学法学院副教授许可表示,社会层面应加大宣传普及力度,强化公民对深度合成等人工智能技术的认识,提高全社会的防范意识,推动公民作为负责任的深度合成技术的使用者,主动标识合成内容并积极践行社会监督。
对此,田天也表示,深度伪造的本质问题是透明度不足,因此提供低门槛的伪造检测工具,提高公众对深度合成技术的认知尤为重要,只有在政府引导和从业者共同推动下,将门槛降低到所有受众能够在共同的框架下去认识、讨论、理解这个问题的时候,深度合成技术才能健康良性发展。
《报告》也建议,各方应当与时俱进落实好新的规范要求,并在此前提下不断追求技术突破,不断开拓深度合成技术应用场景,创立示范标杆,形成对人工智能行业整体的带动效应,从而促进新技术的持续健康发展。
在线阅读《深度合成十大趋势》报告 完整版
本文系观察者网独家稿件,未经授权,不得转载。