深度合成技术新规落地 涉及AI换脸和虚拟
继算法推荐之后,深度合成技术也迎来单独规范。12月11日晚间,国家网信办、工信部、公安部发布《互联网信息服务深度合成管理规定》(下称《规定》),《规定》从技术提供者、服务使用者以及监管等各方面,对深度合成技术应用提出规范,《规定》自2023年1月10日起施行。
、AIGC背后推手
深度合成技术,是指利用以深度学习、虚拟现实为代表的生成合成类算法制作文本、图像、音频、视频、虚拟场景等信息的技术。
中国科学院信息工程研究所所长孟丹表示,近年来,深度合成技术应用广泛、形式多样,在影视、传媒、教育等领域有大量应用形式,可实现特效制作、元宇宙场景、虚拟仿真教学等功能。随着各类商业化产品普及,深度合成的信息内容也在网络上大量涌现。
典型的深度合成案例包括人脸替换、人脸再现、人脸合成和语音合成。近日风靡全网的AI聊天机器人,以及AIGC、虚拟主播等,均为深度合成技术的具体应用。
可以看到,深度合成应用正在“深入群众”,然而,技术“平民化”的背后,一系列负面风险也随之而来。实际上,利用深度合成技术伪造虚假音视频,从而进行诈骗勒索的违法行为和案例报道已屡见不鲜,亟需得到规范。
孟丹认为,从技术进步的角度来说,深度合成技术应用的初衷是让生成合成内容更逼真,但深度合成技术在愈趋“智能”的同时,也不可避免地带来更多的安全风险,除深度伪造风险外,还包括生成合成信息内容带来的个人信息泄漏、侵犯人格权和知识产权等他人合法权益等风险。
小冰CEO李笛此前在接受《科创板日报》记者采访时表示,早年间的AI换脸,就是典型的利用AI技术作恶的乱象。2019年AI“换脸”应用ZAO走红网络,用户只需要上传一张自己的照片,就可以换脸成为影视剧中的明星。然而仅仅三天,ZAO便因涉嫌未依法依规收集使用人脸信息被工信部约谈,接着便被下架。
行业人士认为,此次《规定》的出台,能消除一些行业乱象。
平台需把关审核 个人需知情
2021年12月,国家互联网信息办公室发布《互联网信息服务算法推荐管理规定》(以下简称《算法规定》),对包括生成合成类在内的五类算法推荐服务进行规范。《互联网信息服务算法推荐管理规定》已于今年1月施行,《规定》是第二部专门针对算法的规范。
有基于ZAO等“AI换脸”等负面案例,本次《规定》要求深度合成服务提供者和技术支持者提供人脸、人声等生物识别信息编辑功能的,应当提示深度合成服务使用者依法告知被编辑的个人,并取得其单独同意。
在技术提供者方面,《规定》明确,应用程序分发平台应当落实安全管理责任,核验深度合成类应用程序相关情况。提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认。
此外,深度合成服务提供者应当基于移动电话号码、身份证件号码、统一社会信用代码或者国家网络身份认证公共服务等方式,依法对深度合成服务使用者进行真实身份信息认证,不得向未进行真实身份信息认证的深度合成服务使用者提供信息发布服务。
这也意味着,深度合成服务提供者和技术支持者都要从源头上对深度合成内容提前把关。
《规范》还明确了主管部门职责,由网信部门负责统筹协调深度合成服务的治理和相关监督管理工作;电信主管部门、公安部门依据各自职责负责深度合成服务的监督管理工作。
对比年初的征求意见稿,《科创板日报》记者还发现,《规定》新增了条款,要求具有生成或者编辑人脸、人声等生物识别信息的模型、模板等工具的深度合成服务提供者和技术支持者,应当自行或者委托专业机构开展安全评估。
“有别于信息内容发布与传播,互联网信息服务深度合成活动是一项涉及算法技术、应用功能、产品业务,覆盖数据采集、分析、编辑、加工等多环节的数据处理过程,产生的安全风险也是由参与多方、不同环节共同作用形成的,因此对互联网信息服务深度合成的规范和引导,需要覆盖各主体、各环节。 ”孟丹表示。
国家互联网信息办公室有关负责人指出,深度合成服务治理需要政府、企业、社会、网民等多方主体共同参与,推动深度合成技术的依法、合理、有效使用,积极防范化解深度合成技术带来的风险,促进互联网信息服务健康发展,维护网络空间良好生态。
声明:本站所有文章资源内容,如无特殊说明或标注,均为采集网络资源。如若本站内容侵犯了原著者的合法权益,可联系本站删除。