何勇海|依法加强互联网信息服务深度合成管理

更新时间:2022/12/22    来源:民主与法制时报    作者:    浏览:

  国家互联网信息办公室、工业和信息化部、公安部近日联合发布《互联网信息服务深度合成管理规定》(以下简称《规定》)。规定强调不得利用深度合成服务从事法律、行政法规禁止的活动,要求深度合成服务提供者落实信息安全主体责任。《规定》将于2023年1月10日起施行。(12月12日《北京日报》)

  按照三部门此次发布的《规定》,深度合成技术,是指利用深度学习、虚拟现实等生成合成类算法制作文本、图像、音频、视频、虚拟场景等网络信息的技术,具体包括篇章生成、文本风格转换、问答对话等生成或者编辑文本内容的技术,文本转语音、语音转换、语音属性编辑等生成或者编辑语音内容的技术,音乐生成、场景声编辑等生成或者编辑非语音内容的技术,人脸生成、人脸替换、人物属性编辑、人脸操控、姿态操控等生成或者编辑图像、视频内容中生物特征的技术,图像生成、图像增强、图像修复等生成或者编辑图像、视频内容中非生物特征的技术,三维重建、数字仿真等生成或者编辑数字人物、虚拟场景的技术等。由此看来,包括“AI写作”“AI绘画”“AI音乐”“AI变声”“AI换脸”等AI技术的应用,均在此次出台的管理规定约束之列。这有着极强的现实必要性。

  近年来,互联网信息服务深度合成技术快速发展,满足了用户的需求,改进了用户的体验,比如用户只需用言语简单描述自己希望看到的画面,AI技术便可自动生成相关画作;用户只需要上传一张自己的照片,就能把别的图片和视频里的人脸变成自己的,能妥妥体验当主角的感觉……然而,深度合成技术是一柄“双刃剑”,它容易被一些人用于对他人原作版权的模仿借鉴,形成侵权;也容易被一些不法人员用于制作、复制、发布、传播违法信息,诋毁、贬损他人名誉、荣誉,仿冒他人身份实施诈骗等违法行为,影响传播秩序和社会秩序,损害人民群众合法权益,危害国家安全和社会稳定。利用深度合成技术作恶必须遏制,《规定》的出台,能够划定深度合成服务的“底线”和“红线”,维护网络空间良好生态。

  当然,技术本身是无罪的,问题出在使用技术的人身上,包括深度合成服务提供者、技术支持者,他们应当受到来自道德伦理的约束、法律的规制。因此管理规定提出,不得利用深度合成服务制作、复制、发布、传播法律、行政法规禁止的信息,或从事法律、行政法规禁止的活动;建立健全用户注册、算法机制机理审核、科技伦理审查、信息发布审核、数据安全、个人信息保护、反电信网络诈骗、应急处置等管理制度,具有安全可控的技术保障措施;提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应当进行显著标识,避免公众混淆或者误认……管住技术背后的人,深度合成服务才可能健康发展。

  其实,对于深度合成技术,2019年11月国家网信办等联合印发了《网络音视频信息服务管理规定》,要求利用新技术新应用制作、发布、传播非真实音视频信息的,应当以显著方式予以标识。2021年1月正式实施的《中华人民共和国民法典》明确,任何组织或者个人不得以丑化、污损,或者利用信息技术手段伪造等方式侵害他人的肖像权;未经肖像权人同意,不得制作、使用、公开肖像权人的肖像。从这一角度来说,《规定》能够更好落实相关法律、行政法规,明确各类主体的信息安全义务,为促进深度合成服务规范发展提供有力法治保障。

  法律的生命力在于实施,法律法规只有得到严格执行,才能彰显其权威和价值。各地网信等部门应强化常态化监管,发现存在较大信息安全风险的,应按照职责依法要求其采取暂停信息更新、用户账号注册或者其他服务等措施,明确违反规定的法律责任,同时加大处罚力度。治理深度合成服务乱象,除了相关部门要提升监管能力水平,引导技术向善,还需要社会总动员。企业、社会、网民等多方主体共同参与,特别是广大网民主动举报,共同推动深度合成技术的依法、合理、有效使用,就一定能促进深度合成服务向上向善,助力营造清朗网络空间。