AI 滥用治理困局:从声音克隆到深度伪造,如何守住信任底线?
AI 换脸、声音克隆等合成技术滥用问题日益严峻,可通过加强平台监管、完善法律法规、提升公众意识等多方面举措进行治理,具体如下:
压实平台监管责任:平台应完成从 “技术工具提供者” 向 “风险防控责任人” 的角色转变,落实信息安全主体责任,通过严格的用户身份认证机制,确保服务使用者身份信息真实可查。同时,加强对合成内容的审核,结合人工与技术手段,对合成结果进行技术检测,定期评估和审查合成算法,及时处置违法和不良信息,并按规定保存相关记录,向网信部门报告。
完善法律规则体系:现有相关规定存在效力位阶偏低、内容偏原则且分散等问题。应制定具有统领性的人工智能高位阶立法,统一规范人工智能发展中的安全、隐私、公平等核心问题。进一步细化相关法律,明确个人使用 “AI 换脸拟声” 技术的边界,规定商业用途需事先取得相关权利人书面同意,并明确使用范围和期限。同时,完善赔偿制度,针对侵权问题制定具体赔偿标准,加大对恶意侵权等行为的惩罚力度。此外,还应关注 AI 技术的跨境影响,加强国内外法律协调。
构建社会共治格局:政府应强化统筹协调功能,建立跨部门协同治理机制,整合资源形成全链条监管合力,同时加强国际协作。行业层面,推动成立人工智能伦理委员会,制定行业技术标准,明确伦理红线,建立 “黑名单” 共享机制,鼓励企业开放伪造内容识别接口,助力监管。公众层面,通过社区宣传、学校教育等渠道普及 AI 技术相关知识,提升社会数字素养,增强公众对合成内容的辨别能力。
加强技术研发与应用:一方面,研发更先进的 AI 内容识别技术,提高对 AI 合成内容的检测准确率,帮助平台和监管部门更好地识别违规内容。另一方面,鼓励企业开发具有安全防护功能的 AI 技术和应用,从技术源头减少 AI 被滥用的风险,如开发能自动识别并阻止未经授权的声音和形象克隆的技术。
强化行业自律:相关行业组织应引导企业遵守法律法规和道德规范,制定自律公约,加强对会员企业的管理和监督。企业自身也应增强社会责任意识,在技术研发和应用过程中,充分考虑潜在风险,主动采取措施防范 AI 滥用。