AI生成内容须“亮明身份”:新规落地筑牢监管防线
9月1日,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布的《人工智能生成合成内容标识办法》(以下简称《标识办法》)正式施行,要求所有AI生成的文字、图片、视频等内容均须“亮明身份”。这一新规的落地标志着我国人工智能治理进入新阶段,为规范AI技术应用、保护公众权益提供了法律依据。
标识办法的核心要求与实施细节
《标识办法》明确要求人工智能生成合成内容必须添加显式标识和隐式标识。显式标识指用户可明显感知的标识,如文字、声音、图形等;隐式标识则是在文件数据中添加的技术标识,用于溯源追踪。该办法与《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法规充分衔接,形成了完整的治理体系。配套的强制性国家标准《网络安全技术人工智能生成合成内容标识方法》也同步施行,为标识技术提供了具体实施指引,例如要求视频内容的文字提示高度不低于画面最短边的5%,持续时间不少于2秒。
互联网平台的积极响应与措施
新规施行后,各大互联网平台迅速更新用户协议,落实标识要求。微信、视频号、抖音、B站、微博、小红书等平台均要求内容发布者以显著方式主动标识AI生成内容。对于未标识或疑似AI生成的内容,平台将采取限流、下架、封号等措施。例如,有用户发现在短视频平台上,此前流行的“萌娃”短视频下方已添加“作者提示:内容为AI技术制作,虚构内容请谨慎甄别”的说明,有效帮助老年人识别虚假内容。
标识制度的国际背景与治理价值
标识制度已成为国际共识,美国、新加坡、欧盟、英国等国家和地区也纷纷推进生成式人工智能标识制度的建立。中国科学院科技战略咨询研究院研究员肖尤丹指出,标识制度的主要目标是实现大规模、高可靠性和低成本的监管。通过较小的合规成本,可以较好解决AI技术快速发展带来的新问题,同时对利用AI技术抄袭、搬运内容的新媒体营销号形成有力打击。
AI技术滥用治理与挑战
针对AI技术滥用问题,中央网信办于2025年4月开展了为期三个月的“清朗·整治AI技术滥用”专项行动,共拦截清理违法违规信息82万余条,处置违规账号1400余个,下线违规智能体2700余个。当前治理重点包括利用AI生成低俗猎奇视频、虚拟外国幼儿教育专家内容、国际军事虚假信息等。然而,机器审核准确率难以达到100%,存在误判原创内容为AI生成的风险。业内专家建议平台完善复核机制,建立便捷申诉渠道,并引入专家评估机制,综合判断内容属性。
未来展望与行业影响
《标识办法》的实施为我国人工智能产业健康发展奠定了坚实基础。截至2024年底,我国已有302款生成式AI服务完成备案,940万软件开发者活跃在创新一线。随着标识管理与算法备案、安全评估等机制有机衔接,生成合成内容标识合规将成为人工智能监督检查的重点领域。未来,标识制度有望从“是否机器生成”的形式判断转向“是否足够可靠”的质量判断,进一步促进行业健康发展。
人工智能生成内容标识制度的建立,不仅提升了信息传播的透明度和可信度,也为技术创新与风险防范提供了平衡点。随着各方协同推进,AI技术将在规范中更好地赋能经济社会发展。