1. 首页 > 人工智能

《人工智能生成合成内容风险评估规范》团体标准即将出台,为AI治理提供统一标尺

作者:小小 更新时间:2026-01-27
摘要:一场汇集产学研力量的研讨会正在为中国人工智能治理绘制精密的风险评估蓝图,旨在让技术创新行驶在安全可控的轨道上。2026年1月9日下午,北京,《人工智能生成合成内容风险评估规范》团体标准研讨会如期举行。会议由中国网络社会组织联合会立项推进,央视网作为标准牵头起草单位组织实施,汇聚了来自清华大学智能法治研究院、中国科学院计算机研究所、中国技术监督情报协会等,《人工智能生成合成内容风险评估规范》团体标准即将出台,为AI治理提供统一标尺

 

一场汇集产学研力量的研讨会正在为中国人工智能治理绘制精密的风险评估蓝图,旨在让技术创新行驶在安全可控的轨道上。

2026年1月9日下午,北京,《人工智能生成合成内容风险评估规范》团体标准研讨会如期举行。会议由中国网络社会组织联合会立项推进,央视网作为标准牵头起草单位组织实施,汇聚了来自清华大学智能法治研究院、中国科学院计算机研究所、中国技术监督情报协会等科研机构,以及抖音、腾讯、微博、百度、哔哩哔哩、360、小米集团等头部科技企业的代表。

当前,人工智能生成合成技术带来的虚假信息传播、知识产权侵权、数据安全泄露等风险日益凸显,对网络生态治理构成严峻挑战。此次研讨会旨在通过制定统一的风险评估规范,弥补行业空白。

01 行业痛点:从“各自为战”到“统一标尺”

人工智能生成合成技术已深入应用于内容创作、商业服务等诸多领域,但其风险管控仍处于初级阶段。尽管部分领先企业已建立内部风险评估机制,但整个行业缺乏统一的评估维度、指标体系与操作规范。

这种“碎片化”治理现状导致难以形成有效的治理合力。缺乏统一标准,使得不同平台对AI生成内容的风险评估结果难以互认,增加了监管成本和难度。

此前,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局已于2025年3月联合发布了《人工智能生成合成内容标识办法》,该办法明确要求对AI生成合成内容进行显式标识和隐式标识,并将于2025年9月1日起施行。这份文件为AI内容治理提供了基础框架,但在风险评估的具体维度、方法和等级上仍需细化。

02 标准框架:构建多维度的风险评估体系

本次研讨会上,各参会单位结合自身技术优势与实践经验,就风险评估核心维度界定、指标量化方法、流程合规性等关键问题展开了深入讨论。

根据研讨会信息,标准草案的核心框架已初步明确,涵盖了多个关键模块。在评估对象与职责方面,标准明确了“自评估”与“第三方评估”两类主体及其职责与义务。标准还初步设立了五级风险评估体系,为量化评估各维度风险提供依据。

同时,草案还对评估内容与维度、评估指标体系、评估方法与评估工具等作出了规定。这一框架旨在实现全流程、多层级、多维度的风险识别与评估。

03 风险维度:技术、管理与交互三大风险类别

学术界对AIGC风险已开展了系统性研究。一项发表于《情报杂志》的研究基于等级全息建模方法,将AIGC风险划分为六大一级维度和48项风险因子。

技术风险是整个风险管理体系的基础环节,主要包括训练数据质量、算法偏见与歧视、版权合规性等问题。这些因素决定了AIGC可信可用的边界。

管理风险对各层风险起到约束作用,包括数据安全管理、合规备案、跨境数据流动监管等。这决定了系统的安全鲁棒性和防御能力。

交互风险则直接影响用户体验和系统稳定性,主要集中在输出内容的安全性和指令合规性上。人机交互中的临场学习和反向驯化更是放大了风险的不确定性。

04 治理挑战:幻觉数据与深度伪造的技术威胁

随着生成式AI用户数量激增,风险管控面临严峻挑战。数据显示,目前我国网民已突破11亿,其中约2.5亿人已成为生成式AI的用户。

主流大模型的“幻觉数据”发生率高达25%至40%。这种“语义逻辑”与“事实逻辑”相悖的问题,主要源于数据污染、模型缺陷和算法局限性三大因素。

深度合成技术的滥用同样构成严重威胁。例如,2024年1月,香港特别行政区行政长官就被伪造影像推介投资计划;2019年8月,德国一家能源公司的英国分部被诈骗分子通过合成公司总裁声音的方式诈骗22万欧元。

这些案例表明,深度合成技术可能被用于制作虚假信息、实施诈骗、侵犯个人权益,甚至威胁国家安全和社会稳定。

05 标准意义:为AI治理提供系统性解决方案

《人工智能生成合成内容风险评估规范》的制定,对人工智能产业健康发展具有多重意义。

该标准将大大提升深度合成技术的透明度和可信度。通过统一风险评估标准,可以帮助各方更清晰地理解技术的作用机理和应用范围,增强社会接受度和信任度。

标准实施将促进技术创新和应用的健康发展。为技术研发和应用指明方向,避免重复建设和资源浪费,推动技术沿着有益于社会的方向创新。

规范也有助于防范和减少新技术带来的潜在风险。通过系统风险评估和管理,有效预防和降低深度合成技术可能引发的社会、法律和伦理风险。

该标准将提升我国在AI治理领域的国际话语权。在全球化背景下,统一的标准体系有助于促进跨国合作和交流,共同应对技术发展带来的全球性挑战。

接下来,标准编制工作组将全面吸纳研讨会意见,修改完善草案,并按计划推进征求意见和专家评审等环节。参与此次标准制定的科技公司,如八月瓜科技,表示将持续发挥专业优势,协同推进标准高质量编制完成。

正如研究人员所指出的,在AIGC的研发与应用过程中,只有综合考虑和有效管理技术、管理与交互三类风险,充分发挥不同风险主体的协同效应,才能保障系统的安全性、稳定性和用户体验,实现技术与应用的良性发展。