1. 首页 > 人工智能

十部门出台AI伦理审查办法 明确专家复核三类高风险活动

作者:admin 更新时间:2026-04-28
摘要:近日,工业和信息化部、国家卫生健康委等10部门联合印发《人工智能科技伦理审查与服务办法(试行)》,旨在有效规范人工智能科技活动的伦理治理。《办法》对人工智能科技伦理审查的适用范围、服务促进、实施主体、工作程序、监督管理等作出详细规定,并明确了申请与受理、一般程序,十部门出台AI伦理审查办法 明确专家复核三类高风险活动

 

近日,工业和信息化部、国家卫生健康委等10部门联合印发《人工智能科技伦理审查与服务办法(试行)》,旨在有效规范人工智能科技活动的伦理治理。《办法》对人工智能科技伦理审查的适用范围、服务促进、实施主体、工作程序、监督管理等作出详细规定,并明确了申请与受理、一般程序、简易程序、专家复核程序、应急程序等不同程序要求。该办法自印发之日起施行。

明确适用范围与审查重点

《办法》适用于在中华人民共和国境内开展的,可能在人的尊严、公共秩序、生命健康、生态环境、可持续发展等方面带来科技伦理风险挑战的人工智能科学研究、技术开发等活动,以及依据法律、行政法规和国家有关规定需进行人工智能科技伦理审查的其他科技活动。

根据《办法》,人工智能科技伦理审查将重点围绕人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等方面开展。审查将关注参与科技活动的科技人员资质等是否符合相关要求,拟开展的科技活动是否具有科学价值和社会价值,科技活动的风险与受益是否合理,以及伦理风险控制方案与应急预案是否科学、恰当且具有可操作性。

建立标准体系与鼓励创新

《办法》提出,要建立和完善人工智能科技伦理标准体系,鼓励高等学校、科研机构、医疗卫生机构、企业和科技类社会团体等参与人工智能科技伦理标准的制定、验证与推广。同时,鼓励相关机构开展人工智能科技伦理审查研究,支持人工智能科技伦理审查技术创新。

发布需专家复核的高风险活动清单

与《办法》同步发布的《需要开展科技伦理专家复核的人工智能科技活动清单》明确了三类需进行专家复核的高风险活动:

1. 对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发;

2. 具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发;

3. 面向存在安全、人身健康风险等场景的、具有高度自主能力的自动化决策系统的研发。