1. 首页 > 人工智能

遏制AI“说谎”:从法律威慑到技术阻断的全面治理之路

作者:小小 更新时间:2025-10-21
摘要:当AI能够“一本正经地胡说八道”时,治理AI谣言需要法律亮明底线、技术加固堤坝、公众提高辨别力,形成多方联动的共治格局。人工智能技术正以前所未有的速度发展,而“AI幻觉”带来的谣言问题也日益凸显。这类谣言凭借其高度逼真的表现形式和快速传播能力,对社会治理和网络安全,遏制AI“说谎”:从法律威慑到技术阻断的全面治理之路

 

当AI能够“一本正经地胡说八道”时,治理AI谣言需要法律亮明底线、技术加固堤坝、公众提高辨别力,形成多方联动的共治格局。

人工智能技术正以前所未有的速度发展,而“AI幻觉”带来的谣言问题也日益凸显。这类谣言凭借其高度逼真的表现形式和快速传播能力,对社会治理和网络安全构成了全新挑战。面对这一挑战,需要采取技术完善与规制并重的系统性治理方案。

01 法律亮剑:提高违法成本,解决取证难题

当前,我国已出台多部针对AI管理的法律法规,为治理AI谣言提供了法律依据。《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》《人工智能生成合成内容标识办法》等规章相继实施,向AI使用者和平台管理者亮明了法律底线。

然而,“AI谣言”违法成本过低的问题仍然存在。中南大学法学院副院长杨清望指出,必须对不法行为严加惩处,通过完善相关法律法规增强威慑力。近期,借AI造谣燃气涨价的广西网民郑某被行政处罚;一批传播“AI谣言”的网络账号被网信部门责令禁言或依法依约关闭,显示了法律的实际执行力。

取證難是治理AI谣言的另一大挑战。杨清望建议构建一套适应AI技术特性的证据收集与认定系统,通过建立完善的案件证据司法认定规则与标准,将不涉及商业秘密和个人隐私的平台算法透明化,以此破解证据与责任认定难题。

一些地方公安机关已经在此方面进行了有益探索。辽宁沈阳市公安局网络安全保卫支队民警杨永志表示,他们与科研机构、企业合作,提高对恶意“深度伪造”信息的监测预警和快速识别能力,建立了网络谣言巡查监测、核查反馈、会商研判、线索移送、打击处置的闭环机制。

02 技术加固:平台责任与溯源机制并重

技术平台在遏制AI谣言传播中扮演着关键角色。有网友发现,一些网络平台上,AI生成图片、视频发布时的“疑似AI技术生成”提示语出现并不及时,这为虚假信息传播提供了时间窗口。

中国政法大学网络法学研究所所长李怀胜指出,技术上可以通过算法识别、大数据分析和区块链溯源等手段识别和阻断谣言传播。例如,利用AI系统检测,通过自然语言处理和图像识别技术,自动标记可疑内容并减少推荐。

平台自觉治理至关重要。杨清望认为,为了维护自身发展和利益,平台应主动斩断“AI谣言”的传播链条。发现AI谣言后,平台应立即采取下架、删除、辟谣等措施,尤其是面对重大事件、敏感话题,要加强图片、视频的真伪核查。

监管部门还可以引入 “动态可追溯责任链”机制,使用内容显式标识和隐式标识等,探索开展“AI谣言”的内容倒查和动态追责。北京师范大学新闻传播学院教授许小可建议,针对生成和传播虚假信息的高风险领域,通过司法解释等法律形式,明确各方义务边界。

03 公众辨别:从识别迹象到核实信源

提高公众对AI谣言的辨别能力是治理体系的重要一环。AI生成的内容往往存在一些细微的痕迹,如生成的人物可能有“六根手指”,阴影方向异常,或者面部表情不协调。

提高警惕是提升辨别能力的第一步。当看到“网友爆料”“独家内幕”等字样,或发现信息逻辑存在漏洞或矛盾时,应当保持谨慎。许小可建议,要尽量找到权威信息核实,也可以通过交叉印证的方式验证信息真伪性。

防止在“无意识”中助力谣言传播同样重要。李怀胜指出,有些人可能主观上并无造谣意识,只是将AI合成内容发布在网络上,结果被大量转发,产生负面影响。他提醒,AI生成内容可能存在事实性偏差、逻辑漏洞或时效滞后问题,使用过程中应保持审慎态度。

媒体平台在内容审核方面负有特殊责任。专家认为,媒体应提高内容审核能力,通过官方渠道和权威信源核查信息真实性;自媒体从业者应增强法律意识,真实、准确、客观地发布信息。

04 系统治理:多方联动与知识普及

治理AI谣言需要多方联动形成共治格局。知识普及是其中的重要环节,通过发布典型案例,引导公众了解“AI谣言”的生成机制、传播逻辑和识别方式,可以帮助人们看清其真面目。

中央网信办开展的“清朗·整治AI技术滥用”专项行动已取得积极进展,累计处置违规小程序、应用程序、智能体等AI产品3500余款,清理违法违规信息96万余条,处置账号3700余个。这些行动显示了监管部门治理AI谣言的决心。

技术手段与治理机制需要紧密结合。从政策层面看,我国正在构建完善的AI治理体系。2022年11月,国家网信办出台《互联网信息服务深度合成管理规定》;2024年9月,发布《人工智能生成合成内容标识办法(征求意见稿)》,进一步明确AI生成内容必须添加显著标识。

治理AI谣言不仅是技术问题,更是社会问题。随着AI技术持续演进,治理策略也需要不断调整。只有通过法律、技术、教育等多管齐下,才能构建起应对AI谣言的有效防线。

随着《人工智能生成合成内容标识办法》于2025年9月1日正式施行,AI生成内容标识有了明确规范。标识化的AI内容将帮助公众更好辨别信息真伪,而持续的技术创新与法律完善将共同构筑抵御AI谣言的坚固防线。

未来,随着AI技术的进一步发展,治理策略也需与时俱进。只有通过持续的技术创新、法律完善和公众教育,才能让AI这一“智慧工具”真正造福人类社会。