超800名科技领袖联署警告:超级智能或引发人类灭绝风险,亟需暂停研发

包括苹果联合创始人沃兹尼亚克、AI教父辛顿在内的全球3000多位专家共同发声,要求在全球达成安全共识前暂停超级智能开发,这场科技界的集体反思可能重塑AI发展轨迹。
2025年10月,一项由3000多名中外科技领袖联名签署的倡议引发全球关注。这项由未来生命研究所发起的倡议要求,在“超级智能”技术被科学界普遍认定为可控、安全,并获得公众广泛支持之前,暂停其进一步发展。
签署者包括人工智能先驱杰弗里·辛顿、苹果联合创始人史蒂夫·沃兹尼亚克、维珍集团董事长理查·布兰森等国际知名人士,以及中国科学院院士姚期智、清华大学教授张亚勤等中国学者。这一跨越国界和意识形态的联合行动,标志着超级智能的安全问题已从学术讨论上升为全球性议题。
01 联署阵容:科技界的共同警醒
此次联署的签署者不仅包括顶尖AI研究人员,还涵盖了政策制定者、企业家和公众人物,呈现出罕见的广泛性和代表性。
前美国国家安全顾问苏珊·赖斯、前参谋长联席会议主席迈克·马伦也位列其中,显示了对国家科技安全的严重担忧。甚至连英国王妃梅根、特朗普的盟友史蒂夫·班农也出现在签署名单上,这种跨越政治立场的联合极为罕见。
在中国学术界,多位知名学者参与联署此次倡议,包括姚期智、清华大学公共管理学院院长薛澜、清华大学智能产业研究院院长张亚勤以及人工智能伦理与治理专家曾毅。他们的参与和主张呼应了中国长期倡导的“安全、可靠、可控”和“以人为本”的人工智能发展理念。
02 风险本质:为何超级智能引发极度担忧
“超级智能”被定义为在所有核心认知任务上全面超越人类能力的人工智能形式。与当前大多数公司研发的通用人工智能不同,超级智能代表着一种质变,其潜在影响远超现有的AI系统。
倡议声明中明确指出,超级智能可能引发从“人类经济过时和被剥夺权力、自由、公民权利、尊严和控制权的丧失,到国家安全风险,甚至潜在的人类灭绝”。
这种担忧源于超级智能的自主目标设定能力。一旦AI系统能够自主定义目标,并且这些目标与人类价值观存在偏差,便可能产生不可控的后果。
曾毅教授强调,绝大多数公司目前研发的只是通用人工智能工具,并非真正的超级智能。但问题在于,“超级智能的风险是并没有科学依据可以控制的”。他特别指出,美国企业如Meta建立超级智能实验室,以及阿里声称的开发超级智能,这些动向已超出普通AI工具的范畴。
03 业界动态:科技巨头的战略布局
尽管存在风险警告,主要科技公司仍在加速布局超级智能研发。从埃隆·马斯克的xAI到萨姆·奥特曼的OpenAI,多家机构正竟相推进更先进的大语言模型。
Meta甚至将其LLM部门直接命名为“Meta超级智能实验室”,明确将超级智能作为研发目标。颇具戏剧性的是,在联合声明发布前后,Meta宣布在该部门裁员600人。
这种看似矛盾的现象体现了AI领域的现实困境:尽管意识到风险,但在竞争压力下,各大公司仍不愿放慢前进脚步。加州大学伯克利分校的Stuart Russell是一位领先的人工智能安全研究员,多年来一直在对超级智能发出警告,他帮助组织了这项工作。根据他之前的研究,挑战不在于人类能否建立超级智能系统,而是一旦它们存在,人类能否控制它们。
04 理念分歧:科技界的两极分化
围绕AI发展路径,科技界分化日益明显。一方坚持“发展优先”,鼓励技术创新以抢占未来制高点;另一方则主张“安全至上”,呼吁在风险未明、控制机制缺失时对高风险研发按下“暂停键”。
即使是身处AI研发前沿的领军人物,也对超级智能的风险有清醒认识。OpenAI首席执行官萨姆·奥特曼早在2015年就曾警告:“发展超人类机器智能可能是对人类持续存在的最大威胁。”
图灵奖得主、深度学习先驱杰弗里·辛顿近年来多次表达对AI风险的担忧。在2025年7月上海举办的世界人工智能大会上,他将人类与AI的关系比喻为“养老虎”——“要么把它训练好让它不攻击你,要么把它消灭掉。而对于AI,我们没办法把它消灭掉。”
然而,并非所有专家都持相同观点。Meta首席AI科学家杨立昆认为,“AI将接管世界”的想法很大程度上是“人类将自身的行为模式投射到了机器上”。那些担心风险的人往往是因为“尚未找到实现AI安全的可行路径”。
05 治理挑战:全球协作的迫切性
面对超级智能带来的全球性挑战,建立国际治理框架已成为当务之急。中美欧在AI治理路径上展现出显著差异,需要寻求协同之道。
中国一直倡导“以人为本、智能向善”的发展理念,主张统筹发展和安全。这种既不因噎废食,也不盲目冒进的治理思路,为全球AI治理提供了重要参考。
然而,当前全球AI治理面临严重碎片化风险。在2025年初的巴黎人工智能峰会上,美国、英国拒绝签署《关于发展包容、可持续的人工智能造福人类与地球的声明》,凸显了国际共识的缺失。
清华大学苏世民书院院长薛澜指出,即便AI失控的可能性在数值上看似很低,人类社会也绝不能抱着“试试看”的侥幸心态。“一旦系统走向失控,其后果可能不可逆转,须采取审慎的治理策略。”
06 未来路径:在创新与安全之间寻求平衡
超级智能的发展之路需要在技术创新与安全保障之间找到平衡点。完全暂停研发可能不切实际,但放任自流同样不负责任。
一种可能的路径是建立分层治理框架:对自主武器、大规模社会评分等高风险系统执行严格准入与全程监控;对中低风险应用则鼓励试点、包容审慎。
同时,需要推动伦理先行,完善全周期伦理审查,将公平、透明、可解释性原则嵌入研发过程,强化科研人员社会责任。
从技术层面,应加强可解释AI研究,使超级智能的决策过程对人类透明可控。同时开发“中断开关”等安全机制,确保人类在任何情况下都能保持最终控制权。
正如专家所言,我们需要的不是在创新与安全之间二选一,而是建立一种动态平衡、协同演进的治理范式,使AI真正成为推动人类文明进步的“普罗米修斯之火”,而非吞噬一切的“潘多拉魔盒”。
超级智能已成为人工智能领域的热门词汇,科技界对其态度日益分化。一方视AI为推动社会进步的关键力量,主张自由发展;另一方则强调其潜在风险,呼吁加强监管。
尽管面临风险警告,主要科技公司仍在加速超级智能研发。Meta甚至将其大语言模型部门命名为“Meta超级智能实验室”,并在联合声明发布当天裁员600人,同时强调超级智能仍是公司首要任务。
在创新与安全的平衡之间,人类需要建立全球治理框架,确保超级智能的发展方向符合人类整体利益。正如倡议所强调的,在满足“广泛的科学共识”和“强烈的公众支持”两大前提之前,暂停超级智能研发可能是人类面对技术不确定性的理性选择。
