超3000名科技领袖联署警告:超级智能研发亟需按下“暂停键”

一项由中美顶尖AI专家共同发起的全球倡议警示,在安全控制措施缺位的情况下,继续开发超越人类水平的超级智能可能带来“灭绝级”风险。
10月下旬,一项由3000多名中外科技领袖联名签署的倡议引发全球关注。这项呼吁由未来生命研究所发起,要求在全球科学界就“安全可控开发超级智能”达成广泛共识之前,暂停超级智能的研发工作。
签署者包括人工智能先驱杰弗里·辛顿、苹果联合创始人史蒂夫·沃兹尼亚克、维珍集团董事长理查·布兰森等国际知名人士,以及中国科学院院士姚期智、清华大学教授张亚勤等中国学者。这一跨越国界和意识形态的联合行动,标志着超级智能的安全问题已从学术讨论上升为全球性议题。
01 联署阵容:科技界的共同警醒
此次联署的3193名签署者不仅包括顶尖AI研究人员,还涵盖了政策制定者、企业家和公众人物,呈现出罕见的广泛性和代表性。
前美国国家安全顾问苏珊·赖斯、英国前政治顾问史蒂夫·班农、哈里王子与夫人梅根等传统上立场对立的人物共同签署了同一份声明,表明超级智能的风险已超越一般政治分歧。
中国学界的参与尤为引人注目。中国科学院院士姚期智、清华大学智能科学讲席教授张亚勤、清华大学苏世民书院院长薛澜等权威专家的加入,彰显了中国科技界对AI安全问题的深切关注。
北京前瞻人工智能安全与治理研究院院长曾毅指出:“目前我们还没有坚实的科学证据和切实可行的方法来确保超级智能的安全,使其不会给人类带来灾难性的风险。世界尚未准备好迎接不是可控工具的超级智能。”
02 风险本质:为何超级智能引发极度担忧
“超级智能”被定义为在所有认知任务上都超越人类能力的人工智能形态。与当前大多数公司研发的通用人工智能不同,超级智能代表着一种质变,其潜在影响远超现有的AI系统。
倡议声明中明确指出,超级智能可能引发从“人类经济过时和被剥夺权力、自由、公民自由、尊严和控制的丧失,到国家安全风险,甚至潜在的人类灭绝”。
这种担忧源于超级智能的自主目标设定能力。一旦AI系统能够自主定义目标,并且这些目标与人类价值观存在偏差,便可能产生不可控的后果。
曾毅教授强调,绝大多数公司目前研发的只是通用人工智能工具,并非真正的超级智能。但问题在于,“超级智能的风险是并没有科学依据可以控制的”。他特别指出,美国企业如Meta建立超级智能实验室,以及阿里声称的开发超级智能,这些动向已超出普通AI工具的范畴。
03 业界动态:科技巨头的战略布局
尽管存在风险警告,主要科技公司仍在加速布局超级智能研发。从埃隆·马斯克的xAI到萨姆·奥特曼的OpenAI,多家机构正竟相推进更先进的大语言模型。
Meta甚至将其LLM部门直接命名为“Meta超级智能实验室”,明确将超级智能作为研发目标。颇具戏剧性的是,在10月22日联合声明发布当天,Meta宣布在该部门裁员600人。
Meta新任首席人工智能官亚历山大·王解释,裁员旨在“清理因三年来过快建立Meta人工智能工作而导致的组织臃肿”,从而帮助公司更快开发AI产品。Meta高管同时强调,超级智能仍是扎克伯格公司的首要任务之一。
这种看似矛盾的现象体现了AI领域的现实困境:尽管意识到风险,但在竞争压力下,各大公司仍不愿放慢前进脚步。
04 理念分歧:科技界的两极分化
围绕AI发展路径,科技界分化日益明显。一方坚持“发展优先”,鼓励技术创新以抢占未来制高点;另一方则主张“安全至上”,呼吁在风险未明、控制机制缺失时对高风险研发按下“暂停键”。
即使是身处AI研发前沿的领军人物,也对超级智能的风险有清醒认识。OpenAI首席执行官萨姆·奥特曼早在2015年就曾警告:“发展超人类机器智能可能是对人类持续存在的最大威胁。”
图灵奖得主、深度学习先驱杰弗里·辛顿近年来多次表达对AI风险的担忧。在2025年7月上海举办的世界人工智能大会上,他将人类与AI的关系比喻为“养老虎”——“要么把它训练好让它不攻击你,要么把它消灭掉。而对于AI,我们没办法把它消灭掉。”
然而,并非所有专家都持相同观点。Meta首席AI科学家杨立昆认为,“AI将接管世界”的想法很大程度上是“人类将自身的行为模式投射到了机器上”。那些担心风险的人往往是因为“尚未找到实现AI安全的可行路径”。
05 治理挑战:全球协作的迫切性
面对超级智能带来的全球性挑战,建立国际治理框架已成为当务之急。中美欧在AI治理路径上展现出显著差异,需要寻求协同之道。
中国一直倡导“以人为本、智能向善”的发展理念,主张统筹发展和安全。这种既不因噎废食,也不盲目冒进的治理思路,为全球AI治理提供了重要参考。
然而,当前全球AI治理面临严重碎片化风险。在2025年初的巴黎人工智能峰会上,美国、英国拒绝签署《关于发展包容、可持续的人工智能造福人类与地球的声明》,凸显了国际共识的缺失。
清华大学苏世民书院院长薛澜指出,即便AI失控的可能性在数值上看似很低,人类社会也绝不能抱着“试试看”的侥幸心态。“一旦系统走向失控,其后果可能不可逆转,须采取审慎的治理策略。”
06 未来路径:在创新与安全之间寻求平衡
超级智能的发展之路需要在技术创新与安全保障之间找到平衡点。完全暂停研发可能不切实际,但放任自流同样不负责任。
一种可能的路径是建立分层治理框架:对自主武器、大规模社会评分等高风险系统执行严格准入与全程监控;对中低风险应用则鼓励试点、包容审慎。
同时,需要推动伦理先行,完善全周期伦理审查,将公平、透明、可解释性原则嵌入研发过程,强化科研人员社会责任。
从技术层面,应加强可解释AI研究,使超级智能的决策过程对人类透明可控。同时开发“中断开关”等安全机制,确保人类在任何情况下都能保持最终控制权。
正如专家所言,我们需要的不是在创新与安全之间二选一,而是建立一种动态平衡、协同演进的治理范式,使AI真正成为推动人类文明进步的“普罗米修斯之火”,而非吞噬一切的“潘多拉魔盒”。
超级智能已成为人工智能领域的热门词汇,科技界对其态度日益分化。一方视AI为推动社会进步的关键力量,主张自由发展;另一方则强调其潜在风险,呼吁加强监管。
尽管面临风险警告,主要科技公司仍在加速超级智能研发。Meta甚至将其大语言模型部门命名为“Meta超级智能实验室”,并在联合声明发布当天裁员600人,同时强调超级智能仍是公司首要任务。
在创新与安全的平衡之间,人类需要建立全球治理框架,确保超级智能的发展方向符合人类整体利益。
