AI垃圾席卷网络:当数字“泔水”淹没信息生态

英国《经济学人》将“Slop”选为2025年度词汇,这个原意为“猪食”“泔水”的词语,精准定义了当下泛滥的低质AI内容——它们正以惊人速度重塑我们的信息环境。
当今互联网,信息如海,质量却泥沙俱下。美国《纽约时报》指出,社交平台正泛滥一种被称为“AI垃圾”(AI Slop)的内容;《新科学家》则描述许多人仿佛置身于华而不实的“AI垃圾”中。
这类错漏百出、古怪甚至令人尴尬的内容遍布各平台,悄然侵蚀着人们的思想。从几秒内生成的滑稽荒诞视频,到LinkedIn上由AI包装的“专家箴言”(如“有时领导力就是保持沉默的能力”),再到谷歌搜索中出现的“姜黄能治愈心碎”这类无稽之谈,AI垃圾已无处不在。
01 概念界定:AI垃圾的独特属性
“AI垃圾”特指由AI工具生成的大量劣质、重复或无意义的文字、图像或视频,常见于社交媒体和自动化内容农场。它与“深度伪造”或“AI幻觉”虽有重叠,却存在本质区别。
“深度伪造”指利用AI伪造或篡改影音,目的在于欺骗,其关键在于以假乱真;“AI幻觉”则属技术错误,本质是模型在预测词语时出现偏差。而“AI垃圾”范围更广,也更随意:当人们用AI批量生产内容却疏于核对准确性与逻辑时,便会产生此类垃圾。
这些内容堵塞信息渠道,抬高广告收益,用重复无意义的内容占据搜索结果。其错误源于敷衍应付,而非欺骗或技术局限。
02 产生机制:技术滥用与利益驱动
AI垃圾的泛滥,一方面源于AI技术日益强大且成本低廉。AI公司开发这些模型的初衷是降低创作门槛,让有好点子却缺乏技能或资源的人能制作出更优质内容。然而,现实却是技术被大量滥用。
随着ChatGPT、Gemini、Claude等工具,尤其是Sora、Veo这类新型生成器的出现,几秒内生成可读文本、图像与视频已成为可能。内容农场随之应运而生——一些人发现,用AI填充网站、社交动态和YouTube频道,远比人工创作更快。
AI的本质决定了它不在意真相、品位或原创性,只关注概率。这一特性使得“AI垃圾”易于制作并迅速传播。例如,某个YouTube频道仅凭4个视频,就积累了420万订阅和数亿播放量。
平台算法也在无形中助推此风——它们往往更看重内容的点击与互动数据,而非质量。发布越频繁,获得关注就越多,哪怕内容纯属胡扯。
03 恶性循环:当AI垃圾成为训练数据
更令人担忧的是,AI垃圾可能形成恶性循环。当AI生成的虚假、垃圾内容“回流”互联网,成为训练AI模型的新数据时,这种“垃圾进、垃圾出”的循环模式,可能导致AI的输出质量断崖式下降。
有研究揭示,如果用掺杂碎片化、标题党式垃圾数据进行训练,AI在抽象逻辑任务中的表现会明显下降,且更倾向于生成自恋、功利甚至有害的回应。这意味着,AI垃圾可能会形成一个不断恶化的循环,最终导致整个数字信息生态的持续恶化。
04 应对策略:从技术到人文的多元解决方案
目前尚未有完美解决方案,但一些企业已开始尝试。例如,Spotify等平台开始为AI生成内容添加标签,并调整算法以降低劣质内容的推荐权重。谷歌、抖音与OpenAI等公司也承诺推出水印系统。
部分应对措施基于C2PA(内容来源与真实性联盟)行业标准。该标准通过将元数据嵌入数字文件,记录其创建与编辑过程,帮助追溯内容来源。然而难点在于普及:元数据可能被剥离或忽略,且多数平台尚未形成一致的执行规范。
最有效的防护,其实在于人类自身。“AI垃圾”依赖自动化生产和人们无意识地刷屏与转发。因此,放慢节奏、核实来源、支持那些坚持用心创作的作者,虽不能立竿见影,却是重要的开始。
同时,需要建立高质量的“清洁语料库”,确保AI能获得可靠的信息来源。中国的教育部、国家语委等部门已提出目标,计划在2027年初步建成国家关键语料库,这正是迈向正确方向的关键一步。
互联网世界对抗垃圾信息并非新事,人们曾成功应对过垃圾邮件、点击诱饵和虚假信息。“AI垃圾”只是同一故事的新篇章:更快、更流畅,也更难察觉。
网络能否保持其应有的品质,取决于我们是否依然珍视人类的真诚创作,而非满足于机器的机械输出。在AI内容泛滥的今天,人类判断力成为最后也是最重要的防线。
