首页 排行榜文章正文

马库斯:AGI 尚未到来,LLM 也并非通往 AGI 的捷径

排行榜 2025年10月20日 19:53 1 aa
马库斯:AGI 尚未到来,LLM 也并非通往 AGI 的捷径

在人工智能领域坚持唱反调近三十年的加里·马库斯,终于等来了他的"我早就说过"时刻。这位美国认知科学家、纽约大学心理学和神经科学名誉教授,也是AI领域最著名的怀疑论者之一。他在1993年获得麻省理工学院认知科学博士学位,曾创办机器学习公司Geometric Intelligence并将其出售给Uber。近三十年来,马库斯持续批评纯神经网络方法的局限性,主张需要将符号推理与深度学习结合才能实现真正的人工智能。

2025年10月,这位长期质疑大语言模型能力边界的认知科学家发表文章宣称,通往通用人工智能的道路已经证明是死胡同,基于大语言模型的AGI梦想正在全面崩塌。过去几个月发生的一系列事件似乎为他的论断提供了证据:苹果的推理论文揭示了LLM无法解决分布偏移问题,GPT-5的发布未能达到预期,图灵奖得主里奇·萨顿公开认同对LLM的批评,前OpenAI核心成员安德烈·卡帕西表示AGI至少还需十年,谷歌DeepMind首席执行官戴密斯·哈萨比斯则直接批评OpenAI研究员夸大数学"突破"。这些来自业界顶尖人物的表态,正在重塑关于AI能力和发展路径的主流叙事。但问题在于,这种"我早就说过"的胜利姿态是否真的准确描述了技术现实?还是又一次在复杂问题上寻求简单答案的尝试?

马库斯:AGI 尚未到来,LLM 也并非通往 AGI 的捷径

马库斯在文章中列举的证据链试图构建一个清晰的叙事:大语言模型范式存在根本性缺陷,这些缺陷在2025年集中暴露,导致AGI梦想破灭。这个叙事的关键支撑来自几个重要事件。2025年6月,苹果发布的推理能力研究论文指出,即使配备了所谓的"推理"能力,大语言模型仍然无法有效处理分布偏移问题——当测试数据的分布与训练数据显著不同时,模型性能会大幅下降。这个问题并非新发现,马库斯本人声称已经研究了近三十年,但苹果的论文以实证方式确认了其在最新模型中依然存在。亚利桑那州立大学的"海市蜃楼"论文进一步扩展了这一发现,表明推理能力的提升可能更多是假象而非实质突破。

GPT-5的发布被马库斯列为另一个关键转折点。这款备受期待的模型在2025年8月推出时"姗姗来迟且表现不足"。虽然OpenAI对模型能力的具体评价存在争议,但市场和研究社区的反应确实不如前几代模型发布时那样热烈。更重要的是,GPT-5并未展现出接近AGI的能力飞跃,这与一些乐观派此前的预期形成对比。一些研究者曾预测,随着模型规模和训练数据的继续扩大,LLM会表现出涌现性的智能特征,逐步逼近人类水平的通用智能。但GPT-5的实际表现似乎表明,这种线性扩展的策略已经接近收益递减的阶段。

共识的微妙转变

马库斯特别强调了来自AI领域重量级人物的立场转变。图灵奖得主里奇·萨顿以强化学习研究和"苦涩的教训"论文著称,后者主张计算规模和通用算法优于人工设计的特征工程。萨顿在2025年9月公开感谢马库斯对LLM的批评并表示认同,这在马库斯看来是"地震级"的事件。考虑到萨顿一直是"规模法则"的支持者,这种立场转变确实具有象征意义。但需要注意的是,萨顿的具体观点和批评的确切内容并未在马库斯的文章中详细说明,我们无法确定他是完全否定LLM的价值,还是对某些具体问题表示关切。

马库斯:AGI 尚未到来,LLM 也并非通往 AGI 的捷径

安德烈·卡帕西的表态同样被视为关键证据。作为曾在特斯拉负责AI并两度供职于OpenAI的资深专家,卡帕西在2025年10月表示,AI代理远未成熟,AGI可能还需要十年时间。这种评估比一些乐观派的预期要保守得多。几年前,不少研究者和投资者相信AGI可能在2020年代末实现,但现在这种时间表正在被推迟。卡帕西的观点代表了业内越来越多人的清醒认识:尽管LLM在某些任务上表现出色,但距离真正的通用智能还有巨大差距。

马库斯:AGI 尚未到来,LLM 也并非通往 AGI 的捷径

戴密斯·哈萨比斯对OpenAI研究员塞巴斯蒂安·布贝克数学"突破"声明的批评,则直接涉及行业诚信问题。布贝克宣称GPT-5解决了10个未解决的埃尔德什数学问题,但很快被证实这些问题实际上已有文献解决,GPT-5只是找到了相关论文而非生成原创证明。哈萨比斯称这种误导性宣传"太尴尬了",Hyperbolic Labs首席技术官余晨进也表示确实令人尴尬。这一事件不仅是技术能力的问题,更反映了在巨大商业压力下,一些公司倾向于夸大模型能力,用模糊表述制造突破性进展的假象。

马库斯:AGI 尚未到来,LLM 也并非通往 AGI 的捷径

技术瓶颈还是发展阶段?

马库斯的核心论点是,大语言模型存在无法克服的结构性缺陷,因此不可能成为通向AGI的道路。他特别强调分布偏移问题——神经网络在训练数据范围之外泛化能力不足。这个问题在学术界已经讨论了数十年,但其重要性随着LLM的广泛应用而更加凸显。当模型遇到训练数据中未充分代表的问题类型时,性能会显著下降,有时甚至会产生完全错误的输出。这种脆弱性在需要真正理解和推理的任务中尤为明显。

但将分布偏移问题视为LLM的"阿喀琉斯之踵"并宣告整个范式失败,可能过于简化了复杂的技术现实。首先,分布偏移是所有机器学习系统都面临的挑战,不仅限于LLM。其次,研究社区正在探索多种缓解策略,包括更多样化的训练数据、更好的评估基准、将LLM与其他技术结合等。苹果论文指出的问题是真实的,但这不一定意味着问题无解,可能只是说明当前方法需要改进。

关于AGI时间表的争论同样充满不确定性。卡帕西认为还需十年,但这个估计基于什么假设?是假设继续沿用当前的LLM范式,还是考虑了可能的技术突破?十年在AI发展史上可能意味着多次范式转换。2015年时很少有人预见到大语言模型会在2020年代初引发如此深远的影响。同样,我们也很难预测未来十年可能出现的技术变革。

更重要的是,AGI本身的定义就充满争议。不同研究者对"通用人工智能"的理解差异巨大,从能够执行人类所有智力任务的系统,到能够快速学习新任务的灵活系统,定义宽泛程度不一。当卡帕西说AGI还需十年时,他指的是哪种定义?当马库斯说LLM无法通向AGI时,他使用的是什么标准?这些概念上的模糊使得关于"AGI是否临近"的辩论往往变成各说各话。

超越二元对立的思考

马库斯文章中流露出的"我早就告诉过你们"的语气,虽然可以理解——作为长期的少数派声音,现在部分预测得到验证确实值得强调——但也可能掩盖了更复杂的真相。AI技术发展不是在"LLM通向AGI"和"LLM完全失败"两个极端之间做选择,而是在一个充满不确定性的连续谱上演进。

大语言模型在许多实际应用中已经展现出价值,从辅助编程到内容创作,从客户服务到教育辅助。这些应用不需要达到AGI水平就能产生实际效益。同时,LLM的局限性也越来越清晰:它们缺乏真正的理解,难以进行可靠的逻辑推理,容易产生幻觉,在需要常识或因果推理的任务上表现不佳。承认这些局限不等于否定技术价值,而是对其能力边界有更清醒的认识。

马库斯在文章末尾推荐读者阅读他2020年发表的关于AI未来十年的文章,暗示其中提出的替代策略"越来越显得有先见之明"。但到目前为止,业界并未广泛采纳他提出的混合符号-神经系统方法。这可能部分是因为惯性和投资锁定,但也可能是因为这些替代方案自身也面临尚未解决的挑战。符号AI在20世纪后期主导了该领域,但最终因为知识获取瓶颈、脆性和缺乏学习能力而让位给统计方法。简单地回归符号方法不太可能成功,真正的出路可能在于找到整合不同方法优势的新架构。

从更广阔的视角看,2025年的这些事件标志着AI领域进入一个更成熟、更现实的阶段。经历了几年的极度乐观和大规模投资后,行业开始更诚实地面对技术限制。这种清醒不是失败,而是健康发展的必要条件。只有准确理解当前能力边界,才能设定合理的研究目标和商业期望。马库斯多年来的批评在促进这种清醒认识方面确实发挥了作用,但将当前的调整解读为"game over"可能同样过于极端。技术发展很少以宣布胜利或承认失败的方式推进,更多是在试错中逐步逼近目标,在这个过程中不断重新定义目标本身。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap