AI教父批OpenAI 通往AGI道路并非仅靠扩展
作者:微信文章人工智能(AI)的热潮席卷全球,数十亿美元投入其中,然而,一场关于其未来方向的激烈争论正在发酵。OpenAI首席执行官Sam Altman坚信,通过不断扩展大型语言模型(LLM),人类将迈向通用人工智能(AGI)——一种具备人类认知能力的智能。然而,AI领域的“教父”之一、Meta首席AI科学家杨立昆(Yann LeCun)对此提出尖锐批评。他在接受《Big Technology》播客采访时直言:“仅靠扩展LLM,我们无法达到人类水平的AI。”这一观点不仅挑战了Altman的愿景,也促使我们重新审视AI发展的本质。
AI的类型与历史演进
要理解杨立昆的立场,首先需明确AI的分类及其发展脉络。目前,AI大致分为三类:
狭义人工智能(ANI):专注于特定任务的AI,如语音助手Siri或图像识别系统。它高效但缺乏灵活性。
广义人工智能(AGI):理论上具备人类般全面认知能力的AI,能自主学习、推理并适应新环境。至今未实现。
超人工智能(ASI):超越人类的智能,属于科幻领域,暂无现实基础。
AI的历史始于20世纪50年代。1956年,达特茅斯会议标志着AI的诞生,当时的目标是模拟人类智能。然而,早期的符号AI(基于规则和逻辑)受限于计算能力和数据规模,进展缓慢。90年代,统计学习和机器学习崛起,依赖数据驱动的模型显著提升了AI性能。2010年后,深度学习革命——以杨立昆等人提出的卷积神经网络(CNN)为代表——推动了图像识别和自然语言处理(NLP)的飞跃。如今,LLM如ChatGPT成为焦点,其核心是通过海量数据和庞大算力预测文本序列。
杨立昆作为深度学习的奠基人之一,对这一演进了然于胸。他认为,LLM虽在语言生成上表现出色,但本质仍是狭义AI的延伸,而非通向AGI的钥匙。
杨立昆的质疑:技术视角剖析
杨立昆的批评并非空穴来风,而是基于数学、神经网络和AI本质的深刻洞察。以下从三个维度分析他对OpenAI路径的质疑:
1. 数学局限:预测不等于理解
LLM的核心是基于概率的语言预测。例如,给定“你好,今天天气如何?”模型会根据训练数据预测可能的回答,如“很好,阳光明媚。”这种能力依赖于大规模矩阵运算和统计模式匹配。然而,杨立昆指出,这种预测与人类理解截然不同。
从数学角度看,LLM本质上是高维向量空间中的优化问题,通过梯度下降调整参数以最小化预测误差。但它缺乏因果推理能力。例如,若问“如果明天下雨,庄稼会怎样?”LLM可能生成合理答案,却无法真正理解“下雨”和“庄稼生长”之间的因果关系。杨立昆曾说:“现在的AI连猫的智能都不如。”他指的是,猫能通过观察和试错理解环境,而LLM仅依赖预训练数据,无法主动探索或推理。
AI类型的演进与时间维度
AI类型
时间维度
数学基础
核心算法
代表性发展
应用场景
狭义AI (ANI)
1950s-至今
线性代数、概率论、优化理论
规则系统
→
机器学习
→
深度学习
1956:
逻辑理论家(符号AI)
1980s:
专家系统
2012:
AlexNet(深度学习革命)
语音助手、自动驾驶、推荐系统
通用AI (AGI)
理论提出:
1950s
实现:
未达成
多模态概率分布、因果推理(探索中)
迁移学习、元学习、多模块网络(理论)
1956:
达特茅斯会议提出目标
至今:
仍为研究方向
无实际应用,仅概念阶段
超AI (ASI)
理论提出:
1960s
实现:
未达成
未知,假设自我构建数学模型
自我进化算法、量子计算(假设)
1965:
I.J.
Good提出“智能爆炸”
至今:
哲学推测
无现实案例,科幻讨论
混合AI
1980s-至今(加速发展)
符号逻辑
+
统计学习
+
张量运算
神经符号AI、知识图谱
+
深度学习融合
1980s:
专家系统
2020s:
Neuro-Symbolic
AI兴起
医疗诊断、法律推理、问答系统
2. 神经网络架构:规模并非万能
Altman的策略是“越大越好”——增加参数(ChatGPT已有数千亿个)和数据量以逼近AGI。但杨立昆认为,神经网络的架构设计比单纯规模更关键。
以汽车为例:加大引擎并不会让车飞起来,飞行需要全新的设计(如机翼)。同样,LLM的Transformer架构擅长序列处理,却不具备规划或抽象推理能力。杨立昆主张,AGI需要类似人类大脑的多模块系统——视觉、语言、记忆和决策协同工作,而非单一的语言预测器。他提出的“世界模型”(World Model)概念强调AI需具备对物理世界的动态理解,而非仅靠文本统计。
3. 数据依赖的瓶颈
LLM的成功依赖海量数据,但数据并非无限。全球文本总量有限,且质量参差不齐。杨立昆担忧,过度依赖数据扩张会遭遇收益递减。例如,训练一个更大的模型可能只是让它更擅长模仿人类语言的细微差别,却无法赋予其独立思考能力。相比之下,人类儿童只需少量样本就能学会新概念,这是当前AI无法企及的“样本效率”。
为何LLM难以通向AGI:通俗解读
为了让普通读者理解这一复杂争论,不妨用生活中的例子阐释。假设LLM是一台超级智能的“复读机”,它能根据你说过的话预测下一句。比如,你常说“周末去超市”,它可能接一句“买点牛奶吧”。但如果超市停业了,它不会主动建议“去别的地方”,因为它不懂“超市关闭”的意义,只会机械重复过去的模式。
杨立昆的观点是,AGI需要像人类一样,不仅会“复读”,还能“思考”——理解超市为何关闭、推测替代方案并作出决定。LLM的扩张逻辑就像给复读机装更大的内存,虽然能记住更多句子,但本质仍是“鹦鹉学舌”,无法飞跃到AGI的境界。
更广泛的反思:AI被高估还是低估?
杨立昆的批评引发了对AI现状的深刻反思。Futurism引用AAAI调查显示,475名AI研究者中多数认为,当前数十亿资金投入可能是“死胡同”。认知科学家Gary Marcus也在X上预测,2025年不会出现AGI,AI模型的利润也将有限。这与OpenAI的乐观愿景形成鲜明对比。
然而,杨立昆并非否定AI价值。他承认LLM在客服、翻译等领域的实用性,但强调这些是“工具”,而非通向AGI的基石。Boost.ai首席执行官Jerry Haywood则警告,2025年AI的头条可能是“失败”而非突破,因企业盲目追逐炒作而非实用性,导致资源浪费。
从历史看,AI热潮常伴随泡沫与冷静期。智能手机早期也曾被过度吹捧,最终在实用性驱动下成熟。AI或许正处于类似阶段:短期被高估,长期潜力未被低估。杨立昆的质疑提醒我们,避免将所有希望押注单一路径,而应探索更广泛的技术可能性。
面向未来的洞见
杨立昆对OpenAI路径的批评不仅是一场技术争论,更是对AI发展方向的哲学思考。LLM的扩张虽令人惊叹,却无法解决AGI所需的理解、推理和适应性难题。从数学到神经网络,再到数据瓶颈,他的分析揭示了一个事实:规模不是万能药,真正的突破需要创新架构与思维方式。
对企业而言,这意味着应聚焦AI的实际价值而非盲目追逐炒作。对研究者而言,杨立昆的洞见呼吁回归基础问题:如何让机器像人类一样学习和思考?或许,AGI的道路并非直线扩张,而是一场更复杂、更具创造性的旅程。正如杨立昆所言:“我们离人类智能还很远,但这并不意味着我们不该继续探索。”
页:
[1]