我爱免费 发表于 2025-10-18 21:20

AI大佬Andrej Karpathy又开怼:智能体都在装样子,AGI不会导致经济大爆发

作者:微信文章
Andrej Karpathy在最新的长篇访谈中又开炮了:智能体都在装样子,强化学习很糟糕,AGI十年也出不来。

https://mmbiz.qpic.cn/sz_mmbiz_jpg/iaUzBO4iabDiaMpKEhn5XlsObhqSBLQOwdNN5Lqj6lcZ0aV1yVj1S1ia8TRFPTiaCKFOgm21KPe0ibxZZiaOq5go5cfhA/640?wx_fmt=jpeg&from=appmsg&tp=webp&wxfrom=5&wx_lazy=1#imgIndex=6

Andrej Karpathy两次加入OpenAI担任研究科学家,第一次是2015年作为OpenAI的创始成员参与早期研究,并在2017~2022年离开OpenAI加入特斯拉担任自动驾驶AI部门主管;第二次是ChatGPT爆火之后的2023~2024年重返,专注于技术工作;

24年再次离职之后,创办了自己的教育机构 Eureka ,希望通过构建高效的“知识斜坡”,在 AI 时代赋予人类更强的认知能力,避免人类在技术浪潮中被边缘化。

在与 Dwarkesh Patel 的最新的2小时深度对话中,Andrej Karpathy 阐述了他对人工智能现状与未来的核心观点。他认为,我们距离AGI的实现仍有十年之遥,当前过度乐观的预测多是为了融资。

作为AI技术大神,Andrej Karpathy一惯对于AI的炒作泼冷水:

刚刚Karpathy超火演讲称聊天式编程是软件3.0时代,听上去有些不靠谱

o1之后各家大模型推理能力纷纷刷新,在AI编程、计算机操作上的Agent自主性得以突破,程序员的饭碗越来越捧不牢了?看大佬怎么说

在最新的这次访谈中,Karpathy 认为当前AI研究过于依赖模仿与结果奖励,而忽视了真正的“理解”机制,未来AI的发展应更注重结构优化与过程监督。

Karpathy 指出,当前AI的本质是模仿,而非进化。我们不是在构建动物,而是在召唤“幽灵”——一个通过互联网数据学习模式的数字实体。它缺乏生物智能的演化历史与结构预设,仅靠模仿人类行为来“表现”智能,而非真正理解任务。

Karpathy 将当前AI的模式复现称为“低保真版的进化”,认为它无法真正理解任务,只能通过大量数据记忆来模仿人类行为。

Karpathy 批评当前强化学习效率低下,其问题不在于算法复杂性,而在于信息稀缺性。模型只能通过最终奖励来调整参数,无法在过程中理解失败原因,这导致其学习方式远不如人类高效。

后知后觉的智能:模型只能在失败之后学习,无法在过程中推理。

模式坍缩风险:反复训练生成内容会使模型输出越来越单调。

缺乏“梦”的机制:人类通过梦境重组记忆、注入随机性,避免认知僵化;AI缺乏类似机制


Karpathy 提出未来AI发展的几个关键方向:

过程监督(Process-based Learning):关注学习过程中的推理路径,而非仅仅依赖最终结果。

认知连续性:模型应具备记忆、睡眠与梦的机制,实现从模仿到理解的跨越。

结构优先于规模:智能的核心不是参数数量,而是架构设计。他认为未来认知核心可能只需十亿参数即可


对于通用人工智能(AGI)将如何改变世界经济,Karpathy 提出了一个与主流智能爆炸论截然不同的观点,他认为:AGI 不会引发一场突如其来的经济奇点或增长率的急剧跃升,而是会像过去几百年间的重大技术革新一样,平滑地融入到现有约 2% 的全球 GDP 年增长率中。

Karpathy 在特斯拉领导自动驾驶团队五年的经历,为他提供了看待 AI 技术从演示到产品化这一艰难过程的独特视角。他认为,自动驾驶是一个绝佳的案例,揭示了将 AI 部署到现实世界所面临的巨大挑战,这些挑战同样适用于其他领域的 AI 应用。

他认为象软件工程,尤其是关键系统的开发,与自动驾驶面临着同样的“高失败成本”问题。人们常常认为自动驾驶之所以进展缓慢,是因为人命关天。 Karpathy 指出,一个关键软件系统的漏洞可能导致数百万人的隐私泄露、金融系统崩溃或关键基础设施瘫痪,其潜在危害甚至可能超过单次交通事故。因此,那种认为软件领域的 AI 应用可以”快速迭代、不怕犯错”的想法是天真且危险的。

访谈更多内容点击文末【阅读原文】
页: [1]
查看完整版本: AI大佬Andrej Karpathy又开怼:智能体都在装样子,AGI不会导致经济大爆发