AI成不了牛顿:为什么精准的预测,不等于真正的理解?
作者:微信文章“AI能预测太阳明天照常升起,却不知道为什么。”
这听起来像个段子,但却是哈佛和 MIT 一项最新研究揭示的残酷真相。
当所有人都在吹捧 AI 即将颠覆科学、带来下一次工业革命时,这盆冷水,浇得恰到好处。
它提出了一个直击灵魂的问题:
AI 的智能,究竟是真正的“理解”,还是一种极其高明的“模仿”?
AI 是更强的开普勒,但成不了牛顿
在科学史上,有两位大神不得不提:开普勒和牛顿。
开普勒,是个数据狂人。他用几十年如一日的观测数据,算出了行星运动的三大定律,能极其精准地预测行星的位置。
但他不知道“为什么”。他只能将其归功于“宇宙的和谐”。
直到牛顿出现。
他没有止步于“是什么”,而是问了那个“为什么”。最终,他提出了万有引力定律,一个简洁优美的公式,不仅完美解释了行星为何如此运动,还能解释苹果为什么会落地。
这,就是“预测”与“解释”的根本区别。
开普勒(预测):知道“是什么”,能精准描述现象。
牛顿(解释):知道“为什么”,能揭示背后规律,并举一反三。
现在,哈佛和 MIT 的研究者们想知道:今天强大的 AI,更像开普勒,还是牛顿?
一个让 AI“露馅”的简单实验
研究人员做了一件事:他们训练一个 AI 模型,给它海量模拟太阳系的行星轨迹数据,让它学习预测行星的下一步会怎么走。
结果如何?
预测极其精准! AI 就像一个超级开普勒,完美地画出了行星的运行轨道。
别急,好戏在后头。
研究人员接着问 AI:“你凭什么这么算?你依据的‘物理定律’是什么?”
不问不知道,一问吓一跳。AI 用来驱动这些完美轨迹的“力”,简直是一团乱麻,跟牛顿的万有引力定律没有半毛钱关系。
更可怕的是,每换一套太阳系数据,AI 就会“发明”一套新的、同样错误但能自圆其说的“土味定律”。
这说明,AI 根本没有学到那个放之四海而皆准的“牛顿定律”。它只是针对每一份数据,临时编造出了一套“一次性”的规则。
这就像一个学生,虽然每次考试都能碰巧蒙对答案,但他从未真正理解过书本上的公式。
AI 为什么会“走捷径”?
这个发现是颠覆性的。它说明,AI 在训练中,找到了一条“捷径”来完成任务。
因为它的终极目标是“预测下一个最可能的输出”,而不是“理解这个世界的运行规则”。
为了达到“预测准确”这个 KPI,它宁愿构建一个复杂、丑陋且毫无泛用性的临时模型,也不愿意去费力寻找那个简洁、优美、通用的底层规律。
人类恰恰相反。我们因为算力有限、数据稀缺,所以被迫学会了思考,学会了从有限的经验中总结规律,以便应对无穷的未知。
我们看到杯子翻了,就知道水会洒一地,哪怕我们从未见过这个特定的杯子。
而 AI,可能需要看过成千上万次不同杯子洒水的视频,才能在下一次“预测”出正确结果。
这不是 AI 的失败,而是它的“出厂设置”
这项研究,并不是为了全盘否定 AI。
它只是清晰地指出了当前技术路线的“天花板”。
无论是小模型,还是像 GPT-4、Claude 这样的顶级模型,都表现出了同样的倾向:它们是卓越的模式匹配机器,而不是深刻的思想家。
这也能解释,为什么 AI 能写出莎士比亚风格的十四行诗,却至今没能提出一个真正原创的科学发现。
就像 AI 领域的几位顶级大牛所说:
Yann LeCun (Meta首席AI科学家):我对LLM不再那么感兴趣了,它们无法编码世界模型。
François Chollet (Keras之父):真正的智能是适应新问题的元技能,而不是解决已有问题的知识库。
说到底,如果我们只是想造一个更强大的计算器,那继续“大力出奇迹”或许没错。但如果我们的目标是创造一个能像牛顿一样思考的伙伴,那我们可能需要换一条路走。
写在最后
AI 的发展,像一面镜子,照见了我们对“智能”定义的傲慢与偏见。
我们曾以为,能完美预测,便是理解的终点。
但这项研究告诉我们,真正的智慧,在于解释“为什么”的能力。在于那种能从飘落的苹果联想到星辰大海的、属于人类的独特洞察力。
AI 很强大,但它目前还只是一个被数据和算力喂养大的“开普勒”。
它离那个坐在苹果树下的“牛顿”,还有很远的路要走。
页:
[1]