AI竞赛下半场:规模不再为王,谷歌与OpenAI转向新战场
作者:微信文章事件背景:一个时代的落幕
事件背景:一个时代的落幕
这周,AI圈子好像都在集体反思。抛开那些热闹的产品发布会不谈,你会发现一个特别明显的信号:咱们可能正好处在一个技术架构的转折点上。
以前那种靠砸钱、堆参数“大力出奇迹”的玩法,现在效果越来越差,边际效益递减得厉害。所以你看,整个研究圈,包括那些顶尖实验室,大家都不再只盯着预训练了,而是开始琢磨怎么让模型在用起来之后还能继续学习。这想法其实Ilya Sutskever早就翻来覆去地说过,这周的好几份报告也算是印证了他的话:我们需要的是能不断进化的系统,而不是那种训练完就定型、再也不变的“数字古董”。
简单来说,过去比拼谁的模型更大,而现在,战场已经转移。
行业影响:巨头的新牌局与三大阵营
这周一堆公司扎堆开发布会,其实把新的战场在哪儿给画出来了:一个是深度推理能力,另一个就是谁有自己的独家基础设施。谁能用最猛的架构支撑复杂的思考,谁就能在下半场领跑。
阵营一:谷歌的“基建+软件”双轮驱动
谷歌这波操作,秀的就是它长期砸钱搞基建(比如TPU和数据中心)的肌肉。CEO皮查伊在采访里说得很白了:谷歌赌的不是某个模型,而是整套自己说了算的硬件和软件。这种底子上的优势,对那些还得靠别人硬件的公司来说,简直就是一道跨不过去的护城河。
具体的成果,就是Gemini 3那个叫Deep Think的能力,它能同时想好几种可能性,一边想一边自己检查、自己纠错。说白了,这已经不是简单的码字,是在正儿八经地搞逻辑推理了。
阵营二:OpenAI与Anthropic的“压力与整合”
市场竞争真的卷疯了。据说因为Gemini只花了3个月就搞定了2亿用户,OpenAI的CEO直接拉响了“红色警报”,这下他们不得不重新排一下手头工作的优先级了。
另一边,Anthropic直接收购了超快的JS运行时Bun,这野心挺明显,就是要搞垂直整合。意思就是,AI不能只当个小插件,得把整个运行环境都攥在手里。还有传言说,他们正准备搞个超大规模的IPO,就是为了筹钱跟谷歌、微软/OpenAI掰手腕。
阵营三:开放阵营的“性价比与追赶”
国内的DeepSeek-V3.2发了个专攻推理的实验版,早期的跑分看起来,好像能直接跟Gemini 3.0 Pro掰掰手腕。这信号挺关键的:在处理复杂逻辑这事儿上,东西方模型的差距真是在飞快地缩小。
法国的Mistral打法还是一如既往的聪明,发了新的Mistral Large 3,用的是混合专家(MoE)架构。这么做的好处是,它反应快、延迟低,但性能又跟那些巨无霸模型差不多,对企业来说,这绝对是个很有吸引力的开源选择。
行业影响:巨头的新牌局与三大阵营
下一个技术高地:从“持久记忆”到“AI灵魂”
现在这些大语言模型,都有个天生的毛病:太“死板”了。训练完,模型就锁死了,后面所谓的“学习”都只能在这一小段对话里头打转。这周,谷歌发的两篇论文,看样子就是想解决这个问题。
一个是叫“嵌套学习”的东西,就是为了解决“灾难性遗忘”这个大难题。啥意思呢?就是你教一个训练好的模型学点新东西,它就容易把老东西给忘了,跟洗脑了似的。
另一个是叫“Titans + MIRAS”的研究,直接冲着长期记忆这个痛点去的。他们搞了个深度神经记忆模块出来,让模型能在收到数据的时候就主动学习,不用再靠那个又大又贵的上下文窗口。
对了,最近圈子里还在传一份据说是从Claude 4.5 Opus模型里扒出来的“灵魂文档”。这文件好像定义了模型的“人设”,里面有什么“绝对诚实”、拒绝“认知上偷懒”之类的原则。先不管这东西是真是假,但它确实让我们有机会瞅一眼,想搞明白模型“内心世界”到底是怎么回事,这事儿本身就挺有意思的。
对我们的启示:新技能与新风险
这种技术方向的大调整,对我们每个搞技术的人来说,影响可不小。
首先,一种叫“上下文管道工”的角色,变得越来越重要了。一个AI Agent到底牛不牛,关键就看它怎么管上下文。能不能像个老练的仓库管理员一样,又准又快地把信息喂给AI,这直接决定了你做的东西是个玩具Demo,还是真能上线的生产系统。
其次,“氛围感编程(Vibe Coding)”这玩意儿,好像也从个人玩票,开始被大公司接受了。比如谷歌跟Replit合作,就让很多公司开始接受一种新的工作方式:跟AI聊着天、快速改代码就把活干了。AI确实在改变我们的工作习惯。
最后,还有个风险得提个醒,就是“技能萎缩”。Anthropic内部有数据显示,AI虽然让很多活儿变简单了,但也带来了个问题:组里的老鸟带新人的情况变少了,因为新人一遇到问题,第一反应是去问AI。所以,怎么一边享受AI带来的方便,一边又不让团队的核心技术掉队,这恐怕是每个技术主管都得琢磨的事儿了。
页:
[1]