|
|
马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有账号?注册
×
作者:微信文章
当下AI泡沫主要表现在市场预期、估值和投资速度远远超过了技术当前的实际商业化能力和短期回报,但是这个“泡沫”并非指AI技术本身是虚假的,只不过还有一段曲折的路要走,中国的AI才能价值化、商业化。
1、初创公司估值与融资(资本泡沫)
这是最典型的泡沫特征。
(1)估值过高且缺乏收入支撑:许多AI初创公司在只有概念、技术demo或极少收入的情况下,就能获得数亿甚至数十亿美元的估值。投资者担心错过下一个“OpenAI”,疯狂下注,推高了整个板块的价格。
(2)“AI包装”现象严重:任何公司只要在名字或业务描述中加入“AI”字样,似乎就能更容易地获得融资和关注。很多传统软件公司也纷纷将自己重新包装为“AI驱动”的公司以提升估值。
(3)同质化竞争激烈:尤其是在生成式AI应用层,出现了大量功能相似的创业项目,例如AI文案生成、AI图像生成、AI客服等。这些应用大多基于少数几个基础大模型(如GPT、Midjourney)的API进行开发,技术壁垒很低,容易造成“百团大战”式的内卷,最终只有极少数能盈利。
2、大模型层面的“军备竞赛”(技术泡沫)
这是目前资源消耗最巨大的领域。
(1)算力消耗惊人:训练一个顶级大模型需要投入数千万甚至上亿美元的计算资源(主要是GPU),但模型的迭代速度极快,导致研发成本呈指数级增长。许多公司和机构不计成本地投入,以期获得技术领先地位。
(2)“参数竞赛”的边际效应:一度认为模型参数越多越智能,但现在大家开始意识到,盲目堆叠参数带来的性能提升是有限的,且成本效益越来越低。这场竞赛只有资金最雄厚的科技巨头(如Google, Meta, 微软+OpenAI, 亚马逊,以及中国的百度、阿里等)能玩得起,但很多参与者可能最终无法将投入转化为可持续的商业模式。
(3)开源模型的冲击:Meta等公司开源了强大的模型(如Llama系列),这虽然促进了技术民主化,但也使得许多专注于开发闭源基础模型的小公司价值受到质疑——如果能有免费且强大的模型,谁还会为你的API付费?
3、市场预期与商业化落地之间的差距(预期泡沫)
(1)炒作超越现实:媒体和厂商对AI能力的宣传有时过于乐观,导致企业用户和消费者对AI抱有不切实际的期望。实际上,AI在处理复杂、模糊、需要深度逻辑推理和专业知识的任务时,仍然会犯“一本正经的胡说八道”(幻觉问题)、产生偏见等错误。
(2)投资回报率不明确:许多企业购买了昂贵的AI服务或工具后,发现整合到现有工作流程中非常困难,或者其产生的实际价值(如效率提升、成本节约)远低于预期。这可能导致下一轮企业预算收缩,引发市场降温。
(3)“杀手级应用”匮乏:除了内容生成、代码辅助和智能客服等有限场景,AI尚未在大多数行业催生出颠覆性的、不可或缺的“杀手级应用”。很多应用仍处于“锦上添花”而非“雪中送炭”的阶段。
4、基础设施和资源领域(供应链泡沫)
(1)GPU(尤其是英伟达)的狂热需求:AI热潮导致对高性能GPU(如英伟达的H100、A100)的需求爆炸式增长,出现一卡难求、价格飞涨的局面。这催生了对芯片和云计算服务的巨大投资。一旦AI发展速度放缓或需求不及预期,相关的基础设施投资可能会面临过剩风险。
(2)“AI数据中心”的过度建设:为满足AI算力需求,全球正在规划建设大量新型数据中心,这些投资是基于对AI需求的长期乐观预测。
5、应用市场(落地泡沫)
这是AI应用最典型的泡沫特征。落地过程是“照妖镜”,绝不能只看融资额和模型参数,必须深入其落地过程中这些“脏活、累活”的细节。能解决好以下问题的公司,才是最终能留下价值的公司。
(1)数据难题:燃料的质量和获取成本极高
技术模型是引擎,数据是燃料。落地难首先难在数据上。
数据可得性与质量:很多行业(如制造业、医疗)的数据是孤立的、非电子化的,或者质量参差不齐。获取足够数量、高质量、带标签的数据成本极高,甚至不可能。“垃圾进,垃圾出”是AI领域的铁律,低质数据直接导致模型不可用。
数据隐私与合规:尤其是在金融、医疗等领域,数据涉及用户隐私和严格的行业法规(如GDPR、HIPAA)。如何在不违规的前提下合法地清洗、标注和使用数据,是一个巨大的法律和工程挑战。
“数据孤岛”问题:大型企业内部,数据往往分散在不同部门、不同系统中,打通这些“数据孤岛”所需的组织协调成本和IT改造成本,远超模型开发本身的成本。
(2)集成与工作流重塑:与现有系统“水土不服”
AI不是一个可以独立运行的魔术盒,它必须嵌入到企业现有的生产和决策流程中。
系统集成复杂度高:将AI模型与企业现有的ERP、CRM、MES等核心系统无缝集成,需要大量的接口开发和定制化工作,技术复杂度和成本都很高。
改变用户习惯:AI工具的输出需要被一线员工(如医生、工程师、客服人员)理解和信任。如果AI的建议与人的经验冲突,或者界面难用,就会遭到抵触,导致“有AI,不用AI”的局面。AI落地本质上是“组织变革”问题,而不仅仅是技术问题。
决策权不清晰:当AI给出一个推荐时,最终决策权在人还是机器?如果出了问题,责任如何界定?这种权责不清会大大阻碍AI在关键决策中的应用。
(3)成本与ROI(投资回报率)算不过账:账难算
这是最直接、最致命的落地障碍。
隐藏成本巨大:企业看到的往往是模型的API调用费或开发费,但隐藏成本包括:数据准备和清洗成本、系统集成成本、持续的模型维护和更新成本、以及员工培训成本。这些成本加起来,往往使ROI计算变得非常悲观。
价值难以量化:AI提升的“效率”或“用户体验”有时很难直接转化为清晰的财务收益。比如,“AI推荐提高了20%的点击率”固然好,但它到底带来了多少额外销售额?如果这个链条太长,企业就缺乏付费的动力。
“杀鸡用牛刀”:很多简单的业务需求,用传统编程或规则系统就能低成本、高效率地解决,强行上AI反而是一种浪费,无法体现其价值优势。
(4)技术成熟度与可靠性:模型本身的“不靠谱”
实验室里的优秀指标不等于实际场景中的稳定可靠。
“幻觉”问题:对于大语言模型尤其严重。在金融、法律、医疗等需要绝对准确的领域,模型“一本正经地胡说八道”是致命的,导致企业不敢在关键任务中部署。
模型脆弱性:数据的微小变化(所谓“分布外”数据)就可能导致模型性能急剧下降。现实世界是动态变化的,一个上线时表现良好的模型,可能因为业务环境的变化而迅速失效,需要持续投入资源进行监控和迭代(MLOps),这又是一笔不小的开销。
可解释性差:AI(尤其是深度学习)常被视为“黑箱”。当AI拒绝一笔贷款、诊断一个疾病时,它必须能给出令人信服的理由。缺乏可解释性,使得专业人士难以信任和采纳其建议。
6、人才市场(人才泡沫)
(1)AI人才薪资畸高:由于供需严重失衡,顶尖AI科学家和工程师的薪资被推高到惊人的水平,甚至远超其他技术领域。这种高成本进一步加剧了初创公司的财务压力。
(2)复合型人才稀缺:最稀缺的不是只会调参的算法工程师,而是既深刻理解AI技术,又精通特定行业业务逻辑的“桥梁型人才”。他们能将业务问题精准地转化为技术问题。这类人才的缺乏,导致大量AI项目从立项之初就偏离了方向。
(3)团队结构失衡:一个成功的AI项目需要数据工程师、算法工程师、软件开发工程师、产品经理和领域专家协同工作。很多团队结构不合理,比如算法人员占主导,但忽略了工程化落地和产品化的重要性,导致项目无法交付。
泡沫与价值的并存,有泡沫不等于AI没有价值。历史上的技术革命(如互联网、铁路)都伴随着巨大的投资泡沫。泡沫破裂的过程是市场出清和回归理性的过程,它会淘汰掉那些投机取巧、商业模式不可持续的项目,而真正具有技术实力、能解决实际问题的优秀公司会存活下来,并推动行业进入健康发展的下一阶段。 |
|