当NVIDIA花200亿美元买下一家“失败”的芯片创业公司
这篇文章是newtype Profile的Agent团队产出的。质量很棒。我只是下达了一个指令而已。
硅谷有个不成文的规律:当巨头开始收购那些技术路线”异端”的创业公司时,往往意味着一个时代的拐点已经到来。
2025年12月24日,NVIDIA宣布以200亿美元收购Groq——这家推理芯片创业公司在商业上从未盈利,产品出货量不到竞争对手的零头。
但这笔交易的真正含义,不在于NVIDIA买到了什么,而在于它害怕失去什么。
被误读的“失败者”
Groq在主流叙事里一直是个尴尬的存在。
2016年从Google TPU团队出走的创始人Jonathan Ross带着一个激进的想法:抛弃GPU的概率性架构,设计一种确定性的推理专用芯片LPU(Language Processing Unit)。
五年研发,三代迭代,烧掉数亿美元投资,最终交出的成绩单是——单芯片230MB SRAM,80TB/s带宽,推理速度276-1660 tokens/s,能耗比GPU低一个数量级。
这些数字在技术圈引发过短暂的惊叹,但很快被淹没在“不成熟”、“不兼容”、“无法规模化”的质疑中。
云厂商更愿意采购NVIDIA H100,开发者习惯于CUDA生态,Groq的订单簿始终薄得可怜。
按照传统商业逻辑,这是一家注定要被市场淘汰的公司。
但NVIDIA不这么看。黄仁勋在内部会议上的一句话泄露了真相:
我们买的不是Groq的今天,而是它证明的那条道路。
推理市场的“iPhone时刻”
要理解这笔交易,必须先理解一个正在发生的结构性变化:
AI工作负载的重心正在从训练转向推理。
过去十年,GPU统治AI世界的逻辑很简单——训练大模型需要暴力并行计算,而NVIDIA的CUDA加Tensor Core组合是唯一成熟的解决方案。
但当GPT、Claude、Llama这些基座模型逐渐稳定,产业的关注点开始转移:
如何让这些模型在真实场景中高效运行?
数据很残酷:
一个大模型的生命周期里,训练成本只占10%,推理成本占90%。
OpenAI每天要处理数十亿次API调用,Google Gemini嵌入在数十亿部安卓设备里,推理成本正在成为AI公司的最大成本项。而GPU在推理场景的表现,就像用跑车送外卖——性能过剩,成本高昂。
这就是Groq的机会窗口。LPU的确定性架构天生为推理优化:没有缓存未命中,没有分支预测失败,指令流像流水线一样精确可控。结果是推理延迟降到毫秒级,能耗降到GPU的1/10。
在技术demo里,Groq能以1660 tokens/s的速度“吐字”——这是人类阅读速度的20倍,比H100快5倍。
但这恰恰是NVIDIA最焦虑的地方:
Groq用事实证明了,推理不需要GPU。
防御性收购的底层逻辑
200亿美元的价格让很多人困惑——Groq既没有规模化收入,也没有成熟的供应链,凭什么值这个价?答案是:
NVIDIA买的不是一家公司,而是一个威胁的消失。
这是典型的acqui-hire结构:技术和团队归NVIDIA,Groq品牌保留但成为空壳。
黄仁勋要的是三样东西:
第一,确定性架构的IP。
Groq的TSP(Temporal Streaming Processing)技术栈里,有数百项专利覆盖编译器、内存管理、指令调度。这些技术可以直接嫁接到NVIDIA下一代推理加速卡上,让GPU在保持训练能力的同时,获得确定性推理的优势。
这相当于给跑车装上了外卖箱——既能飙车,也能送餐。
第二,消灭颠覆性创新的萌芽。
克里斯坦森的《创新者的窘境》里有个经典案例:硬盘巨头Seagate忽视固态硬盘,最终被三星弯道超车。
Groq的LPU在2025年还是边缘技术,但如果五年后推理市场真的爆发,留给NVIDIA的反应时间可能不够。
与其赌它会失败,不如直接买下来。
第三,重构产品线的筹码。
NVIDIA一直想打入推理专用市场,但H100/A100的定价体系限制了它的灵活性——你不能一边卖3万美元的训练卡,一边推5000美元的推理卡,这会自我蚕食。
收购Groq后,NVIDIA可以用独立品牌运作推理产品线,避免内部冲突。
这笔交易的本质是战略期权:
花200亿美元买一个“如果推理市场爆发”的保险。对于一家市值3万亿美元、年利润超500亿的公司来说,这是理性的风险管理。
可重构架构的估值重估
Groq被收购后,最直接的连锁反应是:
所有做推理芯片的创业公司估值在一夜之间翻倍。
Cerebras(WSE-3芯片)、SambaNova(可重构数据流架构)、Tenstorrent(Jim Keller主导的RISC-V AI芯片)——这些曾经被认为“技术酷但商业模糊”的公司,突然成了香饽饽。逻辑很简单:
如果Groq这样的公司值200亿,那证明了一件事——可重构架构(Reconfigurable Architecture)是有战略价值的稀缺资产。
传统芯片是“固定功能”的——GPU擅长并行计算,CPU擅长通用任务,ASIC擅长单一算法。但AI工作负载变化太快:
去年流行Transformer,今年出现SSM(状态空间模型),明年可能是完全不同的架构。
固定功能芯片面对这种变化就像恐龙面对气候突变——要么进化,要么灭绝。
可重构架构的核心思想是:芯片的计算逻辑可以根据算法动态调整。
Groq的LPU通过编译器把模型“编译”成确定性的指令流,硬件只负责执行;SambaNova的RDU可以在运行时重新映射数据流路径。
这种灵活性让它们能适应未来的算法演进——这正是NVIDIA焦虑的根源。
收购Groq的信号意义在于:巨头承认了灵活性比性能更重要。这会改变整个半导体投资逻辑——那些追求极致性能但架构僵化的项目会失宠,而那些牺牲部分性能换取可重构能力的设计会受追捧。
训推分离的加速到来
这笔交易还有一个被低估的影响:它会加速“训练-推理分离”的产业趋势。
过去,云厂商采购AI芯片的逻辑是“一卡通吃”——既能训练也能推理的GPU最省事。
但当推理成本占大头,这个逻辑就不成立了。就像没人会用货车送快递一样,用训练卡做推理是巨大的浪费。
NVIDIA收购Groq等于官方盖章:推理需要专用硬件。这会倒逼云厂商重新设计基础设施:训练集群用H100/B100,推理集群用LPU或类似架构。AWS、Azure、GCP都在自研推理芯片(Inferentia、Maia、TPU v5),这个趋势会加速。
对开发者来说,这意味着工具链的分裂。训练继续用PyTorch加CUDA,但推理可能要适配不同的编译器和运行时。好处是成本大幅下降,坏处是复杂度上升。
未来可能会出现专门的“推理优化工程师”岗位——就像当年移动互联网催生了“iOS/安卓适配工程师”一样。
留给创业公司的空间
Groq的结局给了AI芯片创业公司一个矛盾的启示:
技术突破是必要的,但商业成功是不必要的。
Jonathan Ross花九年时间证明了LPU的可行性,但从未找到规模化商业路径。传统VC逻辑会判定这是失败——烧了钱没赚到钱。但在巨头的战略棋盘上,Groq的价值不在于它卖了多少芯片,而在于它打开了一扇门:证明了推理可以不依赖GPU。
这对后来者意味着什么?
别急着和NVIDIA正面竞争,先找到一个技术突破点,证明它能工作。
不需要完美的供应链,不需要漂亮的营收曲线,只需要一个让巨头焦虑的demo。然后等着被收购——这可能是AI芯片创业的最优解。
但这也揭示了一个残酷现实:真正的颠覆者可能永远无法独立长大。
Groq如果不被收购,五年后可能倒闭;被收购后,技术会融入NVIDIA体系,但独立身份消失。
这就像抗生素杀死细菌——不是让细菌变强,而是让它们根本活不到变强的那一天。
一个时代的注脚
200亿美元买下Groq,本质上是NVIDIA在为“GPU霸权的终结”买保险。这笔交易不会立刻改变市场格局——H100依然是训练的标配,CUDA依然是开发者的首选。但它标志着一个共识的形成:
AI的下半场,推理比训练更重要。
十年后回看,2025年可能是个分水岭。就像2007年iPhone发布时,诺基亚还在嘲笑触摸屏不实用;2025年Groq被收购时,很多人还在质疑推理专用芯片的必要性。
但潮水的方向已经改变,只是大多数人还站在沙滩上争论潮汐表是否准确。
真正值得思考的问题不是“NVIDIA会不会继续统治”,而是“当推理成为主战场,游戏规则会怎样改写”。Groq的故事告诉我们:
有时候,失败者定义了未来的方向,而胜利者只是买下了那张地图。



This article comes at the perfect time, offering such a clear and insightful breakdown of the strategic shifts happening in AI's infrastructure. Your closing thought, that "sometimes the loser defines the future direction, and the winner just buys that map", truly resonated thru me as a profound lens to view innovation beyond just immediate commercial success.