谷歌TPU暗战英伟达,供应链藏致命漏洞,扩张之路全是死结 99xcs.com

哈喽大家好,今天小无带大家聊聊AI芯片圈的一场大戏。

最近科技圈都在聊,谷歌的TPU能不能干翻英伟达,成为AI芯片圈的新老大。我寻思着,这事儿纯属想多了,俩芯片根本不在一个赛道上,就像特种部队再能打,也替代不了常规部队守疆土一样。

久久小常识(www.99xcs.com)™

纯属赛道错配

先说说英伟达,人家的增长全靠三驾马车,每一辆都踩在刚需上。第一驾是高端AI训练,别以为模型预训练完就没事了,后续的后训练才是重头戏。

纯大数据练出来的模型容易说胡话,也就是“幻觉”,必须靠专家判断不断修正,模型越复杂,后训练的需求就越大。

久久小常识(www.99xcs.com)™

第二驾是复杂推理,像OpenAI的o1、谷歌自己的Gemini3Pro这些聪明的大模型,处理个复杂任务得反复琢磨验证,工作量堪比小型训练,这活儿目前还得靠英伟达显卡扛。

第三驾更狠,是物理AI,自动驾驶、机器人这些领域天天产生新数据,需求比全球现有知识总和还多,英伟达自然能分到一大杯羹。

久久小常识(www.99xcs.com)™

再看谷歌的TPU,增长全靠两条腿走路。一条是自己用,搜索引擎、YouTube、广告推荐、Gemini大模型这些核心业务,都得靠TPU撑着;

另一条是对外出租,通过谷歌云给Meta这种大客户用,帮他们缓解英伟达显卡缺货、涨价的压力。说白了,英伟达是做全行业生意的“万金油”,TPU就是谷歌的“专属定制款”,俩人行当都不一样,谈何竞争?

久久小常识(www.99xcs.com)™

谷歌博通的拉扯战

比起和英伟达的“伪竞争”,谷歌和博通的合作才叫真·相爱相杀,谷歌为啥非得找博通合作?

因为博通的芯片高速互联技术太关键了,没有这技术,TPU根本没法实现大规模并行计算,支撑不了大模型运算。

久久小常识(www.99xcs.com)™

但合作归合作,成本账得算明白。博通接TPU的活儿,毛利率能飙到70%,相当于躺着赚谷歌的钱,谷歌自然不甘心被薅羊毛,这时候联发科跳了出来,说30%多的毛利率就愿意干,一下就成了谷歌制衡博通的王牌。

不过谷歌也不傻,早就防着博通一手。核心的芯片顶层架构自己攥着,给博通的只是编译后的门级网表,就算博通知道1亿个晶体管怎么连,也反推不出核心逻辑。

久久小常识(www.99xcs.com)™

现在TPU出货量涨了,谷歌又让博通把部分活儿分给联发科,博通因为要接Meta和OpenAI的大单,也乐意顺水推舟。这种“既用你又防你,还找个备胎压价”的操作,不得不说,谷歌玩得是真精明。

而且这套路不是谷歌独有,Meta也跟博通合作,微软找了Marvell,都是找强者合作、找次强者制衡的路子。

久久小常识(www.99xcs.com)™

三重死结拦路

就算谷歌想让TPU走出自己的小圈子,扩大市场,也有三道坎根本迈不过去。首当其冲的是硬件门槛,英伟达显卡是标准件,买回去插戴尔、惠普服务器就能用,适配全球绝大多数数据中心。

但TPU是整套系统,得用谷歌独有的48V供电、液冷管道和ICI光互联网络,客户要想用,就得把现有数据中心全推倒重建,这成本谁扛得住?

久久小常识(www.99xcs.com)™

更要命的是软件生态的问题。全球90%的AI开发者都习惯了PyTorch+CUDA的动态图模式,而TPU强制要求用静态图的XLA模式,还得自己重写底层代码,这学习成本和时间成本,普通企业和开发者根本承受不起

最致命的还是谷歌内部的矛盾,Cloud团队想卖TPU赚钱,Gemini团队却想独占算力保持优势,俩团队吵来吵去,让谷歌在TPU外售问题上始终犹豫不决。

久久小常识(www.99xcs.com)™

接下来12月11日博通发Q3财报,说不定会披露更多TPU的消息,但大概率改变不了基本格局。

要我说,TPU最好的归宿还是聚焦谷歌自己的生态,靠云服务出租赚点钱就行,别想着去抢英伟达的地盘。科技巨头的博弈,终究是怎么划算怎么来,硬拼不擅长的领域,纯属自讨苦吃。