谷歌彻底醒来:市值暴涨万亿,TPU开始抢英伟达
DeepTech深科技,2025-11-26 17:56:37
彻底醒来的谷歌,不仅让 OpenAI 开始焦虑,现在还要来抢英伟达的饭碗了。
11 月下旬的一周,谷歌连续收获了几条好消息。有报道称 Meta 正在考虑采购谷歌的 TPU 芯片,交易金额可能达到数十亿美元。这条消息让英伟达股价下跌近 7%,也让谷歌母公司 Alphabet 的市值单日增加数百亿美元。几天后,Alphabet 股价继续上涨,市值逼近 4 万亿美元大门。自 10 月中旬以来,这家公司的市值已经增加了近 1 万亿美元。
![]()
图丨英伟达与 Alphabet 一年股票对比(来源:Semafor)
更早些时候,谷歌发布的 Gemini 3 模型在业内引发了不小的震动。这款模型在 LMArena 等主要 AI 排行榜上名列前茅,在推理、编程等方面的表现获得了广泛认可。
对于一家在过去两年里被反复质疑“落后了”的公司来说,如今的局面可谓是一场相当漂亮的翻身仗。
自从 ChatGPT 在 2022 年底横空出世以来,关于谷歌“掉队”的声音就没停过。甚至谷歌自己的工程师和前 CEO 都曾公开表达过担忧。毕竟,尽管神经网络的核心技术 Transformer 最早由谷歌研究人员发明,但率先将其商业化并引爆市场的却是 OpenAI。
在相当长一段时间里,ChatGPT 几乎成了 AI 聊天机器人的代名词,而谷歌的 Bard 则被视为一个匆忙推出的追赶者。
但现在情况开始发生变化。Counterpoint Research 分析师 Neil Shah 的评价道:“谷歌可以说一直是这场 AI 竞赛中的黑马,一个沉睡的巨人。现在它彻底醒了。”
谷歌 CEO 桑达尔·皮查伊在上季度财报会议上强调,公司采取的是“全栈式”的 AI 策略。这个“全栈”绝非虚言。谷歌既开发 AI 应用(比如广受欢迎的 Nano Banana、NotebookLM),也训练底层模型,还运营云计算基础设施,甚至自己设计芯片。
相比之下,OpenAI 虽然模型能力强,但需要依赖微软的云服务和英伟达的芯片。这种垂直整合给了谷歌更大的控制权和潜在的成本优势。
TPU 就是这个全栈能力的一个关键部分。谷歌从 2015 年就开始在内部使用这种自研芯片,最初是为了加速搜索引擎的运算。
十年过去,TPU 已经迭代到第七代,从单纯的推理芯片发展成能够胜任大规模训练任务的加速器。谷歌的 Gemini 系列模型完全在 TPU 上训练,本身也证明了这些芯片的能力。
![]()
图丨谷歌的第七代 TPU“Ironwood”(来源:Google)
长期以来,TPU 主要服务于谷歌内部。但随着 Gemini 模型的成功和 AI 需求的爆发,谷歌开始更积极地向外推广 TPU。今年 10 月,AI 公司 Anthropic 宣布将使用多达 100 万颗 TPU,交易价值数百亿美元。
Ilya Sutskever 创立的 Safe Superintelligence,以及 Salesforce 等公司也成了客户。Meta 的潜在采购则可能是迄今为止最大的一笔外部订单。
这些进展对谷歌云业务来说意义重大。谷歌云第三季度收入 152 亿美元,同比增长 34%,但仍然排在微软和亚马逊 AWS 之后。如果能通过 TPU 吸引更多大客户,不仅能增加收入,还能提升谷歌云在市场上的地位。
据报道,谷歌云的一些负责人内部讨论过,希望 TPU 能抢下英伟达年收入的 10%。英伟达 2025 年 AI 相关收入预计达到 490 亿美元,10% 就是近 50 亿美元,这个数字已经超过了目前 TPU 业务的估算规模。
谷歌的数据优势也不容小觑。搜索引擎、Android 手机、YouTube,这些产品每天产生的数据为训练 AI 模型提供了丰富的素材。更重要的是,谷歌往往把这些数据留给自己用,而不是像一些竞争对手那样需要付费获取训练数据。
不过,技术上的进步并不自动转化为市场上的成功,谷歌要想在各方面取得领先,还需要付出更多的努力。在消费者层面,Gemini 仍然落后于 ChatGPT。
谷歌上周宣布 Gemini 应用有 6.5 亿用户,OpenAI 则说 ChatGPT 每周有 8 亿用户。根据 Sensor Tower 的数据,今年 10 月 Gemini 应用的月下载量为 7,300 万次,而 ChatGPT 是 9,300 万次。
企业市场的情况也类似。虽然谷歌云增长不错,但在企业 AI 采用方面,谷歌仍然面临微软和 Anthropic 的竞争。微软与 OpenAI 的深度绑定让企业客户更容易接入 AI 能力,而 Anthropic 的 Claude 模型已经在一些企业应用场景中获得了广泛的认可,几乎成为企业的首选项之一。
TPU 的商业化同样面临挑战。虽然谷歌今年推出了 TPU@Premises 计划,允许客户在自己的数据中心部署 TPU,但这还是个新项目,大部分开发者目前仍然只能通过谷歌云租用。
而且即便是自建部署,也需要依赖谷歌的软件栈和支持体系,某种程度上仍然被锁定在谷歌的生态里。相比之下,英伟达的 GPU 可以在任何云平台使用,转换成本要低得多。
对于 Meta 这样已经拥有庞大 GPU 集群的公司来说,大规模迁移到 TPU 还有实际的技术障碍。TPU 使用环形网络拓扑和光电路交换技术来连接大量芯片,这与传统的 GPU 集群架构完全不同。
虽然 Meta 开发的 PyTorch 框架可以在 TPU 上运行,但需要通过一个转换层,这可能带来额外的性能开销和开发复杂度。
更关键的是,英伟达的 CUDA 软件平台已经成为 AI 开发的事实标准,全球数百万开发者熟悉这套工具。谷歌虽然提供了兼容方案,但 TPU 的软件生态仍然小众得多。
一位业内人士坦言,如果要从 GPU 迁移到 TPU,需要投入大量人力重新优化代码,这对很多公司来说是笔不小的成本。
The Register 的分析指出,即便 Meta 真的在谈判,更可能的场景是让 Llama 模型能在 TPU 上更好地运行推理任务,方便企业客户部署,而不是在自己的数据中心大规模替换 GPU。Meta 本身也在开发 MTIA 自研芯片,如果真要减少对英伟达的依赖,自研芯片可能是更合理的长期选择。
而且英伟达也不会对谷歌的动向坐以待毙,此前 OpenAI 计划使用 TPU 的消息传出后不久后,财力雄厚的英伟达就宣布将向 OpenAI 投资最高 1,000 亿美元,换取后者使用英伟达下一代芯片的承诺。
Anthropic 与谷歌达成 TPU 协议后,英伟达很快宣布向其投资数十亿美元,同样换来了继续使用英伟达 GPU 的承诺。今年 11 月,英伟达又宣布与微软合作,向 Anthropic 提供 300 亿美元的 Azure 计算容量。
英伟达在公开声明中表现得相当自信:“我们为谷歌的成功感到高兴——他们在 AI 领域取得了巨大进步,我们将继续向谷歌供货。英伟达领先行业整整一代——它是唯一能运行所有 AI 模型并在任何地方执行计算的平台。
相比专用集成电路(ASIC),英伟达提供更强的性能、通用性和可替换性。”这番表态既是对谷歌的礼貌性恭维,也强调了自己在通用性和生态系统上的优势。
![]()
图丨相关推文(来源:X)
但目前所有主要玩家都在同时押注不同的方案,这对谷歌来说是个难得的机会。Anthropic 既用 TPU 也用英伟达 GPU,还从亚马逊租用 Trainium 芯片。谷歌既部署 TPU 也采购英伟达 GPU。
亚马逊开发了自研芯片但仍在 AWS 上提供英伟达服务。这种“对冲”反映了一个现实:AI 芯片市场的格局还远未定型,没人敢把宝全压在一种方案上。
对谷歌来说,TPU 的商业化只是其重新找回竞争力的一个侧面。真正让市场重新审视这家公司的,是它在模型能力、云服务、数据优势、芯片技术等多个维度上展现出的全栈整合能力。
从 ChatGPT 发布到现在,谷歌用了将近两年时间调整方向、重整旗鼓。现在这个“沉睡的巨人”已经醒来,接下来的竞争会更加激烈。至少可以确定的是,没人会再敢说谷歌“掉队了”。
参考资料:
1.https://www.theinformation.com/articles/google-encroaches-nvidias-turf-new-ai-chip-push?rc=jn0pp4
2.https://www.theinformation.com/articles/googles-meta-talks-put-ball-nvidias-court?rc=jn0pp4
3.https://www.theregister.com/2025/11/25/nvidia_google_tpu_meta/
4.https://www.bloomberg.com/news/articles/2025-11-25/google-the-sleeping-giant-in-global-ai-race-now-fully-awake
5.https://www.semafor.com/article/11/25/2025/google-is-coming-for-nvidia
运营/排版:何晨龙