引子
75%。
谷歌今天说了一个数字:它新写的代码里,四分之三来自 AI。
不是 30%,不是 50%,是 75%。
这意味着谷歌的工程师现在的主要工作不是"写代码",而是"检查 AI 写的代码"。
与此同时,谷歌发布了第八代 TPU。这是它自研的 AI 算力芯片,直接对标 NVIDIA 的 GPU。
两条消息放在一天发,这不是巧合。
一、75% 的代码来自 AI,意味着什么
先理解这个数字的语境。
75% 不是说谷歌的程序员被裁了 75%。而是说,在一个典型的开发流程里,AI 先生成初稿,人类再做审查、修改、集成。
这其实是一个比"AI 取代程序员"更激进的事情。
因为如果 AI 能完成 75% 的编码工作量,那就意味着——一个程序员的生产力可以被放大 3 到 4 倍。原来需要 10 个人的项目,现在 3 个人就能搞定。
谷歌有几万名工程师。如果每个人的生产力都翻 3 倍,那意味着什么?
意味着谷歌可以用更少的人做更多的事。这意味着它的软件迭代速度会指数级加快。这也意味着它在 AI 辅助开发这件事上已经走过了"实验阶段",进入了"规模化应用阶段"。
Cursor 帮 SpaceX 写代码的时候,还被当作一个新鲜案例。但谷歌是把这个模式推广到了全公司。
二、第八代 TPU 的真正对手
TPU 不是什么新东西。谷歌从 2015 年就开始自研 TPU,到现在已经迭代了八代。
但前七代 TPU 都有一个共同特点:只供谷歌自己用。谷歌的搜索、翻译、YouTube 推荐,跑的都是 TPU。但外面的公司想用 TPU?不行,只能用 NVIDIA GPU。
第八代 TPU 的不同之处在于——谷歌开始把它作为云服务对外出售了。
Google Cloud 上已经可以租用 TPU 算力。而且,第八代的性能据传在训练大模型时比 NVIDIA H100 更高效。
这就是"老黄该急了"这句话的来源。
NVIDIA 的 GPU 占据了 AI 算力市场 80% 以上的份额。黄仁勋是全球 AI 基础设施的"卖水人"——不管谁做大模型,都得买 NVIDIA 的芯片。
但如果谷歌的 TPU 能在性能和价格上证明自己不输 H100,那 NVIDIA 的护城河就开始裂了。

三、谷歌的"全栈 AI"战略
把 75% AI 写代码和第八代 TPU 放在一起看,谷歌的图景就很清晰了。
它不是在做一个 AI 功能,也不是在卖一颗芯片。它是在构建一条完整的 AI 链条:
底层:自研 TPU 提供算力。中层:自研 Gemini 模型提供 AI 能力。上层:自研 AI 编程工具提升开发效率。
这是一条从芯片到模型到应用的垂直整合链条。
在 AI 行业里,能做到"全栈自研"的公司不多。苹果算一个——从 M 系列芯片到 iOS 到 AI 功能。谷歌现在是第二个。
OpenAI 不行——它用的是微软的 Azure 和 NVIDIA 的 GPU。Anthropic 也不行——它用的是 AWS 和 Google Cloud 的算力。
谷歌的独特优势在于:它不需要依赖任何人。
这既是一种能力,也是一种隐忧——因为它意味着谷歌的 AI 发展是封闭的,不是开放的。
四、但谷歌的问题从来不是技术
谷歌的技术一直很强。强到离谱。
搜索引擎是它发明的。Android 是全球最大的移动操作系统。TPU 是第一代 AI 专用芯片。Transformer 架构是所有大模型的基础——对,GPT 里的 T 就是 Transformer,是谷歌 2017 年发表的论文。
但谷歌的问题从来不是技术不够好,而是产品化能力太差。
Android 的 AI 功能永远比不过 iPhone。Google Assistant 被 Alexa 超越。Gemini 发布时被批评为"功能清单,不是产品体验"。
75% 的代码来自 AI,听起来很厉害。但谷歌的软件产品体验真的因此变好了吗?
第八代 TPU 性能很强。但 Google Cloud 的市场份额真的因此超过 AWS 和 Azure 了吗?
技术是谷歌的长板,产品是谷歌的短板。这个矛盾从拉里·佩奇时代就存在,到今天依然没有解决。
结语
谷歌今天同时亮了两张牌:AI 编程能力和 TPU 算力。
这两张牌在技术上都足够硬核。75% 的代码来自 AI,第八代 TPU 对标 H100。
但"硬核"从来不是谷歌的问题。谷歌的问题是——再硬核的技术,到了用户手里,体验到底有没有变好?
老黄会不会急,不取决于谷歌发了什么芯片。而取决于——有多少公司愿意从 NVIDIA 切换到谷歌。
这需要的不只是技术参数,而是生态、信任和产品体验。
这些,恰恰是谷歌最缺的。
参考链接