AIPress.com.cn报道
11月27日,据彭博社报道,Google与Meta在AI芯片领域取得突破性进展,其自研加速器与云芯片解决方案正在对 Nvidia 长达十年的行业统治力造成实际压力。
多条路径撼动 GPU 霸主地位
Google的TPU加速器:Google最新代AI芯片在其内部数据中心训练任务中表现大幅提升。根据报道,Meta正与Google商谈购买或租用其TPU,用于其大规模AI推理和训练任务。若合作达成,这将成为业界对Nvidia H 系列GPU的重大替代。
Meta 自研芯片 MTIA、Artemis:Meta 近年来不断强化自研芯片能力。其首代 AI 加速器 MTIA 已投入使用,最新版本据称在算力、效率和能耗上都有显著优化,足以支撑其生成式 AI 与推荐系统。
据知情人士透露,Meta 考虑自2027年起,在其数据中心全面部署Google的TPU芯片,并可能从2026年开始通过 Google Cloud 租用部分算力。
行业格局正在重塑
过去十年,Nvidia 的 GPU 几乎成为 AI 大规模训练与推理的“金标准”。然而,随着 Google 和 Meta 的方案逐渐成熟,多芯片、可替代方案成为现实:这意味着 Nvidia 曾经坚固的“护城河”正在出现裂缝。
分析指出,一旦 Google 或 Meta 将其芯片开放给第三方企业或云服务用户,将显著降低行业对 Nvidia GPU 的依赖,不仅冲击其硬件销量,也将挑战其与 GPU 深度绑定的软件生态优势。
此外,在成本敏感、算力需求刚性的 AI 研发与部署环境下,自研芯片和云供应替代方案更具吸引力。对于追求规模化部署的企业来说,多家供应商竞争将促进算力成本下降和供应链多元化。
多芯片竞争可能成新常态
业内评论认为,这场竞争或将重塑 AI 基础设施的供应格局:从过去“GPU 一家独大”,转向“GPU + TPU + ASIC + 自研芯片”的混合供应。长期来看,这对 AI 模型研发机构、中大型云服务商、AI 应用平台与初创企业都有深远影响。
对于用户与开发者而言,这意味着:更多选择、更低成本、也更灵活;对于硬件厂商,则意味着曾经的“垄断红利”可能逐渐消退。
当 Google 和 Meta 的芯片也能跑起大模型,Nvidia 的“独家特权”还剩多久?