Google发起“软件突围战”:全新TorchTPU计划剑指英伟达CUDA生态垄断

来源:钜亨网 #谷歌# #英伟达#
3647

《路透》周三(17 日) 援引知情人士消息报导,Google( GOOGL-US )正展开一项全新行动,试图从软件层面削弱英伟达( NVDA-US ) 在人工智能(AI) 运算市场的长期优势。据悉,Google 正在推动一项内部称为「TorchTPU」的新计划,目标是让自家AI 芯片Tensor Processing Units(TPU)能更顺畅地执行全球最广泛使用的AI 软件框架PyTorch,借此降低开发者转向英伟达GPU 以外选项的门槛。

这项行动被视为Google 积极强化TPU 竞争力的重要一环。随着TPU 销售逐渐成为Google 云端事业的重要成长动能,Google 也面临投资人检视其AI 投资是否能转化为实际营收的压力。然而,单靠硬体性能并不足以改变市场结构,软件生态系才是影响芯片采用度的关键。

补齐软件短板TorchTPU 直指英伟达护城河

知情人士指出,「TorchTPU」计划的核心目标,在于消除TPU 长期以来的一大障碍——与PyTorch 的相容性不足。多数AI 开发者的技术架构早已建立在PyTorch 之上,若要改用TPU,往往必须额外投入时间与成本,将程式改写为Google 偏好的Jax 框架,这也成为TPU 推广的主要瓶颈。

Google 过去曾尝试改善TPU 对PyTorch 的支援,但此次在组织层级、资源投入与策略重要性上,明显高于以往。随着企业对AI 运算需求快速成长,愈来愈多潜在客户向Google 反映,软件堆叠而非硬体性能,才是阻碍TPU 采用的最大问题。

PyTorch 是一个由Meta( META-US )大力支持的开源专案,自2016 年推出以来,已成为AI 模型开发的主流工具。矽谷多数工程师并不会直接为英伟达、超微( AMD-US ) 或Google 的芯片撰写底层程式码,而是透过PyTorch 这类框架,利用既有函式库与工具来加速AI 开发流程。

英伟达多年来持续优化CUDA 软件,确保PyTorch 在其GPU 上能以最高效率运行,这也被华尔街分析师视为英伟达最难以撼动的竞争优势之一。相较之下,Google 长期仰赖自家Jax 框架与XLA 编译工具,导致内部使用情境与客户需求之间出现落差。

TPU 走向商业化Google 云端承担成长压力

Alphabet 过去多将TPU 保留给内部使用,直到2022 年,Google 云端部门成功争取接手TPU 销售权限,才开始大规模对外供应。随着AI 热潮推升算力需求,Google 持续扩大TPU 产能,并将其定位为英伟达GPU 的替代方案之一。

不过,PyTorch 与Jax 之间的差异,使得多数企业客户即使有意采用TPU,也难以在不进行额外工程调整的情况下,达到与英伟达GPU 相近的效能。这样的转换成本,在竞争激烈、节奏快速的AI 市场中,成为企业却步的重要因素。

若TorchTPU 计划顺利推进,将有助于大幅降低企业转换芯片平台的成本,削弱英伟达在软件层面的锁定效应。长期以来,英伟达不仅在硬体上领先,更透过深度整合CUDA 与PyTorch,建立起高度黏着的生态系。

Google 云端发言人未对计划细节发表评论,但向《路透》表示,Google 正同时看到TPU 与GPU 基础设施需求快速成长,公司的重点在于提供客户弹性选择,而非绑定单一硬体架构。

携手Meta 合作加速挑战英伟达主导地位

为加快开发进度,Google 正与PyTorch 的主要推手Meta 密切合作。知情人士指出,双方已就Meta 取得更多TPU 资源展开讨论,相关消息先前已由《The Information》披露。

Meta 对改善TPU 软件支援具高度战略兴趣。透过降低推论成本并分散对英伟达GPU 的依赖,Meta 可在AI 基础设施谈判中取得更大弹性与筹码。早期合作模式多为Google 代管服务,由Google 负责营运与维护TPU 系统。

今年以来,Google 已开始将TPU 直接销售至客户自有资料中心,而非仅限于Google 云端平台。与此同时,Google 任命资深工程主管Amin Vahdat 出任AI 基础设施负责人,直接向执行长皮查伊(Sundar Pichai) 报告,凸显AI 算力在公司战略中的地位。

Google 需要这套基础设施,不仅是为了支撑自家Gemini 聊天机器人与AI 搜寻等产品,也为了满足Google 云端客户需求,包括Anthropic 等AI 公司。随着软件相容性问题逐步改善,TPU 能否真正撼动英伟达在AI 运算市场的主导地位,将成为市场关注焦点。

责编: 爱集微
来源:钜亨网 #谷歌# #英伟达#
THE END
关闭
加载

PDF 加载中...