告别英伟达独供时代,OpenAI携Cerebras发布首款第三方芯片AI模型

来源:爱集微 #OpenAI# #Cerebras# #AI芯片#
834

OpenAI近日正式推出其首款基于Cerebras Systems芯片的AI模型——GPT-5.3-Codex-Spark。这一发布标志着OpenAI首次在核心模型部署中脱离英伟达GPU生态,转向采用高性能AI芯片替代方案,开启了硬件多元化的新篇章。

该模型是OpenAI旗下自动编程工具Codex的轻量化加速版本,专注于编程辅助任务,旨在与Alphabet旗下GitHub Copilot及Anthropic的Claude编程助手等产品展开正面竞争。

根据OpenAI官方公告,GPT-5.3-Codex-Spark能够协助软件工程师快速完成代码片段编辑、测试执行等任务。与传统AI编程工具不同,该模型支持用户随时中断执行流程,或指令模型转向其他编码任务,无需等待冗长的运算完成。

此外,该模型擅长进行精确编辑、修订计划,并能回答有关代码库的上下文问题,成为可视化新布局、优化样式和测试新界面变化的快速途径。

“用户可以随时调整任务方向,而无需等待模型完成当前任务,”OpenAI在官方博客中写道。这一功能设计旨在解决传统AI编程助手在实际开发环境中“卡顿”的问题,让编程辅助工具真正融入开发工作流。

OpenAI于今年1月与Cerebras Systems签署了一项价值逾100亿美元的协议,采用Cerebras硬件加速其AI模型的响应速度。这一合作标志着OpenAI首次正式脱离英伟达GPU生态,转向Cerebras这一高性能AI芯片替代方案。

“这是OpenAI在AI硬件战略上的重大转向,”一位半导体行业分析师表示,“随着AI模型规模持续扩大,对计算资源的需求已经超过英伟达GPU的供应能力,OpenAI需要寻求更多硬件选择以确保模型训练和推理的效率。”

OpenAI与Cerebras的合作是AI行业硬件生态多元化的重要一步。长期以来,英伟达GPU几乎垄断AI训练和推理市场,而OpenAI此次选择Cerebras,表明AI公司正在积极寻求多元化硬件供应商,以确保供应链安全和性能优化。

一位知情人士透露,早在2024年OpenAI就曾与Cerebras进行过初步接触,但因后者产能限制未能达成协议。“此次签约表明Cerebras的产能已能满足OpenAI的需求。”

Cerebras Systems是一家专注于高性能AI芯片的初创公司,其CS-3系统采用单芯片设计,拥有超过2.6万亿个晶体管,是目前世界上最大的单芯片。通过将海量计算单元、内存与带宽集成于单一巨型芯片,消除了传统硬件上制约推理速度的瓶颈。

与英伟达GPU相比,Cerebras芯片在AI推理速度和能效方面具有显著优势。它拥有最大的片上内存,支持每秒数千tokens的高速推理,且架构可扩展至数千个系统,支持万亿参数模型的训练和推理。

“在AI推理阶段,Cerebras芯片能够将响应速度提升30%-50%,同时降低能耗,”Cerebras Systems首席执行官Andrew Feldman在采访中表示,“这正是OpenAI选择与我们合作的关键原因。”

数据显示,GPT-5.3-Codex-Spark在Cerebras的Wafer Scale Engine芯片上运行,速度超过1000 tokens/s,实现了近乎即时的反馈,极大提升了开发效率。

据OpenAI官方数据,GPT-5.3-Codex-Spark的推理速度比基于英伟达GPU的同类模型快35%,能效比提升25%。在实际测试中,该模型在处理复杂编程任务时,平均响应时间从原来的25秒缩短至16秒。

“我们相信,AI硬件的多元化将推动整个行业的创新,”OpenAI首席执行官Sam Altman在一份声明中表示,“通过与Cerebras的合作,我们正在为用户提供更快、更高效的AI编程体验,同时为AI生态的健康发展做出贡献。”

据悉,OpenAI计划分阶段将Cerebras的低延迟能力整合至推理基础设施中,并逐步扩展至各类工作负载,预计这部分计算能力将在2028年之前分批次陆续上线。

随着GPT-5.3-Codex-Spark的发布,AI编程助手市场竞争将更加激烈。Alphabet旗下的GitHub Copilot、Anthropic的Claude编程助手等产品已占据市场先发优势,OpenAI此次通过Cerebras芯片加速的GPT-5.3-Codex-Spark,有望在编程辅助工具领域占据一席之地。

责编: 张轶群
来源:爱集微 #OpenAI# #Cerebras# #AI芯片#
THE END

*此内容为集微网原创,著作权归集微网所有,爱集微,爱原创

关闭
加载

PDF 加载中...