近期英伟达GB200AI服务器出货递延杂音四起,英伟达CEO黄仁勋12月18日接受媒体专访时辟谣,高呼“GB200正满载生产、进展顺利”,并大赞最新Blackwell平台服务器在推理过程中兼顾高效和节能之余,性能更大增30倍。
黄仁勋并直言,“愈来愈多公司争相建设AI能量,三个月的时间差可能就会改变游戏规则。”法人指出,黄仁勋出面辟谣,并对Blackwell平台服务器“超强性能”信心喊话,有稳定军心味道,也为鸿海、广达、纬创、英业达等GB200 AI服务器代工厂出货吞定心丸。
鸿海、广达等首批出货GB200 AI服务器的代工厂先前均透露,将于年底前小量出货,明年第一季度放量。如今黄仁勋出面稳军心,代工厂大量认列GB200 AI服务器机器出货实质营收贡献,可望如先前预期推进。
广达指出,高频、高算力服务器产品在验证过程中,从前段芯片组良率到后段装机测试等,一定会出现各式各样问题,供应链势必会一层一层解决,确保量产良率。
英伟达Blackwell平台AI芯片正陆续交付,“地表最强AI芯片”GB200服务器出货放量在即,市场对出货进度关注节节升温。
研调机构集邦科技(TrendForce)12月17日示警,由于高速互通介面、热设计功耗(TDP)等关键零部件设计规格明显高于主流,供应链需要更多时间调校优化,AI服务器机器放量出货时程恐递延至明年第二季度甚至第三季度,比业界预期晚一季度到半年。
黄仁勋受访透露Blackwell平台AI芯片出货进展顺利,也点出其超强效能。黄仁勋表示,过去通常需花费数月处理训练模型所需数据,接着再训练模型,通过Blackwell可提升训练模型效率,将时间压缩至原先三分之一到四分之一,假如原先需要六个月,现在仅需耗时一个半月左右。
谈及Blackwell推理能力,黄仁勋指出,推理过程遵循的不是零样本学习或单样本学习,而是长期思考模式,本质上是AI先在脑海中构思各种不同解法,再用更多算力,提供更适当的答案,称之为测试阶段标准化(test time scaling)或推理阶段标准化(inference time scaling),Blackwell服务器在推理过程中兼顾高效和节能。