韩国芯片初创公司FuriosaAI推出了一款新的服务器产品,用于搭载该公司的AI推理半导体芯片。
NXT RNGD(读音为"renegade")服务器将搭载该公司的神经处理RNGD芯片。该公司表示,与GPU解决方案相比,其服务器在本地数据中心环境和私有云中将提供更高的效率和更低的成本。
在接受Data Center Knowledge采访时,FuriosaAI首席执行官June Paik表示,该公司希望通过开创一种结合开源和内部软件选项的一体化解决方案,在推理处理领域开辟一个细分市场。他说,该公司的目标客户是银行、金融、教育和电子商务行业,以及其他企业客户。
"目前市场被一家公司主导,"Paik说。"Nvidia相当占主导地位。有AMD和Intel等少数公司在努力追赶......有很多企业需要AI,我们需要一种新的方式来做这件事。我们的雄心是成为全球下一个领先的计算公司。"
**挑战巨头**
挑战Nvidia是一个艰难的任务。这家圣克拉拉硬件公司目前在AI训练和推理方面占据主导地位,尽管在推理方面面临更多竞争。FuriosaAI、xAI和Cerebras等初创公司正在通过专用硬件和定制芯片在推理空间取得进展。
Nvidia在推理方面也面临来自大型科技公司的竞争——Google正在使用定制的v4i TPU芯片,Amazon有其内部的Inferentia芯片。Intel、AMD和Qualcomm也在瞄准推理计算市场份额。
"推理有如此多的部署场景,我毫不怀疑FuriosaAI及其RNGD服务器将在市场中找到一席之地,"Moor Insights & Strategy副总裁兼首席分析师Matthew Kimball在邮件中表示。
Kimball说他期待看到来自这些服务器的更多基准测试结果。
该公司表示,NXT RNGD将提供384GB的HBM3内存,以12TB/s的内存带宽运行,总功耗为3kW,而高性能GPU服务器的功耗为10kW或更多。该设备搭载八块RNGD卡,提供4 petaflops的FP8(或4 petaflops的INT8)计算能力。
该公司声称,标准的15kW数据中心机架可以容纳多达五台NXT RNGD服务器,而Nvidia DGX服务器只能容纳一台。
**挑战CUDA霸主地位**
尽管成本较低,FuriosaAI和其他潜在的Nvidia竞争对手仍面临一个巨大的障碍。Nvidia的CUDA软件已经无处不在,为开发者提供了可靠且得到良好支持的解决方案。
Paik说,客户可能在训练工作负载上对CUDA产生了依赖,但在推理方面,"依赖性较小",他看到了FuriosaAI的机会。"我们的挑战是用我们自己的软件栈来替换这个CUDA引擎,"他说。"我们现在用自己的引擎做得相当好。"
FuriosaAI在7月宣布赢得了LG AI Research这一重要客户,后者将向企业客户提供RNGD驱动的服务器。今年早些时候,据报道FuriosaAI拒绝了Meta的8亿美元收购提议。Paik拒绝对这一报道进行评论。
Q&A
Q1:FuriosaAI的NXT RNGD服务器有什么特点?
A:NXT RNGD服务器搭载FuriosaAI的神经处理RNGD芯片,提供384GB的HBM3内存,内存带宽12TB/s,总功耗仅3kW,远低于GPU服务器的10kW以上功耗。设备搭载八块RNGD卡,提供4 petaflops的计算能力,一个15kW机架可容纳五台该服务器。
Q2:FuriosaAI如何与Nvidia竞争?
A:FuriosaAI主要在AI推理领域挑战Nvidia,通过提供更高效率、更低成本的解决方案来开辟细分市场。虽然训练领域CUDA依赖性强,但在推理方面依赖性较小,为FuriosaAI提供了机会。该公司开发了自己的软件栈来替代CUDA引擎。
Q3:FuriosaAI的目标客户和市场前景如何?