分析称Grok3成本是DeepSeek的263倍 消耗了20万块英伟达GPU
新浪科技报道,北京时间2月18日12点30分左右,马斯克与xAI团队的另外三位技术负责人,一同发布了公司最新推出的Grok-3基座大模型。
短短30分钟的发布过程中,马斯克及其团队向大家介绍了Grok-3比DeepSeek-V3、OpenAI-4o等更为突出的数学、科学推理性能,演示了大模型代码创作能力,同时也公布了后续的开源计划。
强大的模型性能背后,Grok-3的训练成本也成了备受关注的一个焦点。
据马斯克在直播中披露,Grok 3在训练过程累计消耗了20万块英伟达GPU,训练在xAI公司的数据中心完成。有马斯克团队人员介绍称,“我们花了122天才完成了第一个10万卡训练,但我们并没有就此止步,如果我们想要构建巨型人工智能,需要立即将集群的大小增加一倍。”
相较于DeepSeek以远低于同行“1/20的成本”训练出比肩OpenAI-01模型能力的R1模型,Grok-3的这一算力消耗属实不小。就在马斯克公布Grok-3训练成本后,很快便有人员分析指出,“Grok-3的算力消耗是DeepSeek-v3的263倍,中国的模型团队只得望洋兴叹。”
当全球范围内越来越多的企业都开始选择使用更加低成本的AI大模型时,昔日的AI大模型机构们,也不得不放低姿态,开始拥抱市场。对于Grok-3而言,高昂的训练成本及不开源的策略,或许将成为阻碍其普及的一大关键。
文章版权声明:除非注明,否则均为
云福软件园
原创文章,转载或复制请以超链接形式并注明出处。
还没有评论,来说两句吧...