Grok 3大模型成功背后:算力堆积的“大力出奇迹”路径再次验证

AI资讯2个月前发布 Wiziz
1.6K 0

2025年2月18日,特斯拉创始人埃隆·马斯克旗下的xAI推出了最新的大型语言模型Grok 3。这款模型不仅在MMLU(大规模多任务语言理解基准测试)得分上追平了ChatGPT,而且在多个性能指标上超越或媲美Gemini、DeepSeek和GPT-4等竞争对手。这一成就的背后,是算力堆积的“大力出奇迹”路径再次得到验证。

Grok 3的训练是在xAI位于孟菲斯的Colossus超级计算中心完成的。该中心的算力已经翻倍,拥有超过20万颗英伟达GPU。尽管外界一度质疑马斯克是否夸大其词,但Grok 3的实际表现证明了这些质疑是多余的。Grok 3的推出,使得不少业内人士重新审视并认可了通过算力堆积实现技术突破的可能性。

行业专家的评价

AI大牛、前OpenAI研究员Andrej Karpathy在成为Grok 3的首批用户后,发表了详细的测评总结。他特别称赞了Grok 3的逻辑推理能力,认为其性能可以与OpenAI的o1-pro模型相媲美,后者每月费用高达200美元。此外,Karpathy还指出,Grok 3的推理能力略优于DeepSeek-R1和谷歌的Gemini 2.0 Flash Thinking。然而,他也提到了一些局限性,例如DeepSearch功能中偶尔出现的幻觉和事实错误。

算力堆积的重要性

许多分析人士认为,Grok 3的成功主要归功于其强大的算力支持。沃顿商学院的人工智能教授Ethan Mollick指出,人工智能的发展速度和算力资源都是行业的护城河。雪城大学的Shelly Palmer则形象地比喻说,Grok 3的护城河“已经被金钱填满”,因为每块英伟达H100 GPU的价格在3万至4万美元之间,即使有折扣,这也是一笔30亿到50亿美元的巨大投资。

缩放法则的再探讨

随着Grok 3的问世,关于缩放法则(scaling law)的讨论再次升温。缩放法则是指通过增加模型参数、数据量和算力可以提高模型表现,但效益递减。尽管有人质疑这一法则的有效性,但Grok 3的成功证明了缩放法则在达到上限之前仍有发展空间。科技博主Zain Kahn强调,xAI仅用两年时间就与顶尖公司展开竞争,并且在某些方面超过了它们,这表明预训练缩放法则仍然有效。

机构观点

多家机构也对算力的作用给予了肯定。华泰证券在其研报中指出,Grok 3证明了预训练在算力提升下仍能取得突破。尽管目前预训练数据存在瓶颈,但合成数据、强化学习数据、工程能力优化以及Transformer架构的迭代,都有助于逐步打破这些瓶颈。国泰君安则提到,xAI在算力资源储备和开源策略之间的平衡,凸显了算力与算法的同等重要性。中信证券指出,作为全球首个在十万卡集群上训练的大模型,Grok 3的综合能力较前代模型Grok 2有了显著提升,进一步证明了算力堆积仍然是模型进步的关键变量。

总之,Grok 3的成功不仅展示了算力堆积的力量,也为整个AI行业带来了新的希望和信心。随着更多超算集群的规划,xAI有望继续提升其模型能力,推动人工智能技术的进一步发展。

© 版权声明

相关文章

暂无评论

none
暂无评论...