马斯克高调开源Grok2却被DeepSeek狠狠打脸

“The @xAI Grok 2.5 model, which was our best model last year, is now open source.”

8 月 24 日,马斯克在 X 平台官宣 Grok-2.5 正式开源。

小火箭shadowrocket

他嘴里的 Grok-2.5 ,实际上就是 Grok-2 。

这并不是马斯克的 xAI 首次开源 AI 模型。

早在 2024 年 3 月, Grok-1 就以 Apache-2.0 协议开源。

而这次开源的 Grok-2 ,则是发布于 2024 年 8 月;当然,还有接下来 2025 年 2 月上线的 Grok-3 ,以及 7 月推出、现在仍在服役的 Grok 4 。

01|Grok-2 技术亮点

时间追溯到 2024 年 8 月 13 日, Grok-2 正式上线。

它由前一代 Grok-1.5 的升级而来,预览版曾以“sus-column-r”之名在 LMArena 对战平台上线,排名超越当时的 Claude 3.5 Sonnet 和 GPT-4-Turbo 。

小火箭shadowrocket

Grok-2 的一些参数:

支持 128K tokens 上下文长度

支持“文本+图片”多模态理解

关键提升在“推理+指令跟随”方面

提供在 X 平台获取实时信息的能力

这是 Grok-2 的基准测试对比结果。

可以看到,当时的 Grok-2 已经隐约有了第一梯队的影子。后来的 Grok-3 、 Grok-4 “纸面成绩” 一骑绝尘,其实在 Grok-2 这里就埋下了伏笔。

小火箭shadowrocket

尽管如此,需要一提的是,马斯克 xAI 选择在当下这个时间点(2025 年 8 月)开源 Grok-2 ,其实有点不够看。

不论是“国产开源四大天王”的 DeepSeek、Qwen、Kimi 以及 智谱 GLM,还是近期开源了 gpt-oss 的 OpenAI,xAI 都不太能打。

这里附上 gpt-oss-120b 在 GPQA 博士级科学问题测评中的结果。80.1% 的准确率可以说是吊打 Grok-2 的 56% 了。

小火箭shadowrocket

02|Grok-2 是真正的开源吗?

这次 Grok-2 开源提供了模型权重,可在 Hugging Face 平台下载,共计约 500GB,拆分为 42 个文件存储,并提供 SGLang 推理工具。

Grok-2 模型下载链接:https://huggingface.co/xai-org/grok-2

然而,某种意义上来说, Grok-2 开源了,但又没有完全开源。

许可协议为 Grok-2 Community License,允许研究与非商业使用,商业使用需符合 xAI 的 Acceptable Use Policy 限制;

禁止用于训练新的基线模型;

要求分发时包含“Powered by xAI”标识。

小火箭shadowrocket

以上周刚刚发布的 DeepSeek-V3.1 为例,来看看什么才是真正的、彻底的“开源”:MIT 协议,允许商用、再发布和二次开发,也没有使用限制。

小火箭shadowrocket

03|部署 Grok 2 硬件要求

那么问题来了,本地部署 Grok 2 需要怎样的硬件配置?

来看看 Grok 自己怎么说(此处引用一位网友在 X 平台 @Grok 的回答)。

小火箭shadowrocket

总结:

最少 8 块大于 40GB 显存的 GPU(比如 NVIDIA A100),用于模型推理;

存储空间约 500GB,用于存放模型权重文件;

如果你要全天运行,云端成本约 24000 美元/月(以 AWS p4d 实例估算);

如果自己买服务器,预算拉满,硬件成本大约 8-12 万美元。

个人用户还是洗洗睡吧。

结语

马斯克的开源是有节奏的:“每发布一个新版本,开源上一代模型。”

这次的 Grok-2 稍微有点掉队。

版权声明:
作者:小火箭shadowrocket
链接:https://www.shadowrocket888.vip/158.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>