马斯克高调开源Grok2却被DeepSeek狠狠打脸
“The @xAI Grok 2.5 model, which was our best model last year, is now open source.”
8 月 24 日,马斯克在 X 平台官宣 Grok-2.5 正式开源。
他嘴里的 Grok-2.5 ,实际上就是 Grok-2 。
这并不是马斯克的 xAI 首次开源 AI 模型。
早在 2024 年 3 月, Grok-1 就以 Apache-2.0 协议开源。
而这次开源的 Grok-2 ,则是发布于 2024 年 8 月;当然,还有接下来 2025 年 2 月上线的 Grok-3 ,以及 7 月推出、现在仍在服役的 Grok 4 。
01|Grok-2 技术亮点
时间追溯到 2024 年 8 月 13 日, Grok-2 正式上线。
它由前一代 Grok-1.5 的升级而来,预览版曾以“sus-column-r”之名在 LMArena 对战平台上线,排名超越当时的 Claude 3.5 Sonnet 和 GPT-4-Turbo 。
Grok-2 的一些参数:
支持 128K tokens 上下文长度
支持“文本+图片”多模态理解
关键提升在“推理+指令跟随”方面
提供在 X 平台获取实时信息的能力
这是 Grok-2 的基准测试对比结果。
可以看到,当时的 Grok-2 已经隐约有了第一梯队的影子。后来的 Grok-3 、 Grok-4 “纸面成绩” 一骑绝尘,其实在 Grok-2 这里就埋下了伏笔。
尽管如此,需要一提的是,马斯克 xAI 选择在当下这个时间点(2025 年 8 月)开源 Grok-2 ,其实有点不够看。
不论是“国产开源四大天王”的 DeepSeek、Qwen、Kimi 以及 智谱 GLM,还是近期开源了 gpt-oss 的 OpenAI,xAI 都不太能打。
这里附上 gpt-oss-120b 在 GPQA 博士级科学问题测评中的结果。80.1% 的准确率可以说是吊打 Grok-2 的 56% 了。
02|Grok-2 是真正的开源吗?
这次 Grok-2 开源提供了模型权重,可在 Hugging Face 平台下载,共计约 500GB,拆分为 42 个文件存储,并提供 SGLang 推理工具。
Grok-2 模型下载链接:https://huggingface.co/xai-org/grok-2
然而,某种意义上来说, Grok-2 开源了,但又没有完全开源。
许可协议为 Grok-2 Community License,允许研究与非商业使用,商业使用需符合 xAI 的 Acceptable Use Policy 限制;
禁止用于训练新的基线模型;
要求分发时包含“Powered by xAI”标识。
以上周刚刚发布的 DeepSeek-V3.1 为例,来看看什么才是真正的、彻底的“开源”:MIT 协议,允许商用、再发布和二次开发,也没有使用限制。
03|部署 Grok 2 硬件要求
那么问题来了,本地部署 Grok 2 需要怎样的硬件配置?
来看看 Grok 自己怎么说(此处引用一位网友在 X 平台 @Grok 的回答)。
总结:
最少 8 块大于 40GB 显存的 GPU(比如 NVIDIA A100),用于模型推理;
存储空间约 500GB,用于存放模型权重文件;
如果你要全天运行,云端成本约 24000 美元/月(以 AWS p4d 实例估算);
如果自己买服务器,预算拉满,硬件成本大约 8-12 万美元。
个人用户还是洗洗睡吧。
结语
马斯克的开源是有节奏的:“每发布一个新版本,开源上一代模型。”
这次的 Grok-2 稍微有点掉队。
版权声明:
作者:小火箭shadowrocket
链接:https://www.shadowrocket888.vip/158.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。


共有 0 条评论