Grok4定档直播马斯克亲自站台正面硬刚OpenAI

Grok 4 即将发布,这次是真的。

北京时间 7 月 8 日凌晨,马斯克亲自站台,简单粗暴地在 X 平台官宣:

xAI 将于太平洋时间本周三晚上 8 点举行 Grok 4 直播发布会。(Grok 4 release livestream on Wednesday at 8pm PT @xAI)

小火箭shadowrocket

换算成北京时间,就是周四(7 月 10 日)上午 11 点。

直播地点,猜测和 Grok 3 一样,在 X 平台 xAI 官方账号开启直播。

平时喜欢用 Grok 的小伙伴可以期待一波了。

别的不说,马斯克在“拿捏用户情绪”上,是有一手的。

早在两个多月前就开始为新模型 Grok 3.5 造势,结果中途夭折。

后来又官宣 xAI 将直接跳过 3.5,发布 Grok 4 。并且夸下海口称 Grok 4 将重写整个人类的知识库。

小火箭shadowrocket

戏剧感拉满。

以至于不到一天, Grok 4 直播的官宣帖阅读数就突破了 2500 万。

那么,这个为“重写人类知识库”而生的新模型,真有这么猛吗?

简单整理。

最大的“变化”是,这次是双版本齐发(2 个独立模型)。

通用版 Grok 4 ;

主打编程的 Grok 4 Code 。

在 xAI 控制台泄露的后台记录中,新模型版本号已经更新为 grok-4-0629 和 grok-4-code-0629 ,意味着模型训练在 6 月底就已完成。

小火箭shadowrocket

技术参数方面,延续前代的混合专家 MoE 架构,上下文窗口为 131,072 tokens(128 K)。

上下文不算很长,只能说一般情况下“够用”。

对比一波。

OpenAI 的 o3 上下文长度为 20 万 tokens; GPT-4o 128K tokens。

Anthropic 的 Claude 系列模型上下文长度为统一的 20 万 tokens。企业用户可能更高,能达到 50 万。

谷歌 Gemini 则是上下文的王者, Gemini 2.5 Pro 拥有 100 万 tokens 的上下文长度,这使得它极其适合大型数据源或代码库的处理。

对于 DeepSeek,上下文一直是它的短板之一。 DeepSeek-R1/V3 的上下文均只有 64K。

小火箭shadowrocket

另外值得一提的是 Grok 4 的基准测试成绩。

小火箭shadowrocket

测试集

Grok 4

o3

Claude 4 Opus

AIME(数学)

95%

88.9%

75.5%

GPQA(推理)

87–88%

83.3%

79.6%

SWE-Bench(代码)

72–75%

59.1%

72.5%

HLE(模拟考试)

35%(CoT 45%)

20.3%

10.7%

一句话总结: Grok 4 的“纸面战斗力”,确实已经够格和 o3 / Claude 4 掰手腕了。

但要注意,这些数据目前都不是官方渠道披露,有待确认。

Grok 4 的另一个关键词是:First Principles Reasoning(第一性原理推理)。

这是马斯克本人最喜欢挂在嘴边的词(之一)。

小火箭shadowrocket

所谓“第一性原理”,就是不套模板、不信经验,从最基础的自然规律出发,把一个复杂问题拆成最小颗粒,再从底层逻辑往上推,自己重建认知路径。

比如,它能从“苹果掉下来”,自己推导出万有引力。

而在 Grok 4 训练背后,是目前已上线 10 万块,未来目标百万 GPU 超算中心 Colossus。

要搞出这个“大跃进”,靠的自然是 xAI 的“钞能力 + 算力集群”。

小火箭shadowrocket

部署位置 :美国德州奥斯汀,耗时 122 天建成,采用 NVIDIA Spectrum-X 与液冷网络

扩建计划 :马斯克已在孟菲斯买地 100 万平方英尺,准备堆满服务器

最新进展 :xAI 与 Dell 商议 50 亿美元服务器采购大单,已进入交付阶段

版权声明:
作者:小火箭shadowrocket
链接:https://www.shadowrocket888.vip/196.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>