Grok4定档直播马斯克亲自站台正面硬刚OpenAI
Grok 4 即将发布,这次是真的。
北京时间 7 月 8 日凌晨,马斯克亲自站台,简单粗暴地在 X 平台官宣:
xAI 将于太平洋时间本周三晚上 8 点举行 Grok 4 直播发布会。(Grok 4 release livestream on Wednesday at 8pm PT @xAI)
换算成北京时间,就是周四(7 月 10 日)上午 11 点。
直播地点,猜测和 Grok 3 一样,在 X 平台 xAI 官方账号开启直播。
平时喜欢用 Grok 的小伙伴可以期待一波了。
别的不说,马斯克在“拿捏用户情绪”上,是有一手的。
早在两个多月前就开始为新模型 Grok 3.5 造势,结果中途夭折。
后来又官宣 xAI 将直接跳过 3.5,发布 Grok 4 。并且夸下海口称 Grok 4 将重写整个人类的知识库。
戏剧感拉满。
以至于不到一天, Grok 4 直播的官宣帖阅读数就突破了 2500 万。
那么,这个为“重写人类知识库”而生的新模型,真有这么猛吗?
简单整理。
最大的“变化”是,这次是双版本齐发(2 个独立模型)。
通用版 Grok 4 ;
主打编程的 Grok 4 Code 。
在 xAI 控制台泄露的后台记录中,新模型版本号已经更新为 grok-4-0629 和 grok-4-code-0629 ,意味着模型训练在 6 月底就已完成。
技术参数方面,延续前代的混合专家 MoE 架构,上下文窗口为 131,072 tokens(128 K)。
上下文不算很长,只能说一般情况下“够用”。
对比一波。
OpenAI 的 o3 上下文长度为 20 万 tokens; GPT-4o 128K tokens。
Anthropic 的 Claude 系列模型上下文长度为统一的 20 万 tokens。企业用户可能更高,能达到 50 万。
谷歌 Gemini 则是上下文的王者, Gemini 2.5 Pro 拥有 100 万 tokens 的上下文长度,这使得它极其适合大型数据源或代码库的处理。
对于 DeepSeek,上下文一直是它的短板之一。 DeepSeek-R1/V3 的上下文均只有 64K。
另外值得一提的是 Grok 4 的基准测试成绩。
测试集
Grok 4
o3
Claude 4 Opus
AIME(数学)
95%
88.9%
75.5%
GPQA(推理)
87–88%
83.3%
79.6%
SWE-Bench(代码)
72–75%
59.1%
72.5%
HLE(模拟考试)
35%(CoT 45%)
20.3%
10.7%
一句话总结: Grok 4 的“纸面战斗力”,确实已经够格和 o3 / Claude 4 掰手腕了。
但要注意,这些数据目前都不是官方渠道披露,有待确认。
Grok 4 的另一个关键词是:First Principles Reasoning(第一性原理推理)。
这是马斯克本人最喜欢挂在嘴边的词(之一)。
所谓“第一性原理”,就是不套模板、不信经验,从最基础的自然规律出发,把一个复杂问题拆成最小颗粒,再从底层逻辑往上推,自己重建认知路径。
比如,它能从“苹果掉下来”,自己推导出万有引力。
而在 Grok 4 训练背后,是目前已上线 10 万块,未来目标百万 GPU 超算中心 Colossus。
要搞出这个“大跃进”,靠的自然是 xAI 的“钞能力 + 算力集群”。
部署位置 :美国德州奥斯汀,耗时 122 天建成,采用 NVIDIA Spectrum-X 与液冷网络
扩建计划 :马斯克已在孟菲斯买地 100 万平方英尺,准备堆满服务器
最新进展 :xAI 与 Dell 商议 50 亿美元服务器采购大单,已进入交付阶段
版权声明:
作者:小火箭shadowrocket
链接:https://www.shadowrocket888.vip/196.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。


共有 0 条评论