深度好文DeepSeek打醒了MetaLlama4的最后一搏

大模型的 “卷”,是 “肉眼可见的卷”。

这一次是 Meta。

它甚至,破天荒的,选择了在周六这个休息日发布新模型。

面对各个强大竞争对手的“来势汹汹”,很明显,Meta 急了。

DeepSeek 在年初的强势崛起,让全球侧目,也撕下了 Meta 长期以来引以为傲的最后一块遮羞布:“ 最强开源模型 ”。

小火箭shadowrocket

更不用提后来更加强大的闭源模型:OpenAI 的 o3 、 GPT-4.5 ;Anthropic 的 Claude 3.7 Sonnet 、马斯克 xAI 的 Grok 3 以及 谷歌的 Gemini 2.5 Pro 。

大模型排行榜上早已不见 Meta Llama 模型的身影。

小火箭shadowrocket

而 Meta 旗下最顶级的模型 Llama 3.1 405B ,它的发布已经是去年 7 月 23 日的事情了。

相比以往“不痛不痒”的轻量发布,这次 Meta 的动作颇有“不成功 便成仁”的意味。

三款模型,两个已发布并开源,一个预热,表面上是 Meta 给用户、市场、投资人这大半年的答卷,背后是 Meta 重夺“最强开源模型”的明确野心。

这一次, Llama 4 系列真的进入新阶段了吗?

小火箭shadowrocket

01 三款模型,一个生态的试探

Llama 4 系列包含三个不同参数的模型。

Llama 4 Scout :1090 亿参数 + 170 亿活跃参数 + 16 专家,轻量级、小参数通用模型,主打长上下文 + 多模态支持。

Llama 4 Maverick :4000 亿参数 + 170 亿活跃参数 + 128 专家,定位旗舰通用模型,主打推理、代码、图像理解。

Llama 4 Behemoth :2 万亿参数 + 2880 亿活跃参数 + 16 专家,还在训练中,被 Meta 自称为“史上最强开源教师模型”。

小火箭shadowrocket

整理成表格,方便小可爱们对比。

模型

活跃参数

专家数

总参数量

特点

场景定位

可用性

Llama 4 Scout

170亿

16

1090亿

支持1000万上下文长度,轻量快速,长文推理、图像定位极强

边缘部署、多模态文档处理

✅ 已开放下载(llama.com / Hugging Face)

Llama 4 Maverick

170亿

128

4000亿

性能与多模态理解俱佳,图文兼容,推理能力超越GPT-4o

通用AI、企业助手、聊天机器人

✅ 已开放下载(llama.com / Hugging Face)

Llama 4 Behemoth

2880亿

16

近2万亿

教师模型,性能极致,支持更复杂STEM任务

蒸馏、科研、前沿AI能力拓展

🔒 训练中,暂未开放下载

其实从 Meta 对 Llama 4 系列模型的命名上就能看出些许端倪。

Scout 是“探索者”,Maverick 是“特立独行者”,Behemoth 则是“巨兽”。

总结来看,Meta 想讲的并不只是“我们有三款模型”,而是:我们正在构建一个生态闭环。

02 Scout:参数不大,上下文很大

先说参数量最小的 Llama 4 Scout 。

这个模型参数量不算吓人,170 亿活跃参数,只用 1 张 H100 就能跑起来。

但它的上下文长度,直接拉到了 1000 万 tokens。

是的,你没看错, 1000万 。从 Llama 3 的 128K,一步跳到 Llama 4 Scout 的 1000 万,几乎等于把“上下文窗口”这条赛道提前打穿了。

不出意外地,这是目前全世界所有 AI 模型里,上下文最长的模型,比谷歌 Gemini 的 200 万 tokens 还要强。

小火箭shadowrocket

当然,1000 万这个数字听起来虽然炫酷,但它到底意味着什么?

简单讲,你可以直接把全套《三体》、一堆合同、十几个 PRD + 代码全部塞进 Scout 的大脑里。

这让它天然适合:

多文档检索 + 总结;

超长代码库的“调试”型推理;

高密度用户行为数据的个性化处理。

03 Maverick:对标 GPT-4o、DeepSeek-V3

Meta 给 Llama 4 Maverick 的定位很清晰,就是:面向对话场景的旗舰多模态模型。

Maverick 的技术参数和前面的 Scout 相同,也是 170 亿活跃参数,但专家数量翻了几倍,达到 128 个,总参数量 4000亿。作为对比, DeepSeek-V3 的参数量是 6710 亿,活跃参数为 370 亿。

不难看出,相比 Scout 的 “卷长”,Maverick 更强调 “卷强”。

换句话说,它不追求极限的上下文长度,而追求更高的单次推理质量和更好的图文理解。

从 Meta 官方给出的 Llama 4 Maverick 模型基准测试结果来看,它无疑是第一梯队的。

以仅二分之一的活跃参数, Llama 4 Maverick 就取得了超过 DeepSeek-V3 0324 的成绩,并且,多模态上明显“更胜一筹”,因为 DeepSeek 的模型还没有支持多模态类型(如图像、文件)的输入。

小火箭shadowrocket

新模型发布前先上 LMSYS 大模型竞技场跑一跑分几乎成了一个必然,这次的 Llama 4 也不例外。

而在最新的 LMSYS 排行榜上, Llama 4 Maverick 刚发布就占据了第二名的宝座,仅次于谷歌的 Gemini 2.5 Pro ,超越了之前的老牌强者,如 GPT-4o 、 Grok 3 等。

虽然 LMSYS 排行榜的打分和排名带有很强的客观性,但也能从侧面反映一些东西的。

另外,让我们期待一波 Llama 4 在 LiveBench 上的排名。

小火箭shadowrocket

04 Behemoth:2T 参数的“巨兽”,不是给你用的

Behemoth,发音为 /bɪˈhiː.mɑːθ/(比赫马),是英文中 “ 巨兽 ” 的意思。

Behemoth 的存在更像是 Meta 给自己留的一手。

虽然目前尚未开源,只是预宣传,但 Meta 官方已经明确表示:Maverick 和 Scout,都是它蒸馏出来的。

换句话说,它是一个 “教师模型”。

在大模型训练中,教师模型通常指的是一个能力更强、体量更大的模型,用于指导或“传授知识”给较小模型。

这种过程叫做“蒸馏”,本质上是让小模型模仿大模型的思维方式、判断逻辑和回答风格,从而在保持高质量输出的同时,大幅减少推理成本。

一些 Llama 4 Behemoth 值得注意的参数:

活跃参数:2880亿。

总参数量:近 2 万亿。

使用 FP8 精度训练。

每 GPU 实现 390 TFLOPs 计算效率。

数据量:30 万亿 tokens(是 Llama 3 的 2 倍)。

参数量如此庞大的模型,它的成本将会是一个恐怖的数字,你看 OpenAI 的 GPT-4.5 有多贵就知道了。

而这个用“算力”堆出来的模型,也确实值得有这样的基准测试表现:全面超越了 GPT-4.5 、 Claude 3.7 Sonnet 和 Gemini 2.0 Pro 。

小火箭shadowrocket

05 Llama 4 哪里用?

Llama 4 Scout 和 Llama 4 Maverick 已完全发布并开源。这意味着你可以像部署 DeepSeek 模型一样在本地部署这两个模型。

Llama 4 Behemoth 则还在训练中,不开放下载。

https://www.llama.com/llama-downloads/

https://huggingface.co/meta-llama

这里再说几个针对个人用户的使用方案。

首先,Meta 官方不提供任何 API 服务,只能通过其他渠道使用官方的 Llama 4 。

比如 官网(meta.ai),WhatsApp,Messenger,和 Instagram Direct。但弊端是 Meta 官方并没有明确说明这些官方渠道集成的模型是 Scout 还是 Maverick。

小火箭shadowrocket

如果想要调用 Llama 4 的 API,那就只有使用第三方 API 服务了。

这里当然首推我们的老伙计 OpenRouter ,它已经第一时间上线了 Llama 4 Scout 和 Llama 4 Maverick 的 API,并且,完全免费。

小火箭shadowrocket

06 结语:是起点,但不是终点

我们当然可以说: Llama 4 是 Meta 有史以来最重磅、最用力的一次模型发布。

无论是模型性能、参数配置、基准测试结果,还是开源的诚意,都展现出一种“全力一搏”的姿态。

然而,不得不承认, Llama 4 的核心路径依然是熟悉的那一套 —— 用参数、数据和算力堆出领先,用蒸馏和 MoE 拉平成本。

创新也有,但不多。

版权声明:
作者:小火箭shadowrocket
链接:https://www.shadowrocket888.vip/286.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>