手把手教你本地部署QwQ32B轻松吊打DeepSeekR1蒸馏版

就在昨天,阿里 Qwen(千问)团队发布并开源了一个“小而美”的推理模型: QwQ-32B 。

这个模型凭借其“娇小的身材”——32B 参数,即320亿,及其媲美大参数模型的性能——比如满血版 DeepSeek-R1 ,迅速走红。

截至写这篇文章,Qwen 的官宣帖阅读数已超过170万。

小火箭shadowrocket

32B 这么小的参数量是什么概念?

意味着这个模型能够直接在消费级显卡上跑起来,比如英伟达的 RTX 3090 和 4090 。具体说来,拥有 24 GB 显存的 GPU 即可以全精度运行 QwQ-32B 完整版模型。

相较于 DeepSeek-R1 ,它的满血版可是有 671B(6710亿)参数,约为 QwQ-32B 的20倍。同样的硬件配置,只能跑得起 DeepSeek-R1 的 32B 蒸馏小模型。

更详细的硬件配置需求,可以参考下面的这个表格自查。

小火箭shadowrocket

而通过 Qwen 团队公布的 QwQ-32B 模型基准测试结果,在数学、代码方面完全可以不输于满血版的 DeepSeek-R1 。

具体看下图,红色柱是 QwQ-32B 的分数,蓝色柱是满血版 DeepSeek-R1 的得分。

小火箭shadowrocket

但值得一提的是,虽然说 QwQ-32B 实力不俗,但要让它真正和满血版 DeepSeek-R1 在各方面大战一场,那必定是打不过的。连 Qwen 官方用的词都是“媲美”,这就能说明情况了吧。

之前曾出过一期教程: 手把手教你本地部署DeepSeek-R1:3步搞定,有手就行! ,其中详细介绍了如何在本地电脑上部署各个小参数的蒸馏版 DeepSeek-R1 。

现在,有了 QwQ-32B ,这些蒸馏版模型可以彻底下岗了,毕竟参数又小,性能又强劲,何乐而不为。

部署方法大同小异,因为就在刚刚,Ollama 也添加了对 QwQ-32B 的支持。

小火箭shadowrocket

1. 第1步:安装 Ollama

官网安装,命令行安装都可以。

划重点,之前已经安装过的可以自行忽略这一步。

https://ollama.com/

小火箭shadowrocket

安装完成后,打开 终端 运行下面的命令。正常来说会输出Ollama的版本号,如“ollama version is 0.5.7”。

# 验证安装ollama --version

第2步:下载 QwQ-32B 模型

QwQ-32B 模型参数约 32.8B,使用 Q4_K_M 量化版本,模型文件约 20GB,Apache 2.0 开源证书。

# 下载 QwQ-32Bollama pull qwq

小火箭shadowrocket

下载完成后,可以用下面这条命令验证模型,该命令会输出你通过 Ollama 安装的模型。如果一切正常, qwq 应该出现在输出列表中。

# 验证模型ollama list

第3步:运行 QwQ-32B 模型

如果是通过客户端安装 Ollama,模型安装好后会自动进入交互式会话模式,此时你就可以和模型聊天了!

如果没有进入会话模式,用下面的命令启动模型。

# 运行模型ollama run qwq

当然,也可以选择在第三方客户端里使用这个本地模型,比如 Chatbox,详情参考上一篇本地部署教程。

https://chatboxai.app/zh

小火箭shadowrocket

如果你只是想单纯的使用这个模型,那么在 Qwen Chat 里或者 Hugging Face 里有现成的 QwQ-32B 可以使用。

Qwen Chat(通义千问海外版) :https://chat.qwen.ai

版权声明:
作者:小火箭shadowrocket
链接:https://www.shadowrocket888.vip/317.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>