手把手教你本地部署DeepSeekR13步搞定有手就行
昨天给小伙伴们整理了 DeepSeek-R1 的 15个官方平替 ,详情看这里: DeepSeek-R1的15个官方平替,总有一个适合你!
今天我们继续。
话接上文,如何使用上稳定可靠不繁忙、不跑路、不卡顿、不截断的 DeepSeek-R1 是AI冲浪的一切前提。今天出一期 DeepSeek-R1 本地部署的手把手教程。仅需 3 步,低代码,尽量用最简单的方式教会你在自己的电脑上部署属于你自己的 DeepSeek-R1 模型。
话不多说,直接开整,集合!
第1步:安装 Ollama
https://ollama.com/

本地部署推荐使用开源工具 Ollama ,对小白极其友好——既提供命令行界面,又提供图形界面,让你能够方便地管理和使用本地的AI模型。
打开上面那个Ollama官网,点击 下载 ,按照你的电脑类型下载对应的客户端。Ollama支持macOS、Windows和Linux。
接下来的操作以macOS为例。
双击打开Ollama客户端安装包,点击 Next 。

点击 Install 安装Ollama的命令行工具(CLI)。这一步可能会让你输入系统密码。

点击 Finish ,安装完成。到这里,这一步就大功告成了。

不放心的小伙伴可以双重验证一下Ollama是不是真正安装完成了。打开 终端 运行下面这个命令。正常来说会输出Ollama的版本号,如“ollama version is 0.5.7”。
# 验证安装ollama --version
第2步:下载 DeepSeek-R1 模型
有了Ollama,就可以通过Ollama方便地下载 DeepSeek-R1 模型了。Ollama共提供 7 个不同参数量的 DeepSeek-R1 模型。

参数量越大,代表模型推理能力越强,满血版的 DeepSeek-R1 参数量为671B。
同时,每个参数量的模型所需的 计算资源 也各不相同,这里我总结了一份这7个模型各自所需的配置,供参考。其中, deepseek-r1:1.5b 仅靠CPU也能跑起来,不放心的可以先从这个最小的模型玩起。

打开 终端 ,输入下面这行代码下载模型。注意,把代码里的“1.5b”替换成你想要安装的模型,比如“7b”,“8b”。
# 入门推荐(1.5B,资源占用最低)ollama pull deepseek-r1:1.5b
下载进度显示100%即完成,1.5B模型大小约1.1GB,7B模型大约4.7GB,8B为4.9GB。因为下载速度受限,我这里以1.5B模型为例。

安装完成后会自动进入模型会话模式,意味着你已经可以开始和你的专属模型聊天了!
比如下面这样。
测试:你谁啊
回答:您好!我是由中国的深度求索(DeepSeek)公司开发的智能助手DeepSeek-R1。如您有任何任何问题,我会尽我所能为您提供帮助。

其实到这里,整个本地部署的过程就已经完成了,是不是超级简单,有手就行!
但这还只是第2步,接下来还有第3步。为什么?因为 图形界面 !总不能让小伙伴们一直在终端里使用 DeepSeek-R1 吧,我们需要一个客户端。
第3步:在Chatbox里使用本地部署的模型
https://chatboxai.app/zh

之前在《 DeepSeek R1 + 个人知识库,直接起飞! 》介绍过了第三方客户端Cherry Studio,今天趁着这个机会介绍另一款也很好用的客户端: Chatbox 。
相比Cherry Studio,Chatbox支持的客户端类型更多更全,从桌面客户端到手机app,都支持。按照上面的Chatbox官网链接下载安装即可。
接下来重点讲怎么把部署在本地电脑上的 DeepSeek-R1 集成到Chatbox里使用。
打开Chatbox,点击左下角的 设置 ,在 模型提供方 里找到 Ollama API 。API连接点直接用默认的 http://localhost:11434 ,然后选择你安装好的 DeepSeek-R1 模型,比如我这里就是 deepseek-r1:1.5b 。最后点击 保存 ,大功告成。

设置好,就可以和你自己部署的模型聊起来了!

写在最后
小参数模型的优势是需要的算力资源小,便于本地部署使用;但随之而来的是推理能力的“骤降”。比如下面这样。

再尝试一次,虽然能回答了,但答案属实很离谱。

写文章的过程中,我又下载安装了一个7B版本的 DeepSeek-R1 ,思考比1.5B好了不少,但仍然回答不对“平头哥问题”。

版权声明:
作者:小火箭shadowrocket
链接:https://www.shadowrocket888.vip/340.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。


共有 0 条评论