3分钟接入满血版DeepSeekR1字节火山引擎手把手教程免费50万tokens
最近我的文章都是关于如何把 DeepSeek-R1 模型用起来的教程。
原因也很简单,DeepSeek官方因为 受攻击 、 算力紧张 等原因,动不动就“服务繁忙”。而国内暂时还没有一个其他模型能打得过 DeepSeek-R1 ,所以也就有了这几天的文章。

有 本地部署 的: 手把手教你本地部署DeepSeek-R1:3步搞定,有手就行!
有 第三方服务 的: DeepSeek-R1的15个官方平替,总有一个适合你!
本地部署对于个人用户来说,受到算力资源(主要是GPU)的限制,只能部署小参数模型,适合一般任务。如果不是对数据隐私和安全有强制性的需求,还是非常推荐使用第三方的 满血版 DeepSeek-R1 API服务——模型推理能力强,使用场景广,关键成本还很低。
但API调用本身带有一定的 使用门槛 ,比如今天文章的主角: 字节火山引擎版 DeepSeek-R1 。字节火山引擎不但提供 满血版 DeepSeek-R1 API,还对每个模型 赠送免费50万tokens 的使用额度,也够使用一阵了。
字节 vs 豆包 vs 火山引擎
开始之前,有必要先理清楚 字节 、 豆包 、 火山引擎 这三者之间的关系。
有一家公司叫 字节跳动 (ByteDance)。字节自己研发了一款AI大模型叫 豆包 (Doubao)。基于豆包模型,字节又上线了一个C端用户能直接使用的AI产品——豆包平台。
但豆包平台是面向C端用户的,如何让开发者或者企业用户能直接使用豆包模型,这时,就来了 火山引擎 。火山引擎提供豆包模型的 API服务 和底层技术支持,让开发者和企业用户能把豆包模型接入自己的应用和系统里。

不得不说,字节起名“有一套”的。
字节火山引擎版 DeepSeek-R1
https://www.volcengine.com/
作为字节的云服务平台,火山引擎自然懂得跟上“潮流”,不止提供豆包系模型API,还有DeepSeek。

首先按照上面的链接 注册登录 字节火山引擎平台。然后在顶部导航栏里找到 大模型 -> 火山方舟 ,点击进入 火山方舟 。

火山方舟首页,点击 立即体验 。OK,这里就是你获取满血版 DeepSeek-R1 API key的地方。

这时,你应该会来到火山方舟的 模型广场 。在模型广场下拉或用关键字搜索的方式找到 DeepSeek-R1 。注意不要用蒸馏版的非满血模型,即带“Distill”字样的。

鼠标悬浮在 DeepSeek-R1 模型卡片上,点击 立即体验 ,你就可以在字节的火山方舟在线使用 DeepSeek-R1 了!
比如我们问它“平头哥”问题。输出速度和回答都没毛病。

需要注意的是,这里在线体验暂时是免费的,会算在字节发放的 50万免费tokens 内。
页面右下角会有一个 赠送每个模型50万tokens 的绚丽小图标,点击后可以查看消耗详情。

故事到这里显然远远没有结束。
火山引擎的API使用方法和其他平台不太一样,所以展开来说一说。
首先在左侧导航栏找到 在线推理 ->然后点击 创建推理接入点 。

按照页面要求,输入 接入点名称 ,随便输一个就行;模型选择满血版 DeepSeek-R1 。
此时大概率提示你“该模型未开通,开通后可创建推理接入点”。点击 立即开通 ,在新弹出的页面里勾选上DeepSeek的全部模型,点击 同意 ,然后确认即可。

返回之前那个“推理接入点”创建页面,点击 确认接入 。

回到 在线推理 页面,可以看到推理接入点已创建完毕。这里记住:把红框标注的模型id复制下来,后面会用到。
点击右侧的 API调用 ,去创建API key。

点击 选择API Key并复制 。

我这里已经有一个之前测试豆包API的key了,可以就用这个老的key。
新用户应该点击 创建API Key ,新生成一个API key,然后点击 查看并选择 ,把这个API key复制下来。

OK,到这一步,即将大功告成。
以Cherry Studio为例,Chatbox同理。
和添加硅基流动API类似,在Cherry Studio的 设置 ,找到 豆包 ,打开开关,把上一步生成的API key复制进去。

最后是最关键的一步—— 添加模型 。
把前面在接入点生成的 模型id ,添加到豆包的 模型列表 里。

按照下面这个操作添加就行。

OK,大功告成。
拿这道经典的24点来测试字节火山的 DeepSeek-R1 。
没问题,这个带除法的24点问题只有满血版能回答正确。
版权声明:
作者:小火箭shadowrocket
链接:https://www.shadowrocket888.vip/339.html
来源:小火箭官网
文章版权归作者所有,未经允许请勿转载。


共有 0 条评论