DeepSeek-R1本地部署

DeepSeek-R1简介

官网为:https://www.deepseek.com/

DeepSeek-R1 是幻方量化旗下大模型公司 DeepSeek 研发的系列推理模型。以下是关于它的详细介绍:

发展历程

  • 2024 年 11 月 20 日,DeepSeek – R1 – Lite 预览版正式上线网页端。
  • 2025 年 1 月 20 日,DeepSeek 正式发布 DeepSeek – R1 模型,并同步开源模型权重。
  • 2025 年 1 月 24 日,在 Arena 上,DeepSeek – R1 基准测试升至全类别大模型第三,在风格控制类模型分类中与 OpenAI o1 并列第一。
  • 2025 年 1 月 31 日,英伟达、微软与亚马逊三家美国头部企业接入 DeepSeek – R1 模型。
  • 2025 年 2 月,DeepSeek – R1 模型上线国家超算互联网平台。

模型特点

  • 强化学习训练:使用强化学习训练,推理过程包含大量反思和验证,思维链长度可达数万字,能在仅有极少标注数据的情况下,极大提升模型推理能力。
  • 高性能推理:在数学、代码和推理任务方面的性能与 OpenAI o1 相当,在数学推理、代码生成和自然语言推理等复杂任务中表现出色。在 AIME 等测试基准中,随着推理长度的增加,模型得分稳步提升。
  • 可解释性强:能够实时展示其思考过程,用户可以清晰地看到模型的推理步骤,这在代码生成和数学推理任务中尤为突出。
  • 开源与经济高效:采用 MIT License 开源协议,用户可以自由使用、修改、分发和商业化该模型。其训练成本仅约 600 万美元,相对较低。

实际应用

  • DeepSeek – R1 已在多地政务系统中得到应用,如深圳市龙岗区、呼和浩特市、江西赣州市、江苏无锡市等地,应用于公文写作、智能问答、城市治理等领域,助力政务服务智能化、高效化。此外,还在多个企业和机构的产品中得到接入和应用,如华为云、腾讯云、万兴科技、智联招聘、吉利汽车等,涉及云计算、视频创意、绘图创意、文档创意、智能汽车等多个领域。

部署教程

温馨提示:所有模型都会部署到C盘

用Ollama下载模型

首先我们需要安装Ollama,它可以在本地运行和管理大模型。

图片[1]-DeepSeek-R1本地部署-铭心博客

点击下载,然后选择适合自己系统的版本,这里选择Windows:

图片[2]-DeepSeek-R1本地部署-铭心博客

下载完成后点击安装,完成后安装窗口会自动关闭,你的系统托盘图标会出现一个常驻的Ollama标记:

图片[3]-DeepSeek-R1本地部署-铭心博客

接下来点击Ollama官网左上方的“Models”按钮,会列出支持的各种模型,目前最火的DeepSeek-R1排在显眼位置,点击进入主题页面:

图片[4]-DeepSeek-R1本地部署-铭心博客

进入这个界面后,点击下拉菜单,可以看到多个版本。我的主机是4090显卡24G显存,选择32b版本(数字越大,对显存要求越高):

图片[5]-DeepSeek-R1本地部署-铭心博客

选择好模型之后,点击右侧这个按钮,复制指令,这里是:ollama run deepseek-r1:32b

图片[6]-DeepSeek-R1本地部署-铭心博客

在Windows搜索栏输入“cmd”回车,唤出命令行窗口:

图片[7]-DeepSeek-R1本地部署-铭心博客

黏贴运行刚才复制的命令,开始下载,32b模型容量大约19GB,请保持网络畅通:

图片[8]-DeepSeek-R1本地部署-铭心博客

下载完成之后,就可以和DeepSeek对话了:

图片[9]-DeepSeek-R1本地部署-铭心博客

但是在命令行窗口下对话,有点不美观,我们需要一个美观的图文交互界面。


安装Docker

因此要用到Docker这个容器化平台,先从官网 https://www.docker.com 下载,这里依然选择Windows版:

图片[10]-DeepSeek-R1本地部署-铭心博客

下载后安装,选项全默认即可:

图片[11]-DeepSeek-R1本地部署-铭心博客

安装完成需要重新启动电脑:

图片[12]-DeepSeek-R1本地部署-铭心博客

重启后需要同意Docker的条款,并注册你的账号:

图片[13]-DeepSeek-R1本地部署-铭心博客

安装Open WebUI

接下来到Open WebUI这个开源工具的代码页:

找到“If Ollama is on your computer, use this command”这一项,点击右边的按钮复制这个指令:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
图片[14]-DeepSeek-R1本地部署-铭心博客

再次打开命令行窗口,黏贴刚才复制的命令,安装Open WebUI:

图片[15]-DeepSeek-R1本地部署-铭心博客

安装完成后,会发现你的Docker界面里多了Open WebUI的条目。

在图形化界面下运行DeepSeek

你需要在命令行窗口里再次执行:

ollama run deepseek-r1:32b
图片[16]-DeepSeek-R1本地部署-铭心博客

保持命令行窗口开启,然后点击Docker桌面端的这个位置:

图片[17]-DeepSeek-R1本地部署-铭心博客

首次使用,会打开一个网页,点击“开始使用”:

图片[18]-DeepSeek-R1本地部署-铭心博客

把你之前注册的账号名字密码填进去,登录:

图片[19]-DeepSeek-R1本地部署-铭心博客

这里点击“确认,开始使用”:

图片[20]-DeepSeek-R1本地部署-铭心博客

图形界面的DeepSeek-R1,部署成功!

图片[21]-DeepSeek-R1本地部署-铭心博客

32b的反应速度很快,因为是R1模型,所以有深度思考功能。

相关阅读

© 版权声明
THE END
喜欢就支持一下吧!
点赞74 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容