本地部署 DeepSeek R1大模型详细教程

DeepSeek 是目前最火的应用,日常写作、翻译、问答都能轻松搞定,独特的深度思考模式加上联网搜索,在编程、解题、文献解读等复杂任务中也游刃有余,推理思考能力一绝。短短几天内,DeepSeek 便登顶中美两区苹果应用市场免费榜榜单。

DeepSeek 官网因为经常被非法分子攻击的原因,经常宕机不可用,我们可以自己在本地部署 DeepSeek R1 来解决这个问题,无需依赖云端服务。

部署教程

为了方便操作,可以先安装一个 Ollama 软件,它是一个开源的基于Go语言的本地大语言模型运行框架,专门为本地电脑上部署和运行大模型而生的,类似于Docker,支持上传和管理大语言模型仓库,包括 DeepSeek 等模型。在 Ollama 的官网,我们可以下载 Ollama 程序,然后更方便地下载、安装和运行DeepSeek模型。

打开 Ollama 官网下载地址

https://ollama.com/download,先下载 Ollama 程序,如下图:

图片[1]-本地部署 DeepSeek R1大模型详细教程-小白博客

以管理员身份安装 Ollama 程序,安装成功后打开 Ollama 程序,如下图:

图片[2]-本地部署 DeepSeek R1大模型详细教程-小白博客
图片[3]-本地部署 DeepSeek R1大模型详细教程-小白博客
图片[4]-本地部署 DeepSeek R1大模型详细教程-小白博客

Ollama 支持的大模型很多,其中 DeepSeek 模型也有多个版本:1.5b、7b、8b、14b、32b、70b 671b,版本越高对GPU要求越高。电脑配置不高用1.5b就好,每一个版本都对应一个安装命令,我们可以先将安装命令复制下来,如下图。

图片[5]-本地部署 DeepSeek R1大模型详细教程-小白博客
图片[6]-本地部署 DeepSeek R1大模型详细教程-小白博客

ok,现在运行cmd命令

图片[7]-本地部署 DeepSeek R1大模型详细教程-小白博客
图片[8]-本地部署 DeepSeek R1大模型详细教程-小白博客

如果想卸载把卸载把命令中的 run 改成 rm 即可,如果想了解更多命令,可以直接输入 ollama 查看。另外,默认情况下,Ollama模型的存储目录如下:

  • Windows系统:C:\Users\<用户名>\.ollama\models
  • macOS系统:~/.ollama/models
  • Linux系统:/usr/share/ollama/.ollama/models
图片[9]-本地部署 DeepSeek R1大模型详细教程-小白博客

部署完成后,我们可以直接在命令窗口输入想问的问题,如下图。

图片[10]-本地部署 DeepSeek R1大模型详细教程-小白博客

如果想退出对话,直接输入 /bye 即可。

当电脑重启后,需要先运行 Ollama 软件,然后打开CMD命令提示符,输入下面的命令即可通过窗口进行对话

默认是自启动的,除非你禁用了自启动

运行本地模型对你的电脑配置有一定要求,包括内存、GPU 等。但运行稳定,不受网速影响。如果出现卡顿,请尝试降低模型参数。有需要的小伙伴可以体验一下!

有的小伙伴说这样每次输入不好用啊要打开的太多了还找不到那个文件

ok接着看

下载Chatbox AI官网:办公学习的AI好助手,全平台AI客户端,官方免费下载软件并打开

打开后显示如下

图片[11]-本地部署 DeepSeek R1大模型详细教程-小白博客

点击下方的设置进行操作,选择ollamaapi

图片[12]-本地部署 DeepSeek R1大模型详细教程-小白博客
图片[13]-本地部署 DeepSeek R1大模型详细教程-小白博客

这样配置好后直接打开这个软件就可以愉快玩耍了

需要注意的是不能禁用自启动,查看有没有自启动,打开任务管理器,点击启动,下方会列出有一个Ollama的列表查看后方是否自启动,如没有 请设置启用

图片[14]-本地部署 DeepSeek R1大模型详细教程-小白博客
© 版权声明
THE END
喜欢就支持一下吧
点赞10 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片快捷回复

    暂无评论内容