学完上节课,你应该知道什么是Agent,以及Dify是创造Agent的平台。那这节课我们就来安装Dify,并且部署DeepSeek模型。

安装 Docker Desktop
因为Dify的安装是需要Docker的,所以我们需要先下载Docker Desktop。
那Docker是什么呢?对于程序员,它并不陌生。Docker这东西啊,简单说就是个“打包神器”。比如你写了个程序,在自己电脑上跑得好好的,结果放到同事电脑或者服务器上就各种报错,这时候Docker就能救命了——它能把你的程序、需要用到的各种库、环境配置统统塞进一个叫“容器”的箱子里。这个箱子不管搬到哪台电脑(只要是支持Docker的),开箱就能直接跑,再也不会出现“我这儿好好的啊”这种尴尬情况了。

Docker Desktop就是Docker的桌面版,我们可以在电脑上安装Docker Desktop,然后在电脑上运行Docker。
进入网站后,选择你系统对应的版本下载即可。需要说明的是我们的电脑是需要打开Hyper-V的。Hyper-V是微软推出的一款虚拟机技术,它可以让我们在一台电脑上运行多个虚拟机,每个虚拟机都可以独立运行不同的操作系统。
安装好后的Docker Desktop界面如下:
安装ollama
为了能在本机部署DeepSeek模型,我们还需要安装ollama。
ollama是一个本地的LLM模型服务,它可以让我们在本机上运行各种LLM模型,比如DeepSeek模型。
进入网站后,点击Download,选择你系统对应的版本下载即可。安装也是直接下一步下一步就可以了,安装完成电脑的右下角有一个小羊驼的图标。
安装完Ollama后,我需要安装DeepSeek大模型,但我不知道我的机器能安装什么版本的,所以我就去问了DeepSeek,它给出但答案是可以安装14b的模型。
我正在使用Ollama部署DeepSeek-R1模型,但是模型分为1.5b,7b,8b,14bb,32b,79b,671b等,我不知道该怎么选择合适我电脑的配置模型了,我现在把我电脑配置信息高速你,你帮我选择一下合适的模型。
电脑配置:
cpu: AMD7500F
GPU: AMD7900XT
内存:32 GB
我们再次回到Ollama的网站,然后在搜索栏Search models,输入DeepSeek,然后选择DeepSeek-R1,找到14B的版本,复制下面的运行指令。
打开命令行,然后把复制的指令粘贴进去,回车运行。我这里只是教学使用,所以我现在了较低的版本deepseek-r1:7b。这个模型在推理上比14b要慢很多,差不多有一倍的差距。
ollama run deepseek-r1:7b
这时候我们在命令行里提问:你是谁?它就会给出答案。

安装Dify
前两步都完成后,我们就可以安装Dify了。我们需要到Github上去下载Dify的ZIP包。当然如果你有Git的话,也可以直接克隆Dify的仓库。
这时候点击Code,然后点击Download ZIP,下载完成后解压到你的电脑上。下载完成后,解压到一个指定的位置。我这里就指定到了D盘,然后改名为Dify。
把本地大模型与dify关联起来
修改完成后,我们进入Dify的目录,然后找到docker文件夹,找到.env.exanmple文件,然后复制一份,并重命名为.env。
然后打开.env文件,在最后添加以下内容:
# 启动自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定Ollama的API地址(根据部署环境调整IP)
OLLAMA_API_BASE_URL=host.docker.internal:11434
拉取Dify的依赖环境
修改完成后,我们需要拉取Dify的依赖环境。
打开命令行,进入Dify的目录,然后执行以下命令:
docker compose up -d
这时候就会去拉取Dify的所有依赖环境,这个过程还是比较长的,需要耐心等待。
安装完成后可以到Docker Desktop的界面查看Dify的容器是否启动成功。

启动Dify并关联DeepSeek模型
Dify安装完成后,就可以打开浏览器,然后输入网址,打开Dify的管理员设置界面。
自行设置管理员邮箱、用户名和密码。输出完成后,我们就可以使用刚才设置的邮箱和密码进行登录了。这样Dify就算启动完成了。
接下来就是关联我们的DeepSeek模型了。点击界面右上角的设置,选择模型供应商,再选择Ollama,然后输入模型名称,我这里是deepseek-r1:7b,然后再配置基础URL为http://host.docker.internal:11434。其它的不用改,直接点击保存。这时候我们刷新一下网页,再回到设置里的模型供应商,在右上角的系统模型设置里就可以看到刚才设置的deepseek-r1:7b模型了。
完成这些后,需要测试一下,我们回到工作台,然后创建一个基础的聊天助手,这时候你就可以看到我们的DeepSeek模型已经关联上了。我们在输入框输入:你是谁,它就会给出答案。
你也可以随机问一些问题,到此我们的Dify和DeepSeek模型就安装完成了。

转载请注明来源,欢迎对文章中的引用来源进行考证,欢迎指出任何有错误或不够清晰的表达。可以在下面评论区评论,也可以邮件至 web0432@126.com