当前位置:网站首页 > 智能化工程 正文 智能化工程

基于DeepSeek搭建Dify智能助手国产化架构运行arm64

frank 2025-08-19 22:33:09 智能化工程 56 ℃ 0 评论

基于DeepSeek搭建Dify智能助手国产化架构运行arm64

  • 基于DeepSeek搭建Dify智能助手
    • 案例介绍
    • 案例内容
    • 1 概述
      • 1.1 背景介绍
      • 1.2 适用对象
      • 1.3 案例时间
      • 1.4 案例流程
      • 1.5 资源总览
    • 2.启动 Docker 容器没有的安装
      • 2.1没有Docker安装
    • 3 云主机部署DeepSeek
      • 3.1 安装Ollama
    • 4.安装Dify
      • 4.1Docker安装 Dify
      • 4.2进入 Dify 复制环境配置文件
      • 4.3复制环境配置文件
      • 4.4最后检查是否所有容器都正常运行:
    • 5.Dify+Ollama本地智能助手
      • 5.1启动Ollama容器
      • 5.2下载模型deepseek-r1:1.5b 版本,执行命令:
      • 5.3在 Dify 中接入 Ollama
      • 5.4在 设置 > 模型供应商 > Ollama 中填入:
    • 6添加智能助手

基于DeepSeek搭建Dify智能助手

案例介绍

通过本案例,让大家熟悉如何通过本地部署的DeepSeek搭建属于自己的Dify智能助手。

免费领取开发者空间云主机
pc端
移动端

案例内容

1 概述

1.1 背景介绍

DeepSeek是一家创新型科技公司,长久以来专注于开发先进的大语言模型(LLM)和相关技术。该公司推出了比较出名的模型有 DeepSeek-V3 和 DeekSeek-R1。
本案例通过在云主机部署DeepSeek搭建Dify智能体,进行智能助手的设定实现。与普通的对话系统不同,案例中通过提示词来设立Dify的角色和行为模式,Dify不仅仅是一个简单的问答工具,Dify 是一个生成式 AI 应用创新引擎,提供了健全的应用模板和编排框架,帮助开发者快速构建大型语言模型驱动的应用。它有两个版本:社区版和商业版,用户可以根据需求选择。Dify 还支持多个模型的接入,适用于不同的场景。此外,Dify 提供了完整的生产解决方案,经过精良的工程设计和软件测试,确保其可靠性。它运用智能化流程自动化与数据管理技术,帮助企业优化业务流程,提高工作效率。

1.2 适用对象

  • 企业
  • 个人开发者
  • 高校学生

1.3 案例时间

本案例总时长预计60分钟。

1.4 案例流程

基于DeepSeek搭建Dify智能助手国产化架构运行arm64

说明:

① 云主机安装Ollama;
② 使用Ollama部署DeepSeek;
③ 云主机调用本地部署DeepSeek;
④ 下载Dfiy框架,创建Dfiy智能角色。

1.5 资源总览

本案例预计花费总计0元。

资源名称云主机
规格ARM 4vCPU 8GB
操作系统Ubuntu 24.04 Server 定制版
单价免费
时长180小时

基于DeepSeek搭建Dify智能助手国产化架构运行arm64

2.启动 Docker 容器没有的安装

2.1没有Docker安装

1安装docker

sudo snap install docker 

基于DeepSeek搭建Dify智能助手国产化架构运行arm64
2.docker compose version 命令检查版本

sudo docker compose version

基于DeepSeek搭建Dify智能助手国产化架构运行arm64

3 云主机部署DeepSeek

3.1 安装Ollama

Ollama 是一个强大的开源工具,旨在帮助用户轻松地在本地运行、部署和管理大型语言模型(LLMs)。它提供了一个简单的命令行界面,使用户能够快速下载、运行和与各种预训练的语言模型进行交互。Ollama 支持多种模型架构,并且特别适合那些希望在本地环境中使用 LLMs 的开发者和研究人员。
在云主机桌面右键选择“Open Terminal Here”,打开命令终端窗口。
基于DeepSeek搭建Dify智能助手国产化架构运行arm64
执行安装命令如下:
方式一(官方安装链接时间较慢)本地执行

curl -fsSL https://ollama.com/install.sh | sh

基于DeepSeek搭建Dify智能助手国产化架构运行arm64
方式二docker镜像拉取(推荐,安装速度快):

docker pull swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/ollama/ollama:latest-linuxarm64
docker tag  swr.cn-north-4.myhuaweicloud.com/ddn-k8s/docker.io/ollama/ollama:latest-linuxarm64  docker.io/ollama/ollama:latest

基于DeepSeek搭建Dify智能助手国产化架构运行arm64

4.安装Dify

4.1Docker安装 Dify

方法一
克隆 Dify 代码仓库
克隆 Dify 源代码至本地环境。
当前版本为 0.15.3

git clone https://github.com/langgenius/dify.git --branch 0.15.3

方法二(推荐使用)通过百度云盘下载后上传到我的云空间
通过网盘分享的知识:Dify
链接: https://pan.baidu.com/s/5mjetRwc6gMTZgcRTBXHu8A
上传我的云空间
基于DeepSeek搭建Dify智能助手国产化架构运行arm64
进入云服务机器从云空间下载文件包
基于DeepSeek搭建Dify智能助手国产化架构运行arm64

4.2进入 Dify 复制环境配置文件

1.进入目录

cd dify/docker

2.重命名文件,并启动docker服务

#重命名
sudo mv .env.example   .env
sudo mv  middleware.env.example  middleware.env
#启动服务并查看docker服务
sudo systemctl start docker
sudo systemctl status docker

基于DeepSeek搭建Dify智能助手国产化架构运行arm64

4.3复制环境配置文件

1.根据你系统上的 Docker Compose 版本,选择合适的命令来启动容器。你可以通过 docker compose version 命令检查版本

 docker compose version

基于DeepSeek搭建Dify智能助手国产化架构运行arm64
2.如果版本是 Docker Compose V2,使用以下命令:

sudo docker compose up -d

3.如果版本是 Docker Compose V1,使用以下命令:

sudo docker-compose up -d

4.替换dify/docker/docker-compose.yaml文件(如果安装官网的执行docker-compose up -d 是会出现因为没有FQ很多组件无法正常下载的情况)
基于DeepSeek搭建Dify智能助手国产化架构运行arm64
5.打开此文件全选删除里面的内容并复制或者删除源文件替换本文件
基于DeepSeek搭建Dify智能助手国产化架构运行arm64
6.替换完执行执行相对应代码更新结束即完成
我的版本是V2

sudo docker compose up -d

基于DeepSeek搭建Dify智能助手国产化架构运行arm64基于DeepSeek搭建Dify智能助手国产化架构运行arm64

4.4最后检查是否所有容器都正常运行:

docker compose ps

1.在这个输出中,你应该可以看到包括 3 个业务服务 api / worker / web,以及 6 个基础组件 weaviate / db / redis / nginx / ssrf_proxy / sandbox 。
基于DeepSeek搭建Dify智能助手国产化架构运行arm64
2.通过这些步骤,你可以在本地成功安装 Dify。

访问 Dify第一次启动较慢等待一段时间刷新一次就可以正常访问了
你可以先前往管理员初始化页面设置设置管理员账户:
本地环境

http://localhost/install

服务器环境

http://your_server_ip/install

基于DeepSeek搭建Dify智能助手国产化架构运行arm64

5.Dify+Ollama本地智能助手

5.1启动Ollama容器

启动 Ollama 容器
要启动 ollama 容器,需要运行以下命令:

docker run -d -p 11434:11434 \
  -v ollama:/root/.ollama \
  docker.io/ollama/ollama:latest serve

基于DeepSeek搭建Dify智能助手国产化架构运行arm64
这个命令会启动一个后台运行的容器,将容器内的 11434 端口映射到主机的 11434 端口,并创建一个名为ollama的卷来持久化存储模型。

5.2下载模型deepseek-r1:1.5b 版本,执行命令:

方法1:通过docker exec命令在容器内运行ollama pull
docker exec -it <container_id> ollama pull llama2

docker exec -it 5dd0308c7df47019b7cb230dd61de4b5e64028a40b1e4d42a434bd9e109413d6 ollama run deepseek-r1:1.5b
#简化id前三个 3-4个字符
docker exec -it 5dd0 ollama run deepseek-r1:1.5b

基于DeepSeek搭建Dify智能助手国产化架构运行arm64
启动成功后,ollama 在本地 11434 端口启动了一个 API 服务,可通过 http://localhost:11434 访问。
基于DeepSeek搭建Dify智能助手国产化架构运行arm64
如需运行其它模型,访问 Ollama Models 了解详情。

5.3在 Dify 中接入 Ollama

1.进入目录dify-0.15.3/docker/并修改.env没有此文件打开文件设置解除隐藏文件
基于DeepSeek搭建Dify智能助手国产化架构运行arm64
2.在文件最后两行添加(参考官方开发文档)

# 启用自定义模型
CUSTOM_MODEL_ENABLED=true
# 指定 Ollama 的 API 地址(根据部署环境调整 IP)
OLLAMA_API_BASE_URL= host.docker.internal:11434

若 Dify 为 Docker 部署,建议填写局域网 IP 地址,例如:http://192.168.1.100:11434 或 Docker 容器的内部 IP 地址,例如:http://host.docker.internal:11434。

若为本地源码部署,可填写 http://localhost:11434。
基于DeepSeek搭建Dify智能助手国产化架构运行arm64

5.4在 设置 > 模型供应商 > Ollama 中填入:

查询ip地址找到自己服务器的enp3s,里的inet 后面的IP地址。

1.模型名称

docker exec -it 8a55 ollama list

基于DeepSeek搭建Dify智能助手国产化架构运行arm64
2.基础URL

ip addr

基于DeepSeek搭建Dify智能助手国产化架构运行arm64
基于DeepSeek搭建Dify智能助手国产化架构运行arm64
出现修改成功
基于DeepSeek搭建Dify智能助手国产化架构运行arm64

6添加智能助手

1.工作室创建空白应用
基于DeepSeek搭建Dify智能助手国产化架构运行arm64
2.选择聊天助理应用名称随便起
基于DeepSeek搭建Dify智能助手国产化架构运行arm64
3.调试完成后发布Dify智能助手搭建完成。
基于DeepSeek搭建Dify智能助手国产化架构运行arm64
基于DeepSeek搭建Dify智能助手国产化架构运行arm64
开发者空间官网
开发者空间活动专题

版权说明:如非注明,本站文章均为 扬州驻场服务-网络设备调试-监控维修-南京泽同信息科技有限公司 原创,转载请注明出处和附带本文链接

请在这里放置你的在线分享代码
«    2025年9月    »
1234567
891011121314
15161718192021
22232425262728
2930
搜索
最新留言
    文章归档
    网站收藏
    友情链接