最近在研究AI Agent,发现大家都在用Dify,但Dify部署起来总是面临各种问题,而且我在部署和应用测试过程中也都遇到了,因此记录如下,供大家参考。Dify总体来说比较灵活,扩展性比较强,适合基于它做智能聊天机器人,文本生成,工作流任务,Agent应用建设等场景,要比其他客户端工具更加灵活,更加适合二次开发,但Dify部署起来非常麻烦,会自动部署10个容器,任何一个出现问题,应用都无法正常使用。后续我会与Autogen对比,看看在Agent方面哪个更适合垂直行业AI应用的快速落地。
一、docker部署
1.查看docker-compose版本
docker-compose --version
2.复制环境配置文件
进入dify/docker目录,复制命令如下
cp .env.example .env
3.Docker Engine中的国内镜像配置
打开docker desktop设置功能,修改docker的Docker Engine中的国内镜像地址(否则会出现连接不上错误),具体如下
{
"builder": {
"gc": {
"defaultKeepStorage": "20GB",
"enabled": true
}
},
"experimental": false,
"registry-mirrors": [# 增加部分
"https://docker.m.daocloud.io",
"https://docker.imgdb.de",
"https://docker-0.unsee.tech",
"https://docker.hlmirror.com",
"https://docker.1ms.run",
"https://func.ink",
"https://lispy.org",
"https://docker.xiaogenban1993.com"
]
}
4.拉取并启动dify容器
拉取数据、依赖包进行安装配置。
docker compose up -d
5.配置代理
打开docker desktop设置功能,进入到Resources--》proxy下,设置代理服务器地址。
6.常见错误问题的解决方式
错误1:docker部署的容器启动过程中出现db-1总是重启
需要修改docker下的docker-compose.yaml文件db配置,具体如下
services:
db:
image: postgres:15-alpine
volumes:
- postgres-data:/var/lib/postgresql/data #增加这一行
#- ./volumes/db/data:/var/lib/postgresql/data # 注释掉
# 在该文件结尾处增加
volumes:
oradata:
dify_es01_data:
postgres-data:# 增加的内容。
然后执行容器的重新加载,具体如下。
docker compose down -v # 卸载
docker compose up # 重新加载
docker restart #重启docker
错误2:浏览器访问时出现502错误
查看服务情况
docker inspect --format '{{range.NetworkSettings.Networks}}{{.IPAddress}}{{end}}' docker-api-1
docker inspect --format '{{range.NetworkSettings.Networks}}{{.IPAddress}}{{end}}' docker-web-1
或者运行以下命令,查看服务详细信息,在返回结果找到IPAddress对应的值,即为ip地址。
docker inspect docker-web-1
docker inspect docker-api-1
比如返回结果如下。
web:172.18.0.4
api:172.18.0.9
然后修改nginx配置文件(比如D:\dify11\docker\nginx\conf.d\default.conf)内容如下:
这种方式重启docker后或重启nginx后会冲掉,或者ip地址会有变化,永久修改方式详见下面的方法。
# Please do not directly edit this file. Instead, modify the .env variables related to NGINX configuration.
# 主要这里的ip地址要根据docker中显示的ip地址进行修改,查询方式详见上面的docker inspect
server {
listen 80;
server_name _;
location /console/api {
proxy_pass http://172.18.0.9:5001;
include proxy.conf;
}
location /api {
proxy_pass http://172.18.0.9:5001;
include proxy.conf;
}
location /v1 {
proxy_pass http://172.18.0.9:5001;
include proxy.conf;
}
location /files {
proxy_pass http://172.18.0.9:5001;
include proxy.conf;
}
location /explore {
proxy_pass http://172.18.0.4:3000;
include proxy.conf;
}
location /e/ {
proxy_pass http://plugin_daemon:5002;
proxy_set_header Dify-Hook-Url ://;
include proxy.conf;
}
location / {
proxy_pass http://172.18.0.4:3000;
include proxy.conf;
}
}
永久修改default.conf配置文件方式如下,但这种方式容易导致nginx配置出错。
在docker目录,新建python程序,内容如下。但目前该程序容易导致安装nginx无法启动,解决办法就是将重启容器那一段不执行(需要手动重启nginx对应的容器)
#!/root/anaconda3/envs/llm/bin/python
# -*- coding: utf-8 -*-
'''
@file: dify-nginx.py
@date: 2025/3/11 15:36
@remark: 更新nginx配置信息,参考其他网友代码。
@input:dify-nginx.py
@output:dify-nginx.py
'''
import os
import docker
client = docker.from_env()
# 获取当前 Python 脚本所在的文件夹的绝对路径
current_dir = os.path.dirname(os.path.abspath(__file__))
# 读取文件
def file_get_contents(file_path):
with open(file_path, "r", encoding="utf-8") as file:
return file.read()
# 写入文件
def file_put_contents(file_path, content):
with open(file_path, "w", encoding="utf-8") as file:
file.write(content)
# 获取容器 IP
def get_container_ip(container_name):
container = client.containers.get(container_name)
return container.attrs['NetworkSettings']['Networks']['docker_default']['IPAddress']
# 重启容器
def restart_container(container_name):
# 原始内容
container = client.containers.get(container_name)
container.restart()
def main():
# 获取 API 和 Web 容器的 IP 地址
api_container_ip = get_container_ip('docker-api-1')
web_container_ip = get_container_ip('docker-web-1')
print(f'api_container_ip: {api_container_ip}')
print(f'web_container_ip: {web_container_ip}')
# 拼接模板文件路径和目标文件路径
template_path = os.path.join(current_dir, 'nginx/conf.d/default.conf.template')
target_path = os.path.join(current_dir, 'nginx/conf.d/default.conf')
# 读取模板文件内容并替换 IP 地址
tpl_contents = file_get_contents(template_path)
tpl_contents = tpl_contents.replace('http://api', f'http://{api_container_ip}')
tpl_contents = tpl_contents.replace('http://web', f'http://{web_container_ip}')
# 将修改后的内容写入目标配置文件
file_put_contents(target_path, tpl_contents)
# # 重启 Nginx 容器,记得注释掉
# restart_container('docker-nginx-1')
# print("Nginx container restarted with updated configuration.")
if __name__ == '__main__':
main()
运行命令:python dify-nginx.py
错误3:plugin_daemon安装依赖库出错
解决办法如下。主要修改docker目录下的docker-compose.yaml文件内容(比如E:\dify2\docker\docker-compose.yaml)。增加国内镜像地址,记得注释掉原来的同名设置,如何需要代理,记得在最前面加上HTTP_PROXY,具体如下。
plugin_daemon:
image: langgenius/dify-plugin-daemon:0.0.3-local
restart: always
environment:
# Use the shared environment variables.
<<: *shared-api-worker-env
# HTTP_PROXY=http://ip:8080
# HTTPS_PROXY=http://ip:8080
# ... 中间省略
# 注释掉原来的,新增如下内容
# 设置 pip 使用国内镜像源
PIP_MIRROR_URL: https://pypi.tuna.tsinghua.edu.cn/simple
# 设置超时时间
PYTHON_ENV_INIT_TIMEOUT: ${PYTHON_ENV_INIT_TIMEOUT:-640}
错误4:vobe文件找不到
这种错误一般需要在api对应的容器中,配置HTTP_PROXY代理,配置方式和错误3类似,具体不细说,但有时候不管用,所以需要手动更新几个文件路径(比如/api/tiktoken_ext/file),主要是vocab.bpe、encoder.json、r50k_base.tiktoken等5个文件。主要修改openai_public.py文件内容,文件位置大概在api容器的/app/api/.venv/lib/python3.12/site-packages/tiktoken_ext目录下。
# openai_public.py文件
def gpt2():
mergeable_ranks = data_gym_to_mergeable_bpe_ranks(
vocab_bpe_file="/api/tiktoken_ext/file/vocab.bpe",
encoder_json_file="/api/tiktoken_ext/file/encoder.json",
vocab_bpe_hash="1ce1664773c50f3e0cc8842619a93edc4624525b728b188a9e0be33b7726adc5",
encoder_json_hash="196139668be63f3b5d6574427317ae82f612a97c5d1cdaf36ed2256dbf636783",
)
return {
"name": "gpt2",
"explicit_n_vocab": 50257,
"pat_str": r50k_pat_str,
"mergeable_ranks": mergeable_ranks,
"special_tokens": {ENDOFTEXT: 50256},
}
基本上就是以上四类问题了,如果你遇到了新的问题,那恭喜你中奖了,解决办法目前看只能采取完全删除容器和镜像,重启docker和系统后,换个好的网络环境进行拉取安装了。
二、应用实践
1.安装ollama插件
使用浏览器访问dify,首次安装需要设置管理员用户密码信息等,按照向导执行即可,打开插件,安装ollama插件,最好下载到本地后(需要科学上网),选择本地安装。
在用户--设置,配置大模型服务和embedding模型服务,一般配置本机或局域网内的ollama
服务。
注意:market中提供的好多插件安装过程会导致容器启动异常,建议不要装太多插件,只安装用到的插件,其他用自定义代码块来实现。
2.创建知识库
按照要求完成知识库创建,再加一下私域知识进去,worker容器会自动分块存储。
3.创建第一个聊天助手
在工作室创建聊天助手应用,在知识库部分关联本地知识,然后进行对话,具体如下。