1、安装docker环境
可以自行搜索docker安装教程
2、下载dify代码仓库,运行docker-compose
git clone https://github.com/langgenius/dify.git
docker compose up -d
3、安装ollama
curl-fsSL https://ollama.com/install.sh | sh
export OLLAMA_HOST="0.0.0.0:11434"
ollama server &
4、运行deepseek R1模型
ollama run deepseek-r1:1.5b
5、ollama拉取text embedding模型
ollama pull nomic-embed-text
6、dify设置模型提供商
6.1、设置ollama deepseek r1模型接口
在dify设置中,设置模型图提供商,选择ollama。
然后根据硬件条件选择部署模型,本文使用个人pc(12核32G内存),无gpu,纯cpu推理环境,选择最小的参数版本:1.5B

6.2、设置ollama text embedding模型接口
同样,在模型提供商设置界面,选择ollama,设置文本向量嵌入模型,用于后续知识库的高级检索。

7、创建知识库
在dify导航栏选择知识库,按照界面提示新建知识库

如果按照上文拉取了text embedding模型,在知识库设置中,就可以选择embedding模型、高精度检索,否则只能选择默认的关键字检索。可提高知识库检索准确性,提升效果。

8、创建应用
创建简单的知识库搜索,模型问答应用,选择新建空白应用即可,在应用设置界面选择关联的知识库。

应用设置,关联知识库

如果有复杂需求,可新建工作流应用,编辑工作流,完成复杂工作。