Ubuntu+Dify+Ollama+DeepSeek R1+知识库(本地部署)

1、安装docker环境

    可以自行搜索docker安装教程

2、下载dify代码仓库,运行docker-compose

    git clone https://github.com/langgenius/dify.git

    docker compose up -d

3、安装ollama

    curl-fsSL https://ollama.com/install.sh | sh

    export OLLAMA_HOST="0.0.0.0:11434"

    ollama server &

4、运行deepseek R1模型

    ollama run deepseek-r1:1.5b

5、ollama拉取text embedding模型

    ollama pull nomic-embed-text

6、dify设置模型提供商

6.1、设置ollama deepseek r1模型接口

    在dify设置中,设置模型图提供商,选择ollama。

    然后根据硬件条件选择部署模型,本文使用个人pc(12核32G内存),无gpu,纯cpu推理环境,选择最小的参数版本:1.5B


ollama deepseek r1模型

6.2、设置ollama text embedding模型接口

    同样,在模型提供商设置界面,选择ollama,设置文本向量嵌入模型,用于后续知识库的高级检索。


设置向量模型

7、创建知识库

    在dify导航栏选择知识库,按照界面提示新建知识库


创建知识库

    如果按照上文拉取了text embedding模型,在知识库设置中,就可以选择embedding模型、高精度检索,否则只能选择默认的关键字检索。可提高知识库检索准确性,提升效果。


知识库设置

8、创建应用

    创建简单的知识库搜索,模型问答应用,选择新建空白应用即可,在应用设置界面选择关联的知识库。


新建应用

应用设置,关联知识库


聊天应用关联知识库

如果有复杂需求,可新建工作流应用,编辑工作流,完成复杂工作。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容