使用MaxKB及deepseek搭建本地AI知识库

本文主要研究一下如何MaxKB及deepseek搭建本地AI知识库

步骤

拉取MaxKB镜像

docker pull cr2.fit2cloud.com/1panel/maxkb

如果拉取不下来就用docker.1ms.run/1panel/maxkb

启动MaxKB

docker run -d --name=maxkb --restart=always -p 8080:8080 \
-v ~/.maxkb:/var/lib/postgresql/data \
-v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages \
docker.1ms.run/1panel/maxkb

启动之后访问http://localhost:8080/
用户名: admin 密码: MaxKB@123..

设置模型

系统设置-->模型设置-->添加模型,这里添加ollama的deepseek-r1:8b,其中API URL设置为http://host.docker.internal:11434,API KEY随便设置一个就行

截屏2025-02-13 21.17.31.png

设置知识库

创建知识库-->向量模型为maxkb-embedding,知识库类型为通用型,之后上传文档,可以选择文本文件、表格、QA问答对,之后执行向量化

设置应用

创建应用-->设置AI模型-->关联知识库(添加知识库),参数设置:全文检索 --> 调试预览,输入问题 --> 保存并发布

小结

MaxKB默认使用maxkb-embedding,向量数据库使用的是pgvector,相对于dify那么复杂的技术栈显得比较简单。

doc

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容