安装 Ollama
# https://github.com/ollama/ollama?tab=readme-ov-file
curl -fsSL https://ollama.com/install.sh | sh
echo export OLLAMA_HOST="0.0.0.0:11434">>~/.zshrc
echo export OLLAMA_MODELS=/usr/share/ollama/.ollama/models>>~/.zshrc
source ~/.zshrc
sudo systemctl restart ollama
给ubuntu添加外网短空,ping不上谷歌正常,curl -i能通就行
export https_proxy=http://127.0.0.1:7897 http_proxy=http://127.0.0.1:7897 all_proxy=socks5://127.0.0.1:7897
安装deepseek(自己找自己合适的模型)
# 拉模型
ollama run deepseek-r1:7b # 可以直接对话
ollama list #可以查下载了哪些模型
安装web端
# https://zhuanlan.zhihu.com/p/21436538835
# 这个教程推荐 dify
git clone https://github.com/langgenius/dify.git
cd dify/docker
cp .env.example .env
docker compose up -d
# 不通,换
安装open-webui
git clone git@github.com:open-webui/open-webui.git # 不通
sudo mkdir -p /etc/docker
sudo vim /etc/docker/daemon.json #添加配置国内镜像
"registry-mirrors": ["https://ik92xecy.mirror.aliyuncs.com"]
git clone git@github.com:open-webui/open-webui.git
# 最后用的这个,
# 注意端口3000
# 我自己的node.js管理用的3000,改成3001
# 这样与webui不冲突,主要迁就webui吧
# 成功了
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker stop open-webui
docker ps -a | grep "web"
docker rm 8ba789b3462d
修改ollama配置
# 修改ollama配置
sudo vim /etc/systemd/system/ollama.service
cat /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/home/uername/.pyenv/plugins/pyenv-virtualenv/shims:/home/uername/.pyenv/shims:/home/uername/.pyenv/bin:/home/softwares/seqtk-1.4:/usr/local/go/bin:/home/softwares/samtools-1.10:/home/softwares/STAR-2.7.10a/bin/Linux_x86_64:/home/softwares/Drop-seq_tools-2.5.4:/home/uername/.local/bin/:/home/softwares/:/home/uername/.aspera/connect/bin:/home/softwares/sratoolkit.3.0.7-ubuntu64/bin:/home/softwares/tabix:/home/softwares/taco-v0.7.3.Linux_x86_64:/home/uername/.local/bin:/opt/torque-6.1.2/bin:/opt/torque-6.1.2/sbin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin:/snap/bin:/opt/torque-6.1.2/bin:/opt/torque-6.1.2/sbin:/opt/torque-6.1.2/bin:/opt/torque-6.1.2/sbin:/home/softwares/RepeatMasker/:/home/uername/go/bin"
Environment="OLLAMA_MODELS=/usr/share/ollama/.ollama/models"
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
[Install]
WantedBy=default.target
# 重启
sudo systemctl daemon-reload
sudo systemctl restart ollama
sudo systemctl enable ollama
sudo systemctl start ollama
sudo systemctl status ollama
启动
docker stop open-webui
docker ps -a | grep "web"
docker rm 8ba789b3462d
找到模型路径 /usr/share/ollama/.ollama
试了很多次,以下都不 OK
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main # 这个时候 node.js还没改
docker run -d -p 3111:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3111:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://111.111.111.213 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3111:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
docker run -d -p 3111:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data -v /usr/share/ollama/.ollama/models:/app/backend/models --name open-webui --restart always ghcr.io/open-webui/open-webui:main
以后启动
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main # 这个时候 node.js还没改
本地使用localhost:3000
<img src="https://cdn.jsdelivr.net/gh//ericHuu/PicGo@main/img/image-20250221164955501.png" alt="image-20250221164955501" style="zoom:50%;" />
开放使用ip:3000
<img src="https://cdn.jsdelivr.net/gh//ericHuu/PicGo@main/img/ip3000.png" alt="image-20250221165251853" style="zoom:50%;" />
安装 配置 "searxng"
参考,只运行了前两步就行了 https://bbs.huaweicloud.com/blogs/433354#H12
git clone https://github.com/searxng/searxng.git
cd searxng
make install # 提示Python不是3.12,于是
source ~/.ComfyUI/bin/activate # for macOS and Linux
uv python pin 3.12.3 # 如果您希望全局使用 Python 3.12.3,可以运行
export PATH="/home/uername/.local/share/uv/python/cpython-3.12.3-linux-x86_64-gnu/bin:$PATH"
export PYTHONPATH=/home/uername/.local/lib/python3.12/site-packages
export TMPDIR=$HOME/tmp # 也加载一下,防止以后安装什么大的packages
重新 安装
make install
make run # 发现 redis DB 有问题
sudo apt install redis-server
make run # 还是不对
# 继续执行教程第二步
#新建文件夹 searxng 和 子目录
mkdir -p /www/algorithm/searxng
#进入 searxng 目录
cd /www/algorithm/searxng
#运行容器
docker run -d \
--name searxng \
--cap-drop ALL \
--cap-add CHOWN \
--cap-add SETGID \
--cap-add SETUID \
--log-driver json-file \
--log-opt max-size=1m \
--log-opt max-file=1 \
-p 9380:8080 \
-v $(pwd)/data:/etc/searxng:rw \
searxng/searxng:latest
# 提示 searxng 存在对应的容器
# 于是 stop 杀掉
docker ps -a | grep "searxng"
docker stop searxng
docker rm 6b16376df642
运行,就ok了
docker run -d \
--name searxng \
--cap-drop ALL \
--cap-add CHOWN \
--cap-add SETGID \
--cap-add SETUID \
--log-driver json-file \
--log-opt max-size=1m \
--log-opt max-file=1 \
-p 9380:8080 \
-v $(pwd)/data:/etc/searxng:rw \
searxng/searxng:latest
访问111.111.111.213:9380,ok了,设置中启用所有搜索引擎,搜个东西,完美!!!