Open WebUI调用Ollama中部署的模型

## 设置环境变量

>以Linux CentOS系统为例。

如果以systemd服务形式运行Ollama,可以使用`systemctl`设置环境变量。

通过运行`sudo systemctl edit ollama.service`命令或者直接使用VI编辑器打开服务配置。

在`[Service]`部分下添加以下行:

``` /etc/systemd/system/ollama.service

Environment="OLLAMA_MODELS=/new/path/to/models"

```

保存文件,然后重新加载 systemd 并重新启动服务。

``` bash

sudo systemctl daemon-reload

sudo systemctl restart ollama

```

## 运行Open WebUI

可以使用Docker运行Open WebUI。

``` bash

# 如果Ollama在本地计算机

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

# 如果Ollama在其它计算机

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

```

https://gitee.com/biox-lab/biclass.biox/blob/master/%E4%BF%AE%E4%B8%9A/Computer-Sciences/AI/Large-Language-Models/Development/Deployment/Open-WebUI/Open%20WebUI%E8%B0%83%E7%94%A8Ollama%E4%B8%AD%E9%83%A8%E7%BD%B2%E7%9A%84%E6%A8%A1%E5%9E%8B.md

#Open-WebUI #Ollama

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容