问题描述
Ollama和本地模型确认正常安装,并且用命令行启动可以正常使用:

命令行可以正常使用
安装Chatbox后,设置模型提供方为OLLAMA API,模型的下拉选项为空:

配置都正确,但是无法读取本地模型
将本地Ollama服务配置成远程Ollama服务后,就可以加载出来了:


但问题是,Chatbox的教程里说,不用配置远程服务,就可以直接读取本地服务啊!!!
虽然现在也能用,但是我不想配置成远端,我就想作为本地服务用!!!
解决方案
经过我的不懈努力,终于找到了问题所在!
安装Chatbox,一定不要通过AppStore安装,要去官网自行下载安装包进行安装,官网的包不会出现这个问题!


问题解决~