Mac版Chatbox连接本地Ollama服务找不到模型

问题描述


Ollama和本地模型确认正常安装,并且用命令行启动可以正常使用

命令行可以正常使用

安装Chatbox后,设置模型提供方为OLLAMA API,模型的下拉选项为空:

配置都正确,但是无法读取本地模型

将本地Ollama服务配置成远程Ollama服务后,就可以加载出来了:

但问题是,Chatbox的教程里说,不用配置远程服务,就可以直接读取本地服务啊!!!
虽然现在也能用,但是我不想配置成远端,我就想作为本地服务用!!!

解决方案


经过我的不懈努力,终于找到了问题所在!
安装Chatbox,一定不要通过AppStore安装,要去官网自行下载安装包进行安装,官网的包不会出现这个问题!

问题解决~

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容