在langchain中使用OllamaEmbeddings,提示ollama._types.ResponseError错误

在代码执行之前,是用ollama先安装了qwen2.5的model

ollama run qwen2.5:7b

程序源码如下:

....
from langchain_chroma import Chroma
from langchain_ollama.embeddings import OllamaEmbeddings


embeddings = OllamaEmbeddings(model='qwen2.5:7b')   # 错误提示在这里

vector_store = Chroma.from_documents(spilts, embedding=embeddings)
....

运行后提示ollama._types.ResponseError,一开始以为是模型没有下载成功,但命令行单独run model的时候,是可以调用的,所以一直搜解决方案,这个明显是程序没有把model加载进来。

看到了这篇文章
在使用OllamaEmbeddings时,报错ollama._types.ResponseError_ollama failed to embed: ollama returned an empty e-CSDN博客,说要重装model...,这个model下载了好久才装好,舍不得,就重新下载另外一个小一点的模型试试:

ollama run qwen2.5:0.5b

再把代码修改了一下:

embeddings = OllamaEmbeddings(model='qwen2.5:0.5b') 

重新执行,就成功了。。。,但运行了几次以后,又提示了同样的错误,懵圈了。。

直接万能重启法,把电脑重启了,再多次执行,就没有问题了,总记得在哪里看到过是说要重启model,还是别的什么提示??忘记在哪看到过这句话。。反正重启系统可以解决。

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容