This tokenizer cannot be instantiated. Please make sure you have `sentencepiece` installed in or...

最近在尝试用transformers做英汉翻译,用的是opus-mt-en-zh。本来代码已经写好了,但是在另一台代脑上run的时候出现了如下错误:

ValueError: This tokenizer cannot be instantiated. Please make sure you have `sentencepiece` installed in 
order to use this tokenizer.

遇到这个问题,很明显要检查 sentencepiece 是不是已经安装了,开始我以为安装transformers的时候会自动安装这个包,然而在我重装了transformers之后这个问题并没有解决,最后手动安装了这个包

pip install sentencepiece

最终解决。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容