StarRocks案例5: hive外表报错starrocks [42000][1064] hdfsOpenFile failed

一. 问题描述

StarRocks版本 2.5.5

现在需要使用hive外表,然后根据官网的的命令创建了hive resource
CREATE EXTERNAL RESOURCE “hive0”
PROPERTIES (
“type” = “hive”,
“hive.metastore.uris” = “thrift://myhadoop:9083
);

然后查询报错:

starrocks [42000][1064] hdfsOpenFile failed

二. 解决方案

StarRocks的committer在论坛回复我了,原来是打包的问题。
没想到打包名字居然是写死的,而且hive catalog居然受到spark 客户端的影响。

spark jar 打包名字需要是 spark-2x.zip
(既不能是spark.zip 也不能是spark-24.zip, 需要在配置文件中写死为 spark-2x.zip)
https://docs.starrocks.io/zh-cn/latest/loading/SparkLoad#配置-spark-客户端 1

©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容