Spark读取Hive时schema版本不匹配的解决方法

当使用Spark进行Hive数据操作时,提示如下:

Hive Schema version 2.3.0 does not match metastore's schema version 1.2.0 Metastore is not upgraded or corrupt

即Spark中采用的Hive metastore版本 和 Hive环境中配置的metastore的版本不一致。

解决:

  1. 将存储hive meta信息的mysql中所配置的schema version 修改为Spark中采用的metastore版本。


    image.png
  1. 在hive环境的hive-site.xml配置文件中增加(或修改)如下配置:
<property>
    <name>hive.metastore.schema.verification</name>
    <value>false</value>
</property>

修改完hive-site.xml后需重启hive集群。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

相关阅读更多精彩内容

友情链接更多精彩内容