从Hive1.0升级到Hive2.0(删除hive1.x中的元数据, 并不是数据迁移)

软件环境:

linux系统: CentOS6.7
Hadoop版本: 2.6.5
zookeeper版本: 3.4.8

</br>

主机配置:

一共m1, m2, m3这五部机, 每部主机的用户名都为centos
192.168.179.201: m1 
192.168.179.202: m2 
192.168.179.203: m3 

m1: Zookeeper, Namenode, DataNode, ResourceManager, NodeManager, Master, Worker
m2: Zookeeper, Namenode, DataNode, ResourceManager, NodeManager, Worker
m3: Zookeeper, DataNode, NodeManager, Worker

</br>
</br>

参考资料:
hive2.0特性:
    http://blog.csdn.net/gamer_gyt/article/details/52062460
hive1.0与hive2.0的区别对比
    http://www.36dsj.com/archives/60604

说明:

若在hive1.x中已使用MySQL作为元数据库, 升级到hive2.x时仍想将MySQL作为元数据库则进行以下操作: (以下方法是删除原始在hive1.x中的元数据, 并不是原始数据迁移)

1.删除HDFS上的hive数据与hive数据库
hadoop fs -rm -r -f /tmp/hive
hadoop fs -rm -r -f /user/hive

2.若是用MySQL作为元数据库, 则删除MySQL上的Hive的元数据信息
mysql -uroot -p 
drop database hive

3.初始化hive, 将mysql作为hive的元数据库
    schematool -dbType mysql -initSchema

</br>
</br>
</br>

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容