hbase数据导出导入,数据备份,数据迁移(仅解决非通信集群)

摘要: 本文讲的是hbase数据导出导入,数据备份,数据迁移(仅解决非通信集群), 如题,只说明非通信集群,hbase版本是1.1.10,属于1.1.x系列,跨大版本这个事情另外讨论,参考官网。 面对的环境数据量较大(就是比较小没有几个PB的意思),新老集群无法通信。二步解决,expor
如题,只说明非通信集群,hbase版本是1.1.10,属于1.1.x系列,跨大版本这个事情另外讨论,参考官网。

面对的环境数据量较大(就是比较小没有几个PB的意思),新老集群无法通信。二步解决,export/import大量坑,在此不表,选用手动方式。 一、导出、导入数据

copyFromLocal

Usage: hadoop fs -copyFromLocal <localsrc> URI

Similar to the fs -put command, except that the source is restricted to a local file reference.

Options:

-p : Preserves access and modification times, ownership and the permissions. (assuming the permissions can be propagated across filesystems)
-f : Overwrites the destination if it already exists.
-l : Allow DataNode to lazily persist the file to disk, Forces a replication factor of 1. This flag will result in reduced durability. Use with care.
-d : Skip creation of temporary file with the suffix .COPYING.
copyToLocal

Usage: hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>

Similar to get command, except that the destination is restricted to a local file reference.

找到你现在的hbase的数据在hdfs的位置

hadoop fs -copyToLocal /hbase/data/default/表名 存放数据的路径

然后把数据转移到另外一个集群上去
Hadoop fs -copyFromLocal 准备导入的数据文件夹 /hbase/data/default/表名

值得注意的是如果是新集群,可能没有/hbase/data/default/这个文件夹,最好的方式是在hbase中建一个测试表,

查看确认下新的集群的hbase数据信息是否在对应位置。 二、修复数据meta与分区

因为分区信息发生了改变,元信息没有同步。

数据导入到指定的文件夹之后,修复分区和表的元信息,(没有使用rbuy的各种脚本,0.9之后就D了,)

hbase hbck -fixTableOrphans 表名

hbase hbck -fixMeta 表名

hbase hbck -fixAssignments 表名

hbase hbck -repair 表名

list 、scan和get命令,测试数据在新集群中时候可用

以上是hbase数据导出导入,数据备份,数据迁移(仅解决非通信集群)的全部内容,在云栖社区的博客、问答、云栖号、人物、课程等栏目也有hbase数据导出导入,数据备份,数据迁移(仅解决非通信集群)的相关内容,欢迎继续使用右上角搜索按钮进行搜索hbase , hdfs , hadoop , 迁移 数据备份 ,以便于您获取更多的相关知识。

©著作权归作者所有,转载或内容合作请联系作者
【社区内容提示】社区部分内容疑似由AI辅助生成,浏览时请结合常识与多方信息审慎甄别。
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

友情链接更多精彩内容