sqoop

sqoop是一款在hadoop和关系数据库服务器之间传送数据的工具。
导入:mysql,oracle导入数据到hadoop的hdfs、hive、hbase等数据存储系统。
导出:从hadoop的文件系统导出数据到关系数据库。

sqoop

工作机制:将导入导出命令翻译成mapreduce程序来实现。对inputformat和outputformat的定制。

  • 安装
tar -zxvf sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz 
mv sqoop-1.4.6.bin__hadoop-2.0.4-alpha sqoop

cd conf
mv sqoop-env-template.sh sqoop-env.sh

export HADOOP_COMMON_HOME=/home/hadoop/apps/hadoop-2.6.4(which hadoop)
export HADOOP_MAPRED_HOME=/home/hadoop/apps/hadoop-2.6.4
export HIVE_HOME=/home/hadoop/apps/hive

加入mysql的jdbc驱动包
cp /home/hadoop/apps/hive/lib/mysql-connector-java-5.1.34_1.jar ./lib/(当前目录下的lib)

bin/sqoop help
  • 从mysql数据库服务器中表导入hdfs
$bin/sqoop import   \
--connect jdbc:mysql://mini1:3306/test   \
--username root  \
--password root   \
--table emp   \
--m 1 (用几个mapreduce跑)

默认导到
$ $HADOOP_HOME/bin/hadoop fs -cat /user/hadoop/emp/part-m-00000
要导到指定位置加参数:
--target-dir <new or exist directory in HDFS>
检查导入:
$HADOOP_HOME/bin/hadoop fs -cat /queryresult/part-m-*
远程登录mysql:mysql -h mini1 -uroot -proot
注意hosts的配置,必须每台机器都配上,因为maptask(yarnchild)在不同的机器上,如果没配好不能解析主机名。

  • 导入关系表到hive
bin/sqoop import --connect jdbc:mysql://hdp-node-01:3306/test --username root --password root --table emp --hive-import --m 1
  • 导入表数据子集
bin/sqoop import \
--connect jdbc:mysql://hdp-node-01:3306/test \
--username root \
--password root \
--where "city ='sec-bad'" \
--target-dir /wherequery \
--table emp_add --m 1

按需导入:

bin/sqoop import \
--connect jdbc:mysql://hdp-node-01:3306/test \
--username root \
--password root \
--target-dir /wherequery2 \
--query 'select id,name,deg from emp WHERE  id>1207 and $CONDITIONS' \
--split-by id \
--fields-terminated-by '\t' \
--m 1

检查:
$HADOOP_HOME/bin/hadoop fs -cat /wherequery/part-m-*

  • 增量导入
bin/sqoop import \
--connect jdbc:mysql://hdp-node-01:3306/test \
--username root \
--password root \
--table emp --m 1 \
--incremental append \
--check-column id \
--last-value 1208
  • 导出
    1.建表
mysql> USE db;
mysql> CREATE TABLE employee ( 
   id INT NOT NULL PRIMARY KEY, 
   name VARCHAR(20), 
   deg VARCHAR(20),
   salary INT,
   dept VARCHAR(10));

2.导出命令

bin/sqoop export \
--connect jdbc:mysql://hdp-node-01:3306/test \
--username root \
--password root \
--table employee \
--export-dir /user/hadoop/emp/

验证:
mysql>select * from employee;
在实际应用中把这些命令写入shell脚本,通过azkaban这些作业调度工具来调度。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 1/列出mysql数据库中的所有数据库sqoop list-databases -connect jdbc:mys...
    时待吾阅读 2,763评论 1 5
  • 1/列出mysql数据库中的所有数据库sqoop list-databases -connect jdbc:mys...
    时待吾阅读 1,369评论 0 0
  • 1.大数据协作框架: 大数据协作框架是Hadoop 2.x生态系统中几个辅助框架。最为常见的是以下几个: 数据转换...
    奉先阅读 3,121评论 0 2
  • sqoop数据导入导出应用案例 1 sqoop导入数据 将RDBMS中的一个表数据导入到hdfs。表中的每一行被视...
    yanzhelee阅读 2,060评论 0 3
  • 现在的很多学生心里上或多或少都有问题,这种问题可大可小,严重了就会造成不可挽回的事情,所以这一块也是养成教育里面应...
    伽侑阅读 324评论 0 0