//
开源ETL工具Kettle初试–远程执行任务 – lxw的大数据田地
http://lxw1234.com/archives/2017/02/834.htm#comments
Kettle是一款国外开源的ETL以及简单的调度工具。官网:http://www.pentaho.com/product/data-integration之前Kettle在传统数据仓库中用的比较多,现在也集成了很多大数据相关的组件,比如:HDFS、MapReduce、HBase、Hive、Sqoop等。这两天试验了一下,在此做一记录。
我使用的Kettle版本为最新的pdi-ce-7.0.0.0-25.zip,特别注意,该版本对jdk的要求比较高,之前系统上的jdk-8u65竟然也不行,后来用了最新的jdk-8u121才正常。
完成了一个简单的ETL过程:从Oracle中抽取数据->写入HDFS->Load进Hive表。
因为我们的Linux服务器都没有图形化界面,并且我本机不能访问hadoop集群节点的内网ip(只能通过网关机访问),因此,需要进行下面的部署:
在Hadoop网关机(Linux)上启动Kettle远程服务,作为子服务器;在我的机器(windows)上启动Kettle,作为主服务器,进行作业开发,执行时候,提交到子服务器进行远程执行。
配置Kettle远程服务
下载Kettle:
https://nchc.dl.sourceforge.net/project/pentaho/Data%20Integration/7.0/pdi-ce-7.0.0.0-25.zip
解压之后,编辑data-integration/plugins/pentaho-big-data-plugin/plugin.properties文件:设置hadoop版本(我使用的cdh5.8):active.hadoop.configuration=cdh58
进入data-integration/plugins/pentaho-big-data-plugin/hadoop-configurations/cdh58目录:将hadoop的配置文件core-site.xml、mapred-site.xml、yarn-site.xml复制过来。
在Kettle远程服务器上(Linux):进入data-integration目录,设置远程服务连接密码:sh encr.sh -carte yourpassword结果会输出加密后的密码:OBF:1hvy1i271vny1zej1zer1vn41hzj1hrk
编辑密码文件:vi ./pwd/kettle.pwdcluster: OBF:1hvy1i271vny1zej1zer1vn41hzj1hrk其中,cluster为默认的用户名。
然后启动远程服务:nohup ./carte.sh localhost 9888 >> carte.log &
端口号9888可以自己定义。
本地Kettle主服务器开发任务
本地windows解压Kettle之后,执行Spoon.bat启动Kettle。执行SpoonConsole.bat打开图形界面。
文件->新建->转换:
在该转换中,需要配置2个DB链接(Oracle和HiveServer2),配置Hadoop集群(HDFS),配置子服务器(远程执行服务器)。DB的配置很简单,略过。新建子服务器:
新建Hadoop集群:注意,如果不使用MapReduce和ZK,那么只需要配置HDFS即可,Hostname为主NameNode的IP.
远程执行任务
开发完后,在执行的选项中,选择远程执行:
本地Kettle会连接到远程Kettle子服务器,将该作业配置信息发送给子服务器进行执行。
除了上述方法完成DBàHive的数据导入,Kettle也集成了Sqoop,应该也可以完成,后续再进行尝试: