部署开启了Kerberos身份验证的大数据平台集群外客户端

本文档主要用于说明,如何在集群外节点上,部署大数据平台的客户端,此大数据平台已经开启了Kerberos身份验证。通过客户端用户在集群外就可以使用集群内的服务了,如查询集群内的hdfs数据,提交spark任务到集群内执行等操作。
具体部署步骤如下所示:

1、拷贝集群内hadoop相关组件包到客户端

本地创建目录/opt/cloudera/parcels

mkdir –R /opt/cloudera/parcels

拷贝组件包CDH-5.7.2-1.cdh5.7.2.p0.18到目录/opt/cloudera/parcels
进入目录建立软连接

cd /opt/cloudrea/parcels
ln –s CDH-5.7.2-1.cdh5.7.2.p0.18 CDH

2、拷贝集群内hadoop相关配置文件到客户端

创建目录/etc/hadoop,将/etc/hadoop/conf文件夹放入该目录,node1为集群内节点

mkdir /etc/hadoop
scp -r node1:/etc/hadoop/conf /etc/hadoop

创建目录/etc/hive,将/etc/hive/conf文件夹放入该目录

mkdir /etc/hive
scp -r node1:/etc/hive/conf /etc/hive

创建目录/etc/spark,将/etc/spark/conf文件夹放入该目录

mkdir /etc/spark
scp -r node1:/etc/spark/conf /etc/spark

3、拷贝集群内身份验证相关配置文件krb5.conf到客户端

scp node1:/etc/krb5.conf  /etc

4、运行客户端脚本client.sh,文件内容如下:

export HADOOP_HOME=/opt/cloudera/parcels/CDH/lib/hadoop
export HADOOP_CONF=/etc/hadoop/conf
export HADOOP_CONF_DIR=/etc/hadoop/conf
export YARN_CONF_DIR=/etc/hadoop/conf
export SPARK_CONF_DIR=/etc/spark/conf
#export SPARK_HOME=/opt/cloudera/parcels/CDH/lib/spark
CDH_HOME="/opt/cloudera/parcels/CDH"
export PATH=$CDH_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin/:$PATH
##beeline 连接hive进行sql查询
cd /opt/cloudera/parcels/CDH/bin
./beeline -u "jdbc:hive2://node128a7:10000/;principal=hive/node128a7@HADOOP.COM" --config /etc/hive/conf
##执行hdfs命令
#./hdfs --config /etc/hadoop/conf dfs -ls /
##提交spark命令
#cd /opt/cloudera/parcels/CDH/lib/spark/bin
#./spark-shell

注意:
1、客户端要与集群时间同步,否则身份认证会失败;
2、客户端host要添加集群hosts,集群hosts可连接集群某一点获取;
3、集群已开启kerberos身份验证,执行shell命令前,需要kinit进行身份验证,示例如下:

#kinit认证命令
[root@node128a225 client]# kinit -kt /home/user01.keytab user01
#查看当前用户
[root@node128a225 client]# klist
Ticket cache: FILE:/tmp/krb5cc_0
Default principal: user01@HADOOP.COM

Valid starting       Expires              Service principal
12/01/2016 20:48:50  12/02/2016 20:48:50  krbtgt/HADOOP.COM@HADOOP.COM
    renew until 12/08/2016 20:48:50

4、spark jdbc编程,同样需要调用kerberos身份验证,示例如下,完整工程看【spark jdbc 示例】目录下Security

package kerberos.spark;


import org.apache.hadoop.security.UserGroupInformation;

import java.io.IOException;
import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.ResultSet;
import java.sql.Statement;
import java.util.Timer;
import java.util.TimerTask;

/*
 * 开启权限验证时,可以传入用户principal 和 keytab 进行身份验证
 */
public class sparkjdbc {
   public static void main(String args[]) {
      final String principal = args[0];//用户对应principal,如user01
      final String keytab = args[1];//用户对应keytab,如/home/user01/user01.keytab
      String sql = args[2];//业务sql操作语句
      try {
         //1、身份验证:间隔12小时验证一次
         long interval=1;
         long now = System.currentTimeMillis();
         long start = interval - now % interval;
         Timer timer = new Timer();
         timer.schedule(new TimerTask(){
            public void run() {
               org.apache.hadoop.conf.Configuration conf = new org.apache.hadoop.conf.Configuration();
               conf.set("hadoop.security.authentication", "Kerberos");
               UserGroupInformation.setConfiguration(conf);
               try {
                  UserGroupInformation.loginUserFromKeytab(principal,keytab);
                  System.out.println("getting connection");
                  System.out.println("current user: "+UserGroupInformation.getCurrentUser());
                  System.out.println("login user: "+UserGroupInformation.getLoginUser());
               } catch (IOException e) {
                  e.printStackTrace();
               }
               System.out.println("execute task!"+ this.scheduledExecutionTime());
            }
         },start,12*60*60*1000);//定时任务

         //正常业务,spark jdbc连接hive进行sql操作
         Class.forName("org.apache.hive.jdbc.HiveDriver");
         Connection con = DriverManager
               .getConnection("jdbc:hive2://node128a7:10000/;principal=hive/node128a7@HADOOP.COM");
         System.out.println("got connection");
         Statement stmt = con.createStatement();
         ResultSet rs = stmt.executeQuery(sql);// executeQuery会返回结果的集合,否则返回空值
            System.out.println("打印输出结果:");
            while (rs.next()) {
                System.out.println(rs.getString(1));// 入如果返回的是int类型可以用getInt()
            }
         
         con.close();
      } catch (Exception e) {
         e.printStackTrace();
      }
   }
}
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 212,383评论 6 493
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 90,522评论 3 385
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 157,852评论 0 348
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 56,621评论 1 284
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 65,741评论 6 386
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 49,929评论 1 290
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 39,076评论 3 410
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 37,803评论 0 268
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 44,265评论 1 303
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 36,582评论 2 327
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 38,716评论 1 341
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 34,395评论 4 333
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,039评论 3 316
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 30,798评论 0 21
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,027评论 1 266
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 46,488评论 2 361
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 43,612评论 2 350

推荐阅读更多精彩内容