Spark on Hive-derby数据库-thriftserver-多客户端使用

首先,要明确spark on hivehive on spark 的区别。

--spark on hive:是spark 通过spark-sql 使用hive 语句操作hive,底层运行的还是 spark rdd。它是通过sparksql来加载hive的配置文件,获取到hive的元数据信息,这样就可以拿到hive的所有表的数据,接下来就可以用sparksql来操作hive表中的数据。

--hive on spark:是hive的执行引擎变成了spark,不再是mapreduce。这个要相对于麻烦,需要重新编译spark源码,打成jar包,将hive的执行引擎换成spark。

其次,hive的meta数据支持三种方式存储,一种远端存储,两种本地存储。远端存储比较适合生产环境。详细信息查看 hive metastore

一、本地derby存储

这种方式是最简单的存储方式,本人只在hive-site.xml中添加如下配置:

<configuration>

<property> 

<name>javax.jdo.option.ConnectionURL</name> 

<value>jdbc:derby:;databaseName=metastore_db;create=true</value> 

</property>   

<property> 

<name>javax.jdo.option.ConnectionDriverName</name> 

<value>org.apache.derby.jdbc.EmbeddedDriver</value> 

</property>   

<property> 

<name>hive.metastore.local</name> 

<value>true</value> 

</property>   

<property> 

<name>hive.metastore.warehouse.dir</name> 

<value>/user/hive/warehouse</value> 

</property>   

<property> 

<name>hive.metastore.warehouse.dir</name> 

<value>/user/hive/warehouse</value> 

</property>   

</configuration>

注意:使用derby存储方式时,运行hive会在当前目录生成一个derby文件和一个metastore_db目录。这种存储方式的弊端是在同一个目录下同时只能有一个hive客户端能使用数据库,否则会提示如下错误:

hive> show tables;  

FAILED: Error in metadata: javax.jdo.JDOFatalDataStoreException: Failed to start database 'metastore_db', see the next exception for details.  

NestedThrowables:  

java.sql.SQLException: Failed to start database 'metastore_db', see the next exception for details.  

FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask 

二、本地mysql存储

这种方式存储需要在本地运行一个mysql服务器,并做如下配置(需要将mysql的jar包拷贝到$HIVE_HOME/lib目录下)

<configuration>  

<property>  

<name>hive.metastore.warehouse.dir</name>  

<value>/user/hive_remote/warehouse</value>  

</property>  

<property>  

<name>hive.metastore.local</name>  

<value>true</value>  

</property>  

<property>  

<name>javax.jdo.option.ConnectionURL</name>  

<value>jdbc:mysql://localhost/hive_remote?createDatabaseIfNotExist=true</value>  

</property>  

<property>  

<name>javax.jdo.option.ConnectionDriverName</name>  

<value>com.mysql.jdbc.Driver</value>  

</property>  

<property>  

<name>javax.jdo.option.ConnectionUserName</name>  

<value>hive</value>  

</property>  

<property>  

<name>javax.jdo.option.ConnectionPassword</name>  

<value>password</value>  

</property>  

</configuration>

三、远端mysql

这种方式存储需要在远端服务器运行一个mysql服务器,并且需要在Hive服务器启动meta服务。远程mysql服务器ip:192.168.200.110,数据库hive_remote,配置如下:

<configuration>  

<property>  

    <name>hive.metastore.warehouse.dir</name>  

    <value>/user/hive/warehouse</value>  

</property>  

<property>  

    <name>javax.jdo.option.ConnectionURL</name>  

    <value>jdbc:mysql://192.168.1.214:3306/hive_remote?createDatabaseIfNotExist=true</value>  

</property>  

<property>  

    <name>javax.jdo.option.ConnectionDriverName</name>  

    <value>com.mysql.jdbc.Driver</value>  

</property>  

<property>  

    <name>javax.jdo.option.ConnectionUserName</name>  

    <value>hive</value>  

</property>  

<property>  

    <name>javax.jdo.option.ConnectionPassword</name>  

    <value>password</value>  

</property>  

<property>  

    <name>hive.metastore.local</name>  

    <value>false</value>  

</property>  

<property>  

    <name>hive.metastore.uris</name>  

    <value>thrift://192.168.1.188:9083</value>  

</property>  

</configuration>  

注意:这里把hive的服务端和客户端都放在同一台服务器上了。服务端和客户端可以拆开,将hive-site.xml配置文件拆为如下两部分:

1)服务端配置:

<configuration>  

<property>  

    <name>hive.metastore.warehouse.dir</name>  

    <value>/user/hive/warehouse</value>  

</property>  

<property>  

    <name>javax.jdo.option.ConnectionURL</name>  

    <value>jdbc:mysql://192.168.1.214:3306/hive_remote?createDatabaseIfNotExist=true</value>  

</property>  

<property>  

    <name>javax.jdo.option.ConnectionDriverName</name>  

    <value>com.mysql.jdbc.Driver</value>  

</property>  

<property>  

    <name>javax.jdo.option.ConnectionUserName</name>  

    <value>root</value>  

</property>  

<property>  

    <name>javax.jdo.option.ConnectionPassword</name>  

    <value>test1234</value>  

</property>  

</configuration>

2)客户端配置:

<configuration>  

<property>  

    <name>hive.metastore.warehouse.dir</name>  

    <value>/user/hive/warehouse</value>  

</property>  

<property>  

    <name>hive.metastore.local</name>  

    <value>false</value>  

</property>  

<property>  

    <name>hive.metastore.uris</name>  

    <value>thrift://192.168.1.188:9083</value>  

</property>  

</configuration>

启动hive服务端程序:hive --service metastore

客户端直接使用hive命令即可

由于公司使用的是内网环境,网盘用不了,自己装的虚拟环境也不能通过yum来进行安装,下载的rpm包又缺少其他的依赖,只能选择本地derby存储。接下来,配置spark on hive(前提hdfs、yarn、hive已经搭建好了):

1、hive-site.xml配置:

<configuration>

<property>

    <name>hive.cli.print.header</name>

    <value>true</value>

    <description>Whether to print the names of the columns in query output.</description>

</property>

<property>

    <name>hive.cli.print.current.db</name>

    <value>true</value>

    <description>Whether to include the current database in the Hive prompt.</description>

</property>

<property>

    <name>hive.metastore.uris</name>

    <value>thrift://hadoop110:9083</value>

</property>

<property>

         <name>hive.metastore.warehouse.dir</name>

         <value>hdfs://hadoop110:9000/user/hive/warehouse</value>

</property>

</configuration>

2、在spark的conf中创建hive-site.xml的软连接 ln -s /xxx/xxx/hive-site.xml

3、配置spark-env.sh:

export JAVA_HOME=/opt/module/jdk1.8.0_211

export SCALA_HOME=/opt/module/scala-2.11.12

export HADOOP_HOME=/opt/module/hadoop-2.7.2

export HADOOP_CONF_DIR=/opt/module/hadoop-2.7.2/etc/hadoop

4、将spark的jars中的所有包上传到hdfs上,然后在spark-default.xml中配置路径。这样可以提高程序运行过程中寻找jar包的效率

hadoop fs -put spark/jars/* /spark_jars/

spark-default.xml中配置:

spark.yarn.jars=hdfs://hadoop110:9000/spark_jars/*

5、启动hive服务:hive --service metastore &

6、启动spark的thriftserver服务:/opt/module/spark-2.1/sbin/start-thriftserver.sh

7、启动beeline,注意:下次启动需要在同一个目录下,否则就会生成新的元数据文件。

启动多个beeline窗口也可以访问滴。哈哈哈!!!

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 216,258评论 6 498
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 92,335评论 3 392
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 162,225评论 0 353
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 58,126评论 1 292
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 67,140评论 6 388
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 51,098评论 1 295
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 40,018评论 3 417
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 38,857评论 0 273
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 45,298评论 1 310
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 37,518评论 2 332
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 39,678评论 1 348
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 35,400评论 5 343
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 40,993评论 3 325
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 31,638评论 0 22
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 32,801评论 1 268
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 47,661评论 2 368
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 44,558评论 2 352

推荐阅读更多精彩内容

  • 一、Hive概述 HIve是什么?为什么要使用hive?对于一个初步接触hive的初学者,这些都是迷惑的,因此本文...
    不清不慎阅读 801评论 0 4
  • hive.ddl.output.format:hive的ddl语句的输出格式,默认是text,纯文本,还有json...
    博弈史密斯阅读 1,945评论 0 6
  • 1 Hive Metastore 1.1相关概念 Hive Metastore有三种配置方式,分别是: Embed...
    hexg1016阅读 686评论 0 0
  • 说明:不少读者反馈,想使用开源组件搭建Hadoop平台,然后再部署Kylin,但是遇到各种问题。这里我为读者部署一...
    大诗兄_zl阅读 2,070评论 0 2
  • 一、Hive 介绍 二、准备工作 三、Hive下载 四、Hive 安装 五、Hive 启动 一、Hive 介绍 H...
    Ada54阅读 1,952评论 0 7