20190727-hadoop项目实战

参考陈凯简书地址,完成相关50个案例

https://www.jianshu.com/nb/11486691


Hive上课笔记

1.创建一张psn1表,演示如何将File文件中的数据加载到Hive表中

数据格式 :  1,xiaoming,tv-read-game,shanghai:pudong-beijing:chaoyang

CREATE TABLE IF NOT EXISTS PSN1

(

ID INT,

NAME STRING,

HOBBY ARRAY<STRING>,

ADDRESS MAP<STRING,STRING>

)

ROW FORMAT DELIMITED

FIELDS TERMINATED BY ','

COLLECTION ITEMS TERMINATED BY '-'

MAP KEYS TERMINATED BY ':';

2.将数据加载到hive表中

hive> load data local inpath '/home/hadoop/hive/data' into table psn1;


3.外部表、内部表、临时表

内部表:管理元数据和HDFS上的数据

如果drop table,hfs上的数据也会被删除

外部表:只管理元数据信息,drop表后,hdfs上的数据不会被删除

关键词是external

需要配置location的信息,数据文件会存储在配置的路径


4.DDL&DML

DDL基础数据结构和sql很像

DML 

loading files into tables;

inserting data into hive tables from queries



5.今天要学的内容

### HiveServer2 Client and Beeline

HiveServer2

Beeline

### Operators and UDFs

Operators操作符

UDFs:User-Defined Functions

###Hive 所有知识点

#HiveServer2 Client and Beeline

执行beeline之前要启动HiveServer2

Dependencies of HS2

启动HS2之前,依赖Metastore

需要启动metastore

hive --service metastore &

Hadoop cluster

start-all.sh

启动hs2

两种方式

$HIVE_HOME/bin/hiveserver2

$HIVE_HOME/bin/hive --service hiveserver2


##启动hiveserver2服务前需要修改hive-site.xml

添加如下配置信息

<!-- 这是hiveserver2 -->

<property>

      <name>hive.server2.thrift.port</name>

    <value>10000</value>

</property>

    <property>

      <name>hive.server2.thrift.bind.host</name>

      <value>192.168.4.110</value>

    </property>


#写一个jdbc的程序连接hvie 操作数据库表

###JDBC Client Sample Code官网参考地址

https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients


1)创建java项目

2)引入hive工程的jar包和hadoop的jar包

3)创建文件,注意文件格式

    echo -e '1\x01foo' >> /home/hadoop/hive/demo

    echo -e '2\x01rdd' >> /home/hadoop/hive/demo

---

Connection con = DriverManager.getConnection("jdbc:hive2://192.168.4.110:10000/default", "hadoop", "");

---

注意:此处的用户名和密码为hadoop集群的用户名及密码


package com.hive;

import java.sql.SQLException;

import java.sql.Connection;

import java.sql.ResultSet;

import java.sql.Statement;

import java.sql.DriverManager;

public class HiveJdbcClient {

  private static String driverName = "org.apache.hive.jdbc.HiveDriver";

  public static void main(String[] args) throws SQLException {

      try {

      Class.forName(driverName);

    } catch (ClassNotFoundException e) {

      e.printStackTrace();

      System.exit(1);

    }

  Connection con = DriverManager.getConnection("jdbc:hive2://192.168.4.110:10000/default", "hadoop", "");

    Statement stmt = con.createStatement();

    String tableName = "testHiveDriverTable";

    stmt.execute("drop table if exists " + tableName);

    stmt.execute("create table " + tableName + " (key int, value string)");

    // show tables

    String sql = "show tables '" + tableName + "'";

    System.out.println("Running: " + sql);

    ResultSet res = stmt.executeQuery(sql);

    if (res.next()) {

      System.out.println(res.getString(1));

    }

      // describe table

    sql = "describe " + tableName;

    System.out.println("Running: " + sql);

    res = stmt.executeQuery(sql);

    while (res.next()) {

      System.out.println(res.getString(1) + "\t" + res.getString(2));

    }

    // load data into table

    // NOTE: filepath has to be local to the hive server

    // NOTE: /tmp/a.txt is a ctrl-A separated file with two fields per line

//    String filepath = "/tmp/a.txt";

    String filepath = "/home/hadoop/hive/demo";

    sql = "load data local inpath '" + filepath + "' into table " + tableName;

    System.out.println("Running: " + sql);

    stmt.execute(sql);

    // select * query

    sql = "select * from " + tableName;

    System.out.println("Running: " + sql);

    res = stmt.executeQuery(sql);

    while (res.next()) {

      System.out.println(String.valueOf(res.getInt(1)) + "\t" + res.getString(2));

    }

    // regular hive query

    sql = "select count(1) from " + tableName;

    System.out.println("Running: " + sql);

    res = stmt.executeQuery(sql);

    while (res.next()) {

      System.out.println(res.getString(1));

    }

  }

}


###Operators and UDFs

####Creating Custom UDFs官网参考地址

https://cwiki.apache.org/confluence/display/Hive/HivePlugins

第一步,创建一个class继承UDF

package com.example.hive.udf;

import org.apache.hadoop.hive.ql.exec.UDF;

import org.apache.hadoop.io.Text;

public final class Lower extends UDF {

  public Text evaluate(final Text s) {

    if (s == null) { return null; }

    return new Text(s.toString().toLowerCase());

  }

}


第二步,把代码打成jar包,并添加到Hive classpath中;

hive> add jar  /home/hadoop/Lower.jar

第三步,第一次运行hive的时候,需要注册你的function

create temporary function lower as 'com.hive.Lower';

第四步,可以使用这个funciton了

hive> select key,lower(value),value from testhivedrivertable;

OK

1      FOO    foo

2      RDD    rdd

Time taken: 0.7 seconds, Fetched: 2 row(s)


### Row Format

正则表达式




收尾:

Hive优化面试整理  --TODO

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。

推荐阅读更多精彩内容

  • 我要说的是关于绫在东京寻找自我的故事。 "我想成为一个倍受羡慕的人。"这是17岁的女主绫在出场时说的第一句话。在说...
    给我一分钟发个呆阅读 297评论 0 0
  • 身边有几个小姑娘,经常在我跟前说一些关于自己的相亲经历,在聊天中,我常常能看到他们表面上的骄傲,实际心理有很多害怕...
    清清雾阅读 470评论 0 1
  • 聂宝琴就算再恨也不能丢了她家王爷的面子,叶府内,叶老给霜落准备了他最爱的菜,叶夫人从外回来看见自己的闺女都不知道...
    带刺的蝴蝶zcl阅读 179评论 0 0
  • 花开,岁月如此静好。夜半无人,敲下这些零零碎碎的文字,淡雅之心落定。捻纸尘埃,一笺素香萦绕,心又在沉沦。层层迷雾遮...
    王燕燕子阅读 291评论 0 0
  • ——1—— 《苏菲的世界》是以小说的形式,通过一位哲学导师,向一个小女孩传授哲学知识的一本书。 故事的一开始就出现...
    兰玖阅读 1,662评论 16 33