Hive学习笔记1,hive数据仓库

By admin in 4858.com on 2019年3月26日

一、hive概述

一、Hive介绍

首先某些

什么是Hive:

Hive是依照Hadoop之上的数据仓库,数据存放在HDFS上,它同样能够透过ETL来开始展览数量的抽取、转换和加载。同时Hive能够自个儿费用Mapreduce程序来形成自作者不能提供的数额处理操作。Hive自身正是1个SQL的辨析引擎,他将SQL
语句转成Mapreduce职责在hadoop之上执行。

怎么是数据仓库:

数据仓库是四个面向核心的,集成的,不可更新的,随时间不转移的数据集合,它用于帮助公司或团体的决策分析处理。

本着数据仓库的概念的解释:首先数据仓库中的数据是面向主旨的,也正是那个多少的都以为了描述同一类业务,同时它的数量首要用以查询操作,不会对数据仓库中的数据开始展览删减和换代操作。

OLTP: 联机事务处理(面向的是业务,要求实时的更新操作,银行转化)
OLAP:
联机分析处理(面向历史数据,进行数量的分析与发掘,首要面向查询,不会做革新和插入数据,推荐系统)

注意:

在搭建数据仓库的进度最常用的三种模型即是:正方形模型和鹅毛立冬模型,雪花模型是在长方形模型上更上一层楼出来的。什么是椭圆形模型,比如3个货品的推荐介绍系统,主旨应该是货物,不过围绕商品的有客户音信、厂家新闻、降价新闻等重重信息,那样就构成了1个长方形模型。可是客户新闻中也设有客户的家园的信息、地址新闻等。那样再涉及的话正是三个雪片模型了。


离线数据解析平台实战——110Hive介绍和Hive环境搭建

4858.com 1

  Hive是依照Hadoop的一个数据仓库,Hive能够将SQL语句转化为MapReduce职分展开运作。

第一部分

Hive的系统布局:

Hive将元数据存款和储蓄在数据库中(metastore),这几个数据库协理mysql、derby等数据库中。Hive暗中同意是储存在derby数据库中。
Hive的元数据有怎么样?
包涵表的名字、表的列和分区及其性子,表的性子包蕴是或不是为外部表等,表的数码所在目录等。
首先Hive是依照Hadoop的,所以hive的数据会动用HDFS实行保存,同时hive的询问操作也是转账成hadoop的MapReduce操作,所以在hive中会存在3个Hive
Driver:包罗编译器、解析器和优化器。
在Hive的驱动从前有访问接口、jdbc以及WebConsole等办法进行操作。当然hive的元音信是存放在在关系型数据库中的。
HQL的施行进度:
解释器、编写翻译器、优化器完毕HQL查询语句从词法分析、语法分析、编写翻译、优化以及查询布署的变型。生成的查询安排存储在HDFS中,并在随后的Mapreduce调用实践。


Hive学习笔记1,hive数据仓库。Hive介绍

Hive是创设在Hadoop之上的数据仓库平台,设计目的正是将hadoop上的数码操作同SQL结合,让熟练SQL编制程序的开发职员能够轻松的向Hadoop平台上转移。

Hive能够在HDFS上构建数据仓仓库储存款和储蓄结构化数据,那几个多少来源正是hdfs上,hive提供了3个类似sql的询问语言HiveQL来拓展询问、变换数据等操作。
当然HiveQL语句的底层是更换为对应的mapreduce代码实行实施的。

       Hive是根据Hadoop
的1个【数据仓库工具】,能够将结构化的数据文件映射为一张数据库表,并提供不难的
sql 查询成效,能够将 sql 语句转换为 MapReduce
职责展开运营。使用SQL来火速实现简单的MapReduce
总括,不必支付专门的MapReduce
应用,学习开销低,十三分合乎数据仓库的计算分析。

  Hive架构图分为以下四片段。

其三部分

Hive的安装:

Hive的官网地址: hive.apache.org apache 的野史工程公布页面在:
archive.apache.org,在那些页面下能够找到hive工程。那里运用的是0.13本子。

Hive的装置以前须求先将hadoop安装好,hive有三种安装格局:嵌入格局、本地格局、远程格局。

置于方式:Hive将元新闻存款和储蓄在Hive自带的Derby数据库中。可是那种操作方法存在有的瑕疵:

  1. 只同意创造3个连接,也正是只允许一个用户操作hive 2. 多用来德姆o

在设置hive以前须要先安装hadoop,然后把hive的削减包解压,在bin目录下执行./hive进入hive的开发银行脚本,那种措施就是利用的嵌入式形式运转hive,会在当前目录下生成2个metastore_db的目录,那几个便是元消息目录。

地方情势:Hive将元音信囤积在mysql数据库中,mysql数据库与hive运维在同等台物理机上。那种措施能够允许三个用户操作hive,能够用于支付和测试。

长途格局:(推荐应用这种措施)hive将元新闻囤积在mysql数据库中,mysql数据库与hive运转在差异的大体机上。

元新闻囤积在长途的mysql中。进入远程mysql中,mysql -u … -p … ,
进入后使用create database hive创设多少个hive数据库来保存元数据。
在hive解压后,把mysql的驱动jar包上传到hive的lib目录中。那样hive才能操作mysql数据库。然后须要转移hive的计划文件。在conf中开创二个hive-site.xml文件,文件的内容如下:

<configuration>
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://ip:3306/hive</value>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>root</value>
    </property>
</configuration>

当配置文件设置完后将来,就能够运转hive了。


Hive组成

Hive包蕴用户接口、元数据库、解析器和数据仓库等零件组成,个中用户接口包含shell客户端、JDBC、ODBC、Web接口等。
元数据库重点是钦点义在hive中的表结构新闻,一般保存到关系型数据库中,私下认可是derby,一般采纳mysql实行保存。
解析器重要成效是将HQL语句转换为mapreduce代码。
数据仓库正是由hdfs组成的多少存款和储蓄容器。

    【数据仓库】英文名称为
Data Warehouse,可简写为 DW 或
DWH。数据仓库,是为公司持有级其他决策制定进度,提供具有连串数据协助的战略集合。它是单个数据存款和储蓄,出于分析性报告和表决支持目标而成立。为须求工作智能的店堂,提供指导业务流程创新、监视时间、开销、品质以及控制。一句话归纳:
 数据仓库是用来做 查询分析的数据库,
基本不用来做插入,修改,删除操作。

  4858.com 2 

第五有的

Hive的管理

行使hive的台本直接进去hive,或然 hive –service cli

cli常用的一声令下:

  1. 清屏:ctrl + l 或者 !clear;
  2. 查看数据仓库中的表: show tables;
  3. 翻看数据仓库中的函数:show functions;
  4. 查看表结构: desc 表名;
  5. 翻看hdfs上的文件列表: dfs -ls /user 查看hadoop上/user上的文件
  6. 执行linux命令: !命令
  7. 执行HQL语句:select * from
    test;当执行这么些讲话的时候是不会敞开三个MapReduce义务的,因为这几个是收获全部的数目,获取全体的数码只需求把具有的数码读取出来就足以了,并不要求运营一个职分。可是在履行select
    name from
    test;查询某3个字段的新闻的时候就必要运转二个MapReduce任务了。
  8. 能够实行二个sql脚本:source /root/test.sql
    这么些讲话正是运行三个执行sql脚本。那种艺术正是和mysql执行外部的音信一致。
  9. hive -S 进入hive运行职责不会发出调节和测试消息,直接爆发MapReduce的结果。
  10. hive -e 执行sql语句。hive -e ‘show
    tables’;那样的进行就径直在linux的命令行操作就行,并不供给进入hive的交互式中推行。

Web界面格局:

起始格局: #hive –service hwi &
在0.13.0中并没有包罗web管理的war包,须要协调编写翻译。

下载hive源码包,并且解压源码包,然后进入源码路径下的hwi目录,使用:jar
cvfM0 hive-hwi-0.13.0.war -C web/ .
那样就会打成三个war包,把那些war包拷贝到hive的lib目录下,同时必要修改hive-site.xml
配置文件,那一个修改能够在wiki上来看。

<property>
  <name>hive.hwi.listen.host</name>
  <value>0.0.0.0</value>
  <description>This is the host address the Hive Web Interface will listen on</description>
</property>

<property>
  <name>hive.hwi.listen.port</name>
  <value>9999</value>
  <description>This is the port the Hive Web Interface will listen on</description>
</property>

<property>
  <name>hive.hwi.war.file</name>
  <value>lib/hive-hwi-0.13.0.war</value>
  <description>This is the WAR file with the jsp content for Hive Web Interface</description>
</property>

那个就能够使用hive –service
hwi运行web服务了,不过在做客那一个web应用的时候,浏览器依旧报出了500的不当。这一个题材亟需拷贝jdk的tools.jar
拷贝到hive的lib目录下。

其权且候就能够打开那个web界面了。

hive的远程服务

启航hive的长距离服务的授命如下: hive –service hiveserver &
假设要动用jdbc连接hive举行操作,那个时候就须要开启hive的长途服务。


Hive架构

4858.com 3

image.png

 壹 、数据处理分类

  ① 、用户接口

第四某些

Hive的数据类型

  • 大旨数据类型:
    tinyint/smallint/int/bigint 整数类型
    float/double 浮点类型
    boolean 布尔项目
    string/varchar/char 字符串类型

  • 复杂数据类型:
    array:数组类型,由一多元一样的数据类型的成分构成
    map:集合类型,包括key->value键值对,可以透过key来访问成分。
    struct:结构类型,可以蕴含不一样数据类型的因素,这一个要素得以通
    过“点语法”的法子来获取所要求的成分。

create table student (
age int,
name string,
grade array<float>);

插入的时候就是: {1, wangmin, [10,20,30]};

create table student1 (
sid int,
sname string,
grade map<string, float>);

插入数据的时候: {1,wangmin,<'大学语文', 85>}

create table studnet3(
sid int,
sname string,
grades array<map<string, float>>);

插入数据的时候:{1, wangmin, [<'大学语文‘, 12>,<'大学英语’,23>]}

create table student4(
sid int,
info struct<nname:string, age:int, sex:string>);

插入数据的时候:{1, {'wangmin', 23, ‘男’}}
  • 时光项目:
    Date: 日期(年月日)
    Timestamp: 是unix的二个日子偏移量
    select unix_timestamp(); 查看系统的年月偏移量

Hive安装

Hive依照metastore的储存地点区别,分为二种安装方式:
内嵌情势,本地格局,远程方式。
内嵌方式正是行使derdy存款和储蓄元数据;
本地格局是将hvie.metastore.local设置为true,正是说metastore和hive客户端安装在同一台机械上;
远程形式指的是大家显著钦点metastore安装的机械位置,而且能够钦点多个,须求加以参数hive.metastore.uris并且hive.metastore.local必须安装为false。
Hive远程形式安装,使用mysql举办元数据的存款和储蓄。

设置步骤:

  1. 安装mysql数据库。
  2. hive本地格局安装。

(1)联机事务处理
OLTP(on-linetransaction processing)  

    Hive有多少个用户接口:

第⑤部分

Hive的数目存储

依据HDFS,没有尤其的多少存款和储蓄格式
Hive的数据模型:

表可以分成以下二种:

  • Table 内部表
  • Partition 分区表
  • External Table 外部表
  • Bucket Table 桶表

create table t1
(tid int, tname string, age int);

create table t2
(tid int, tname string age int);
localtion '/mytable/hive/t2';

create table t3
(tid int, tname string, age int)
row format delimited fields terminated by ',';

create table t4
as
select * from sample_date;

create table t5
row format delimited fields terminated by ','
as
select * from sample_data;

分区表:

create table partition_table
(sid int, sname string)
partitioned by (gender string)
row format delimited fields terminated by ',';

创办那张表的时候便是以gender进行分区 分区表能够加速查询效用

Hive安装–Mysql安装

安装步骤:

  1. 选取root用户安装mysql。
  2. 修改/etc/my.cnf文件中的配置新闻。
  3. 启动mysql
  4. 安装root用户密码
  5. root用户登录
  6. 开创hive元数据的mysql用户并授权。
  7. 动用新用户登录,然后创造数据库,并修改数据库的连年方式。

  OLTP是观念的关系型数据库的要紧行使,主假诺基本的、日常的事务处理,例如银行交易。OLTP系统强调数据库内部存款和储蓄器功能,强调内存各个目标的命令率,强调绑定变量,强调并发操作;

    • 指令行接口(CLI):以命令行的花样输入SQL语句实行数据数据操作
    • Web界面:通过Web格局开始展览走访。     
    • Hive的远程服务方法:通过JDBC等艺术展开走访。              

Hive安装–Hive安装

设置步骤:

  1. 下载hive,下载地址:http://archive.cloudera.com/cdh5/cdh/5/hive-0.13.1-cdh5.3.6.tar.gz
  2. 解压下载的压缩包。
  3. 计划环境变量hive-site.xml。
  4. 将mysql-connector-java-5.1.31.jar活动到hive的lib文件夹下。
  5. 将bin目录添加到$PATH环境变量中去。
  6. 启动metastore服务。hive –service metastore &.
  7. 进入hive的shell客户端,验证是或不是安装成功。

 

  贰 、元数据存款和储蓄

Hive Web界面安装

Hive提供了1个Web的操作客户端,一般大家透过该页面查看hive的音讯,配置消息包涵:
hive.hwi.listen.host内定监听ip(默许0.0.0.0),
hive.hwi.listen.port监听端口(暗许9999),
hive.hwi.war.file=xxx。

此外部须求要将java的tool.jar文件移动到hive的lib文件夹中。

开发银行命令为:
hive --service hwi &

一、 安装mysql
    1. 使用root用户: su root
    2. 安装
        yum install mysql
        yum install mysql-server
        yum install mysql-devel(可选)
    3. 修改配置信息,添加: vim /etc/my.cnf
        [mysql]
        default-character-set=utf8
        [mysqld]
        character-set-server=utf8
        lower_case_table_names=1
    4. 启动mysql:service mysqld restart/stop/start
    5. 配置超级用户名和密码, mysqladmin -u root password 123456
    6. root用户登录mysql -u root -p 123456
    7. 创建mysql用户:create user 'hive' identified by 'hive';
    8. 授权:grant all privileges on *.* to 'hive'@'%' with grant option
    9. 重启一下这个mysql服务。
    10. 使用hive用户创建数据库并修改连接信息。
       create database hive;
       alter database hive character set latin1;


二、 安装hive
    1. 下载hive:http://archive.cloudera.com/cdh5/cdh/5/hive-0.13.1-cdh5.3.6.tar.gz
    2. hive的帮助文档位置:https://cwiki.apache.org/confluence/display/Hive/LanguageManual,
        hive官网:http://hive.apache.org
    3. 参考hive-site.xml文件
    4. 将bin目录添加到path目录中,
        vim ~/.bash_profile
            export HIVE_HOME=/home/hadoop/bigdater/hive-0.13.1-cdh5.3.6/
            export PATH=$PATH:$HIVE_HOME/bin
        source ~/.bash_profile
    5. 移动mysql驱动jar到hive的lib文件夹下。
    6. 启动metastore服务(启动hdfs+yarn服务)
        hive --service metastore &
    7. 进入hive的客户端
        hive



<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>
  <property>
    <name>hive.metastore.uris</name>
    <value>thrift://hh:9083</value>
  </property>
  <property>
    <name>hive.metastore.warehouse.dir</name>
    <value>/hive</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionURL</name>
    <value>jdbc:mysql://hh:3306/hive?createDatabaseIfNotExist=true&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionDriverName</name>
    <value>com.mysql.jdbc.Driver</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionUserName</name>
    <value>hive</value>
  </property>
  <property>
    <name>javax.jdo.option.ConnectionPassword</name>
    <value>hive</value>
  </property>
</configuration>

(2)联机分析处理P
OLAP(On-Line AnalyticalProcessing)

   
将元数据存款和储蓄在关周详据库中(MySql、Derby),元数据包蕴表的属性、表的名号、表的列、分区及其脾气以及表数据所在的目录等。

  OLAP是数据仓库系统的重庆大学选拔,扶助复杂的剖析操作,侧重决策扶助,并且提供直观易懂的询问结果。OLAP系统则强调数据解析,强调SQL执行市镇,强调磁盘I/O,强调分区等。

  3、解释器、编译器、优化器

 

   
分别完毕SQL查询语句从词法分析、语法分析、编写翻译、优化以及查询陈设的更动。生成的询问布置存款和储蓄在HDFS中,并在随之由MapReduce调用实践。

 

4858.com,  四 、数据存款和储蓄

—类比表

   
Hive没有专门的数据存款和储蓄格式,也从没为数量建立目录,Hive中拥有数据都存款和储蓄在HDFS中。

4858.com 4

    Hive包蕴以下数据模型:表、外部表、分区和桶

 

二、Metadata,Metastore 的作用

 

  Metadata即元数据:  
元数据包括用Hive创建的database、tabel等的元消息。元数据存款和储蓄在关系型数据库中。如Derby、MySQL等。

2.hive架构原理

  Metastore的效益是:
 客户端连接metastore服务,metastore再去老是MySQL数据库来存取元数据。

用户接口首要有多少个:CLI命令行,Client 和 WUI。

  有了metastore服务,就能够有七个客户端同时连接,而且这几个客户端不须要明白MySQL数据库的用户名和密码,只须要连接metastore
服务即可。

4858.com 5

叁 、Hive的元数据存款和储蓄(Metastore三种配备形式)

(1)最常用的是
CLI 命令行,Cli运转的时候,会同时起步一个Hive副本;
Client是Hive的客户端,用户连接至Hive Server。

  由于元数据持续地修改、更新,所以Hive元数据不切合储存在HDFS中,一般存在君越DBMS中。

在起步Client情势的时候,供给建议Hive
Server所在节点,并且在该节点运行Hive Server。
WUI是由此浏览器访问Hive。

  
壹 、内嵌方式(Embedded)

(2)Hive将
元数据存储在数据库中,如mysql、 derby 。
Hive中的元数据包罗表的名字,表的列和分区及其性质,表的属性(是或不是为外

   
 hive服务和metastore服务运转在同一个经过中,derby服务也运转在该进度中.

 部表等),表的多少所在目录等。

   
 内嵌形式接纳的是内嵌的Derby数据库来储存元数据,也不必要卓殊起Metastore服务。

(3)解释器、编写翻译器、优化器完结HQL查询语句从词法分析、语法分析、编写翻译、优化以及询问陈设的转变。生成的查询安排存款和储蓄在HDFS中,

   
 这一个是私下认可的,配置不难,不过三遍只可以多个客户端连接,适用于用来试验,不适用于生产环境。

并在随着有MapReduce调用实践。

   二 、本地形式(Local):本地安装mysql 替代derby存款和储蓄元数据

(4)Hive的数量存款和储蓄在HDFS中,抢先1/2的询问、总括由MapReduce达成(包括*的查询,比如select
* from tbl不会生成MapRedcue职分)

    那种装置格局和嵌入式的分别在于,不再行使内嵌的Derby作为元数据的存款和储蓄介质,而是使用其余数据库比如MySQL来囤积元数据。

 

    hive服务和metastore服务运行在同1个进度中,mysql是单独的长河,能够一如既往台机器,也得以在中距离机器上。

 二 、hive搭建及二种情势

    那种办法是3个多用户的方式,运转多个用户client连接受2个数据库中。那种艺术相似作为店铺里面同时接纳Hive。

 1.hive的搭建

    每二个用户必须求有对MySQL的造访职责,即每二个客户端使用者需求精晓MySQL的用户名和密码才行。

 

  <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://127.0.0.1:3306/hive? createDatabaseIfNotExit=true</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>root</value>
    </property>
    <property>
      <name>hive.metastore.uris</name>
      <value></value>
      <description>指向的是运行metastore服务的主机,这是hive客户端配置,metastore服务不需要配置</description>
   </property>
    <property>
      <name>hive.metastore.warehouse.dir</name>
      <value>/user/hive/warehouse</value>
      <description>hive表的默认存储路径,为HDFS的路径location of default database for the warehouse</description>
    </property>

 1.一 、安装
Hive安装环境以及前提表明:首先,Hive 是依靠于 hadoop 系统的,因此在运作
Hive 从前供给有限支持已经搭建好 hadoop 集群环境。

 

—安装三个关系型数据
mysql

  叁 、远程方式(Remote): 远程安装mysql 替代derby存款和储蓄元数据

4858.com 6

    Hive服务和metastore在分歧的进程内,大概是见仁见智的机器,该格局需求将hive.metastore.local设置为false,将hive.metastore.uris设置为metastore服务器UPRADOL,

 

    借使有两个metastore服务器,将URubiconL之间用逗号分隔,metastore服务器URubiconL的格式为thrift://127.0.0.1:9083。

1.② 、配置环境变量:(类似于上面那样,跟从前hadoop八分之四.x 配置一样)

    远程元存款和储蓄须要独自起metastore服务,然后每一个客户端都在布局文件里安顿连接到该metastore服务。


HADOOP_HOME=/**/*

HIVE_HOME=$*/**/*

    将metadata作为三个独门的劳务拓展运营。各个客户端通过beeline来连接,连接以前无需清楚数据库的密码。

1.叁 、替换和增进相关 jar
包–修改 HADOOP_HOME\share/hadoop/yarn/lib 目录下的
jline-*.jar将其替换到 心悸E_HOME\lib 下的 jline-2.12.jar。

    仅连接远程的mysql并不能称之为“远程方式”,是还是不是远程指的是metastore和hive服务是或不是在相同进度内.

–将 hive 连接
mysql 的 jar 包:mysql-connector-java-5.1.32-bin.jar拷贝到 hive
解压目录的 lib 目录下

    hive metastore 服务端运转命令:
hive --service metastore -p <port_num>
    假若不加端口默许运行:hive --service metastore,则默许监听端口是:9083

1.四 、修改配置文件(选拔3 种情势里哪一类)见两种安装形式
1.5、启动
hive:bin/hive

    注意客户端中的端口配置须要和开发银行监听的端口一致。服务端运转平常后,客户端就足以实施hive操作了。

 

      客户端连接metastore服务配置如下

2.二种方式: (内嵌形式/本地情势/远程情势)

 <property>
    <name>hive.metastore.uris</name>
    <value>thrift://127.0.0.1:9083,thrift://127.0.0.1:9084</value>
    <description>指向的是运行metastore服务的主机</description>
  </property>

 2.1
内嵌方式

  在劳动器端运维一个MetaStoreServer,客户端采取Thrift协议通过MetaStoreServer访问元数据库。如下图:    

那种装置格局的元数据是内嵌在Derby数据库中的,只好同意2个对话连接,数据会存放到HDFS上。

  4858.com 7

那种办法是最容易易行的蕴藏格局,只须求hive-site.xml做如下配置便可(注:使用
derby 存款和储蓄方式时,运转 hive 会在当

四、Thrift 服务 

前目录生成一个derby 文件和2个 metastore_db)

  通过hiveServer/hiveServer2运营Thrift服务,客户端连接Thrift服务走访Hive数据库(JDBC,JAVA等连接Thrift服务走访Hive)。

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:derby:;databaseName=metastore_db;creat
e=true</value> </property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>org.apache.derby.jdbc.EmbeddedDriver</value>
</property>
<property>
<name>hive.metastore.local</name>
<value>true</value>
</property>
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
</property>
</configuration>
 <property>
    <name>hive.server2.thrift.port</name>
    <value></value>
    <description>Port number of HiveServer2 Thrift interface when hive.server2.transport.mode is 'binary'.</description>
  </property>

  <property>
    <name>hive.server2.thrift.bind.host</name>
    <value>127.0.0.1</value>
    <description>Bind host on which to run the HiveServer2 Thrift service.</description>
  </property>

  <property>
    <name>hive.server2.enable.doAs</name>
    <value>false</value>
    <description>
      Setting this property to true will have HiveServer2 execute
      Hive operations as the user making the calls to it.
    如果为True:Hive Server会以提交用户的身份去执行语句
    如果为False:会以hive server daemon的admin user来执行语句

    </description>
  </property>

 

  启动Thrift服务:**hive
–service hiveserver2**

 2.2 本地格局

   测试Thrift服务:

 这种设置形式和嵌入式的分歧在于,不再使用内嵌的
Derby 作为元数据的存款和储蓄介质,而是利用此外数据库比如 MySQL
来储存元数据且是1个多用户的格局

   新开3个指令行窗口,执行beeline命令:

运营五个用户
client 连接到2个数据库中。那种措施一般作为集团内部同时选拔Hive。那里有二个前提,每二个用户必须要有对 MySQL 的走访义务,即每

shuwendeMBP:~ shuwen$ beeline
Beeline version 1.2.1.spark2 by Apache Hive
beeline> !connect jdbc:hive2://127.0.0.1:10000
Connecting to jdbc:hive2://127.0.0.1:10000
Enter username for jdbc:hive2://127.0.0.1:10000: shuwen
Enter password for jdbc:hive2://127.0.0.1:10000: ******
log4j:WARN No appenders could be found for logger (org.apache.hive.jdbc.Utils).
log4j:WARN Please initialize the log4j system properly.
log4j:WARN See http://logging.apache.org/log4j/1.2/faq.html#noconfig for more info.
Connected to: Apache Hive (version 1.2.2)
Driver: Hive JDBC (version 1.2.1.spark2)
Transaction isolation: TRANSACTION_REPEATABLE_READ
0: jdbc:hive2://127.0.0.1:10000> show databases;
+----------------+--+
| database_name  |
+----------------+--+
| db_2_1         |
| default        |
| netuml         |
+----------------+--+
3 rows selected (1.941 seconds)

多个客户端使用者供给精晓MySQL 的用户名和密码才行。那种存储格局须要在地点运营一个 mysql
服务器,并作如下配置(下边三种采用 mysql 的章程,

 

亟待将 mysql 的
jar 包拷贝到$痛风症E_HOME/lib 目录下)。

伍 、Hive的三种运维形式

注: mysql-connector-java-5.1.32-bin.jar拷贝到
hive 解压目录的 lib 目录下

   壹 、hive 命令行情势

 (jar包 链接:
密码:4k6w)

    进入hive安装目录,输入bin/hive的执行顺序,或然输入 hive –service
cli,用于linux平台命令行查询,查询语句基本跟mysql查询语句看似

 vim hive-site-xml   配置如下:

   二 、hive
web界面包车型地铁开发银行方式

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
    <!--数据仓库的位置,默认是/user/hive/warehouse-->
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive_rlocal/warehouse</value>
</property>
<property>
    <!--控制hive是否连接一个远程metastore服务器还是开启一个本地客户端jvm-->
<name>hive.metastore.local</name>
<value>true</value>
</property>
<property>
    <!--JDBC连接字符串,默认jdbc:derby:;databaseName=metastore_db;create=true-->
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://node03/hive_remote?createDatabaseIfNotExist=t
rue</value>
</property>
<property>
    <!--JDBC的driver,默认org.apache.derby.jdbc.EmbeddedDriver-->
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
</property>
<property>
    <!--username,默认APP-->
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
</property>

    Hive 2.0 未来才支撑Web
UI的

 

    bin/hive –service hwi (&
表示后台运营)

 

    用于通过浏览器来拜访hive,感觉没多大用途,浏览器访问地址是:127.0.0.1:9999/hwi

启动:

   ③ 、hive 远程服务 (端口号一千0)
运营方式 (Thrift服务)

①拉开集群(hive需求借助集群);  service  iptables stop     zkServer.sh
start   start-all.sh

     bin/hive –service hiveserver2
&(&代表后台运转)

②打开mysql服务器:先在mysql中链接到客户端,本机创设的数据库名为hive

   
 用java,python等程序实现通过jdbc等驱动的走访hive就用那种起动格局了,那些是程序员最亟需的章程了

4858.com 8

 

 

陆 、Hive两种内置服务 

 再到客户端:service  mysqld start    —–> mysql  -u root   -p  
(用户名/密码)

  执行bin/hive –service help 如下:

 4858.com 9

shuwendeMBP:~ shuwen$ hive --service help
Usage ./hive <parameters> --service serviceName <service parameters>
Service List: beeline cli help hiveburninclient hiveserver hiveserver2 hwi jar lineage metastore metatool orcfiledump rcfilecat schemaTool version 
Parameters parsed:
  --auxpath : Auxillary jars 
  --config : Hive configuration directory
  --service : Starts specific service/component. cli is default
Parameters used:
  HADOOP_HOME or HADOOP_PREFIX : Hadoop install directory
  HIVE_OPT : Hive options
For help on a particular service:
  ./hive --service serviceName --help
Debug help:  ./hive --debug --help

 

  大家得以看出上边输出项Server
List,里边呈现出Hive辅助的劳务列表,beeline cli help hiveserver2
hiveserver hwi jar lineage metastore metatool orcfiledump rcfilecat。

 ③启动hive:  执行hive

  下边介绍最可行的局地劳务

4858.com 10

  壹 、cli:是Command Line Interface
的缩写,是Hive的指令行界面,用的可比多,是私下认可服务,直接能够在命令行里使用。

 

  三 、hwi:其实就是hive web interface的缩写它是hive的web借口,是hive
cli的一个web替代方案。

小规模试制牛刀:

  ② 、hiveserver:这么些能够让Hive以提供Thrift服务的服务器情势来运作,能够允许许多个区别语言编写的客户端实行通讯,使用供给运维HiveServer服务以和客户端联系,

创建一个数据库:zhangsan

hive> show databases;
OK
default
wuxiong
Time taken: 0.051 seconds, Fetched: 2 row(s)
hive> create  database  zhangsan;
OK
Time taken: 0.113 seconds
hive> show databases;
OK
default
wuxiong
zhangsan
Time taken: 0.046 seconds, Fetched: 3 row(s)
hive> 

    大家得以因而设置HIVE_PO翼虎T环境变量来安装服务器所监听的端口,在暗许景况下,端口号为一千0,这么些能够通过以下方法来运营Hiverserver:

 

    bin/hive –service hiveserver -p 10002

是否见效:①翻看集群对应的目录 :  
 hive-site-xml配置文件中已定义了目录的寄放地方:/user/hive/warehouse  
 ——>打开node02节点(active)

    在那之中-p参数也是用来钦点监听端口的
  
  ④ 、jar:与hadoop jar等价的Hive接口,这是运营类路径中同时涵盖Hadoop
和Hive类的Java应用程序的简便方法

4858.com 11

  伍 、metastore:在默许的情况下,metastore和hive服务运作在同3个进程中,使用那几个服务,能够让metastore作为二个独门的长河运营。

②本地mysql数据库hive中查看:hive_remote
 —–>dbs—–>会发现:

    大家能够通过METASTOE——PO宝马7系T来内定监听的端口号

 4858.com 12

 

 

 柒 、难点总计

 ok,数据库成立实现!存放地点也能找到!

Could not create ServerSocket on address 0.0.0.0/0.0.0.0:9083

相见那种情景大家都找不到头绪,是因为您开端运维了hive的metastore,能够输入jps
查阅有没有RunJar
接下来再输入
hive –service metastore启动

接上述’zhangsan’数据库继续创立一张表:

 

 use   zhangsan;

style=”font-size: 15px; color: #000000;”>Hive在spark2.0.0运转时无法访问spark-assembly-*.jar的化解办法

ls:
/usr/local/share/spark-2.0.0-bin-hadoop2.7/lib/spark-assembly-*.jar:
No such file or directory
发觉重庆大学原因是:在/<帕特hToHive>/bin/hive文件中,有那样的命令:加载spark中有关的JA普拉多包

if [[ -n "$SPARK_HOME" ]]
then
sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`
CLASSPATH="${CLASSPATH}:${sparkAssemblyPath}"
fi

style=”font-family: 大篆; font-size: 14px;”>但是spark升级到spark2今后,原有lib目录下的大JATiguan包被分流成多少个小JACRUISER包,原来的spark-assembly-*.jar已经不存在,所以hive没有办法找到那个JA凯雷德包。

style=”font-family: 燕书; font-size: 14px;”>化解方法:修改/<PathToHive>/bin/hive文件,将加载原来的lib/spark-assembly-*.jar`替换成jars/*.jar,就不会产出这么的标题。

 4858.com 13

 

查找:①mysql—>hive—–>hive_remote——>TBLS

 

4858.com 14

1.hive.metastore.uris针对的是运作metastore服务的主机,并不是指向运转hiveserver的主机,那台主机不用运维hiveserver也ok;

2.直接使用hive命令运营shell环境时,其实早已有意无意运维了hiveserver,所以远程情势下实际只需求独自运营metastore,然后就足以进入shell环境常规使用

3.hiveserver和metastore进度名都叫RunJar。

 ②集群中:

 

4858.com 15

 2.3 远程形式

     
 remote:那种存款和储蓄形式亟待在远端服务器运营二个 mysql 服务器,并且要求在
Hive 服务器运转 meta服务。本机配置了

几个节点:node0一 、node0二 、node03,node01仲春布局了mysql,未来以node02为服务端,node03为客户端依次配置系统文件

hive-site.xml 

 node02配置如下:

 

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionURL</name>
        <value>jdbc:mysql://node01:3306/hive2?createDatabaseIfNotExist=true</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionDriverName</name>
        <value>com.mysql.jdbc.Driver</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionUserName</name>
        <value>root</value>
    </property>
    <property>
        <name>javax.jdo.option.ConnectionPassword</name>
        <value>123456</value>
    </property>
</configuration>

 

 

node03配置如下:

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
    <property>
        <name>hive.metastore.warehouse.dir</name>
        <value>/user/hive/warehouse</value>
    </property>
    <property>
        <name>hive.metastore.local</name>
        <value>false</value>
        </property>
    <property>
        <name>hive.metastore.uris</name>
        <value>thrift://node01:9083</value>
    </property>
</configuration>

 

启动:

node02 (服务端):  hive –server  metastore

node03(客户端):启动 hive

 

发表评论

电子邮件地址不会被公开。 必填项已用*标注

网站地图xml地图
Copyright @ 2010-2019 美高梅手机版4858 版权所有