跟我学,一起完成Hive安装部署「建议收藏」

跟我学,一起完成Hive安装部署「建议收藏」5创建hive账号安装hive客户端,我们使用mysql元数据库,类似与Hadoop安装,需要创建新的用户。

大家好,欢迎来到IT知识分享网。

1.Mysql安装

1.1在线安装MySQL

使用yum在线安装mysql:yum install mysql-server

1.2查看mysql服务状态

使用service mysqld status 命令查看mysql状态

1.3启动mysql服务

使用service mysqld start命令启动mysql服务

1.4设置mysql root用户密码

Mysql刚刚安装完成,默认root用户是没有密码的,登录mysql设置root用户密码。

第一次登陆输入以下命令:mysql -u root -p

Enter password: 默认没有密码,回车即可。

进入mysql后,输入如下命令设置root用户密码:

set password for root@localhost=password(‘root’);

第二次登陆输入以下命令:mysql -u root -p密码为root

1.5创建hive账号

安装hive客户端,我们使用mysql元数据库,类似与Hadoop安装,需要创建新的用户。

这里比如创建hive 用户

create user ‘hive’ identified by ‘hive’;

将mysql所有权限授予hive用户

grant all on *.* to ‘hive’@’hadoop03’ identified by ‘hive’;

刷新信息

flush privileges;

查看mysql 用户表user

select host ,user,password from mysql.user;

更新用户信息(授权所有ip连接mysql)

update mysql.user set Host=’%’ where User = ‘root’ and Host=’localhost’

1.6创建hive数据库

使用hive用户登录mysql

mysql -h hadoop03 -uhive -p (密码为hive)

创建数据库hive

mysql> create database hive;

查看所有数据库

mysql> show databases;

2.Hive 安装配置

2.1下载

CDH版本:http://archive-primary.cloudera.com/cdh5/cdh/5/

这里下载hive-1.1.0-cdh5.10.0.tar.gz版本的安装包,上传至hadoop03(规划节点)节点的/home/hadoop/app目录下。

2.2解压

Hive安装包解压命令:tar -zxvf hive-1.1.0-cdh5.10.0.tar.gz

2.3创建软连接

创建软连接:ln -s hive-1.1.0-cdh5.10.0 hive

2.4修改配置文件

2.4.1修改hive-log4j.properties

Hive安装包解压后只有hive-log4j.properties.template模板文件,需要通过模板拷贝一份hive-log4j.properties文件。

mv hive-log4j.properties.template hive-log4j.properties

vi hive-log4j.properties

hive.log.dir=/home/hadoop/app/hive/logs #目录提前创建

2.4.2修改hive-env.sh

Hive安装包解压后只有hive-env.sh.template模板文件,需要通过模板拷贝一份hive-env.sh文件。

mv hive-env.sh.template hive-env.sh

vi hive-env.sh

export HADOOP_HOME=/home/hadoop/app/hadoop

export HIVE_CONF_DIR=/home/hadoop/app/hive/conf

2.4.3修改hive-site.xml

CDH版本的Hive安装包解压后并没有hive-site.xml文件,可以从Apache版本中的解压文件获取hive-default.xml.template模板文件,然后再拷贝一份hive-site.xml文件。

mv hive-default.xml.template hive-site.xml

vi hive-site.xml

<configuration>

<property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://hadoop03/metastore?createDatabaseIfNotExist=true</value>

</property>

<property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.jdbc.Driver</value>

</property>

<property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>hive</value>

</property>

<property>

<name>javax.jdo.option.ConnectionPassword</name>

<value>hive</value>

</property>

</configuration>

2.5添加mysql驱动包

下载mysql-connector-java-5.1.38.jar,将mysql驱动包拷贝到hive的lib目录下。

3.Hive服务启动与测试

3.1启动HDFS与YARN服务

sbin/start-dfs.sh

sbin/start-yarn.sh

3.2启动hive服务

bin/hive

如果单独配置的Metastore,得先启动metastore服务,然后再启动hive.

bin/hive –service metastore

bin/hive

3.3测试运行

3.3.1创建表

通过hive服务创建表

CREATE TABLE stu(id INT,name STRING) ROW FORMAT DELIMITED FIELDS TERMINATED BY ‘\t’ ;

3.3.2准备测试数据集

创建数据文件

vi /home/hadoop/app/hive/stu.txt

00001 zhangsan

00002 lisi

00003 wangwu

00004 zhaoliu

3.3.3数据加载到Hive表

通过如下命令加载数据到hive表中

load data local inpath ‘/home/hadoop/app/hive/stu.txt’ into table stu;

3.3.4表数据查询

通过标准的sql语句查询hive表数据

select * from stu;

4.Hive图像界面配置运行

4.1下载hive源码包

下载对应版本的hive源码包hive-1.1.0-cdh5.10.0-src.tar.gz,上传至hadoop03(规划节点)节点的/home/hadoop/app目录下。

4.2解压

Hive源码包解压命令:tar -zxvf hive-1.1.0-cdh5.10.0-src.tar.gz

4.3打war包

进入hive源码解压目录对hive源码打hive hwi war包

cd hwi/web

jar cvf hive-hwi-1.0.0.war ./*

cp hive-hwi-1.0.0.war ../../../hive/lib/

4.4修改hive-site.xml配置文件

vi hive-site.xml

<property>

<name>hive.hwi.war.file</name>

<value>lib/hive-hwi-1.0.0.war</value>

<description>This sets the path to the HWI war file, relative to ${HIVE_HOME}. </description>

</property>

<property>

<name>hive.hwi.listen.host</name>

<value>0.0.0.0</value>

<description>This is the host address the Hive Web Interface will listen on</description>

</property>

<property>

<name>hive.hwi.listen.port</name>

<value>9999</value>

<description>This is the port the Hive Web Interface will listen on</description>

</property>

4.5启动hive web 模式

Hive Web 界面的启动命令:hive – -service hwi

#通过浏览器访问 Hive,默认端口为 9999。

http://hadoop03:9999/hwi/

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/6188.html

(0)
上一篇 2022-12-17 18:00
下一篇 2022-12-17 18:20

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

关注微信