Hive的安装与配置[通俗易懂]

Hive的安装与配置[通俗易懂]命令:[root@masterhadoop]$ su – gznc[gznc@master ~]$ mysql -uroot -p登录成功后,新

大家好,欢迎来到IT知识分享网。

Apache Hive是基于hdfs的数据仓库工具,将结构化的数据映射到一张数据库表,通过SQL的方式读写、管理分布式存储的大数据,并提供了命令行工具和JDBC连接到Hive。

3.3.1 Hive的安装与配置

准备工作:

Apache Hive需要Hadoop集群的支持,请您先确保Hadoop可以正常使用。本教程使用的是Hive 0.13.1版本,下载地址:http://archive.apache.org/dist/hive/hive-0.13.1/apache-hive-0.13.1-bin.tar.gz

或:https://share.weiyun.com/5ZRTkRl

请下载apache-hive-0.13.1-bin.tar.gz文件,如果使用windows系统下载,您需要将下载的apache-hive-0.13.1-bin.tar.gz上传到Hadoop集群的master主机上,目录为/home/hadoop/。如果使用Linux系统下载,直接wget下载即可,命令:

[gznc@master hadoop]$ wget http://archive.apache.org/dist/hive/hive-0.13.1/apache-hive-0.13.1-bin.tar.gz

JDBC驱动下载,地址:https://share.weiyun.com/562xxP2

安装与配置:

(1)进入master主机的/home/hadoop/目录,解压apache-hive-0.13.1-bin.tar.gz,注意使用gznc用户,命令:

[gznc@master hadoop]$ tar -zxvf apache-hive-0.13.1-bin.tar.gz

(2)使用Hive时,其元数据需要存储在MySql数据库中,故需要安装MySql数据(如果之前系统已经安装MySql,便不用重新安装)。进入master主机,注意使用root用户进行MySql的安装,使用yum安装时,请先确保能正常连接网络,命令:

[gznc@master hadoop]$ su

[root@master hadoop]# yum install mysql-server

[root@master hadoop]# yum install mysql

[root@master hadoop]# yum install mysql-devel

启动MySql,命令:

[root@master hadoop]# /etc/init.d/mysqld restart

待启动成功后,登录到MySql控制台,对于刚安装的mysql,其初始密码为空(MySql5.7以上的版本初始密码不为空,可使用命令grep “temporary password” /var/log/mysqld.log查看),当然您也可以使用已经安装有mysql的服务器主机,但要确保master能正常访问mysql服务器主机。命令:

[root@master hadoop]$ su – gznc

[gznc@master ~]$ mysql -uroot -p

登录成功后,新建一个名为hadoop、密码为123456的mysql用户,并新建一个名为hive_0131的数据库,命令:

mysql> grant all on *.* to hadoop@’%’ identified by ‘123456’;

mysql>grant all privileges on *.* to ‘hadoop’ @’master’ identified by ‘123456’;

mysql>flush privileges;

mysql>create database hive_0131;

mysql>exit

(3)使用gznc用户,在/home/hadoop/apache-hive-0.13.1-bin/conf/目录下新建一个文件hive-site.xml,命令:

[gznc@master ~]$ cd /home/hadoop/apache-hive-0.13.1-bin/conf/

[gznc@master conf]$ vim hive-site.xml

在文件中输入如下内容:

<?xml version=”1.0″?>

<?xml-stylesheet type=”text/xsl” href=”configuration.xsl”?>

<configuration>

<property>

<name>hive.metastore.local</name>

<value>true</value>

</property>

<property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://master:3306/hive_0131?characterEncoding=UTF-8</value>

</property>

<property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.jdbc.Driver</value>

</property>

<property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>hadoop</value>

</property>

<property>

<name>javax.jdo.option.ConnectionPassword</name>

<value>123456</value>

</property>

</configuration>

(3)将JDBC驱动jar包放在apache-hive-0.13.1-bin/lib/目录下,命令:

[gznc@master ~]$ cd /home/hadoop/

[gznc@master hadoop]$ cp /home/hadoop/mysql-connector-java-5.1.6-bin.jar /home/hadoop/apache-hive-0.13.1-bin/lib/

(4)配置Hive的环境变量,命令:

[gznc@master hadoop]$ vim /home/gznc/.bash_profile

将如下环境变量配置到.bash_profile文件的末尾:

export HIVE_HOME=/home/hadoop/apache-hive-0.13.1-bin

export PATH=$PATH:$HIVE_HOME/bin

使用source命令使环境变量生效,命令:

[gznc@master hadoop]$ source /home/gznc/.bash_profile

(5)启动并验证Hive,命令:

[gznc@master hadoop]$ cd /home/hadoop/apache-hive-0.13.1-bin/bin/

[gznc@master bin]$ hive

如果出现hive>表示安装与配置成功。

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/6171.html

(0)
上一篇 2022-12-17 20:50
下一篇 2022-12-17 21:10

相关推荐

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注

关注微信