大数据基础学习13-Hive安装[通俗易懂]

大数据基础学习13-Hive安装[通俗易懂]本安装依赖Haddop2.10.1, 参见Hadoop安装, 同时已成功安装mysql,我安装的Mysql5安装前把Hadoop启动起来:./s

大家好,欢迎来到IT知识分享网。

本安装依赖Haddop2.10.1, 参见Hadoop安装, 同时已成功安装mysql,我安装的Mysql5

安装前把Hadoop启动起来:./sbin/start-dfs.sh

一、下载Hive与MySQL jdbc 连接驱动

apache-hive-2.3.9-bin.tar.gz
mysql-connector-java-5.1.49.jar

IT知识分享网

大数据基础学习13-Hive安装[通俗易懂]

二、解压安装Hive

1.解压到 /etc/目录下,并命名为 hive-2.3.9

IT知识分享网tar -xzvf apache-hive-2.3.9-bin.tar.gz  /etc/
mv apache-hive-2.3.9-bin  hive-2.3.9
大数据基础学习13-Hive安装[通俗易懂]

可以看到hadoop和hive我都安装在/etc/目录下

2.配置Hive环境变量

修改/etc/profile

大数据基础学习13-Hive安装[通俗易懂]

使得修改生效

source /etc/profile

执行 hive –version

大数据基础学习13-Hive安装[通俗易懂]

3.hadoop下创建hive所用文件夹

1) 创建hive所需文件目录

hdfs dfs -mkdir -p /etc/hadoop2.10.1/hive/tmp

hdfs dfs -mkdir -p /etc/hadoop2.10.1/hive/data

hdfs dfs -chmod g+w /etc/hadoop2.10.1/hive/tmp

hdfs dfs -chmod g+w /etc/hadoop2.10.1/hive/data

2)检查是否创建成功

大数据基础学习13-Hive安装[通俗易懂]

三、修改配置文件

cd /etc/hadoop-2.10.1/hive-2.3.9/conf

1.复制并重命名配置文件

大数据基础学习13-Hive安装[通俗易懂]

2.修改hive-env.sh,配置java及hadoop环境变量,hive的conf目录,不需要配置HIVE_HOME

大数据基础学习13-Hive安装[通俗易懂]

3.修改hive-site.xml

大数据基础学习13-Hive安装[通俗易懂]

大数据基础学习13-Hive安装[通俗易懂]

调整mysql的连接

ConnectionURL、ConnectionDriverName、ConnectionUserName、ConnectionPassword。

jdbc:mysql://192.168.21.1:3306/hive_db?createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false

大数据基础学习13-Hive安装[通俗易懂]

大数据基础学习13-Hive安装[通俗易懂]

大数据基础学习13-Hive安装[通俗易懂]

大数据基础学习13-Hive安装[通俗易懂]

将MySQL驱动copy至hive lib下面

cp mysql-connector-java-5.1.49.jar /etc/hive-2.3.9/lib/

四、初始化Hive

大数据基础学习13-Hive安装[通俗易懂]

可以看到mysql的hive_db中的表已生成

大数据基础学习13-Hive安装[通俗易懂]

启动hive:hive –service metastore

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/6178.html

(0)
上一篇 2022-12-17 19:40
下一篇 2022-12-17 20:00

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信