大家好,欢迎来到IT知识分享网。
本安装依赖Haddop2.10.1, 参见Hadoop安装, 同时已成功安装mysql,我安装的Mysql5
安装前把Hadoop启动起来:./sbin/start-dfs.sh
一、下载Hive与MySQL jdbc 连接驱动
apache-hive-2.3.9-bin.tar.gz
mysql-connector-java-5.1.49.jar
IT知识分享网
二、解压安装Hive
1.解压到 /etc/目录下,并命名为 hive-2.3.9
IT知识分享网tar -xzvf apache-hive-2.3.9-bin.tar.gz /etc/
mv apache-hive-2.3.9-bin hive-2.3.9
可以看到hadoop和hive我都安装在/etc/目录下
2.配置Hive环境变量
修改/etc/profile
使得修改生效
source /etc/profile
执行 hive –version
3.hadoop下创建hive所用文件夹
1) 创建hive所需文件目录
hdfs dfs -mkdir -p /etc/hadoop2.10.1/hive/tmp
hdfs dfs -mkdir -p /etc/hadoop2.10.1/hive/data
hdfs dfs -chmod g+w /etc/hadoop2.10.1/hive/tmp
hdfs dfs -chmod g+w /etc/hadoop2.10.1/hive/data
2)检查是否创建成功
三、修改配置文件
cd /etc/hadoop-2.10.1/hive-2.3.9/conf
1.复制并重命名配置文件
2.修改hive-env.sh,配置java及hadoop环境变量,hive的conf目录,不需要配置HIVE_HOME
3.修改hive-site.xml
调整mysql的连接
ConnectionURL、ConnectionDriverName、ConnectionUserName、ConnectionPassword。
jdbc:mysql://192.168.21.1:3306/hive_db?createDatabaseIfNotExist=true&characterEncoding=UTF-8&useSSL=false
将MySQL驱动copy至hive lib下面
cp mysql-connector-java-5.1.49.jar /etc/hive-2.3.9/lib/
四、初始化Hive
可以看到mysql的hive_db中的表已生成
启动hive:hive –service metastore
免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://yundeesoft.com/6178.html