我是靠谱客的博主 傲娇小刺猬,这篇文章主要介绍Hive安装部署,现在分享给大家,希望可以做个参考。

1.首先安装jdk和Hadoop环境,参考Hadoop单机安装_letterss的博客-CSDN博客

2.下载Hive安装包,下载地址:https://www.apache.org/dyn/closer.cgi/hive/

将下载的安装包上传到/data/hive目录,并解压

tar -zxvf apache-hive-2.3.9-bin.tar.gz

配置hive环境

vi /etc/profile

复制代码
1
2
3
4
5
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.322.b06-1.el7_9.x86_64 export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export HADOOP_HOME=/data/hadoop/hadoop-2.10.1 export HIVE_HOME=/data/hive/apache-hive-2.3.9-bin export PATH=.:$JAVA_HOME/bin:$HADOOP_HOME:$HIVE_HOME/bin:$PATH

更新环境变量

source /etc/profile

配置完成可输入hive  --version 查看版本

修改hive配置文件,进去 /data/hive/apache-hive-2.3.9-bin/conf 路径下,创建hive-site.xml文件

vim hive-site.xml

复制代码
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
<configuration> <property> <!-- 元数据库的链接地址 mysql --> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost:3306/hivedb?createDatabaseIfNotExist=true&amp;useSSL=false</value> <description>JDBC connect string for a JDBC metastore</description> <!-- 如果 mysql 和 hive 在同一个服务器节点,那么请更改 hadoop02 为 localhost --> </property> <property> <!-- 指定mysql驱动 --> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <!-- 指定mysql用户名 --> <name>javax.jdo.option.ConnectionUserName</name> <value>root</value> <description>username to use against metastore database</description> </property> <property> <!-- 指定mysql密码 请输入自己的MySQL连接密码 --> <name>javax.jdo.option.ConnectionPassword</name> <value>123456</value> <description>password to use against metastore database</description> </property> <property> <name>hive.metastore.warehouse.dir</name> <value>/data/hive/hivedb</value> <description>hive default warehouse, if nessecory, change it</description> </property> </configuration>

将MySQL的驱动mysql-connector-java-5.1.40-bin.jar添加到hive安装目录的lib下

 元数据库初始化,切换到hive的bin目录下 执行

./schematool -dbType mysql -initSchema

hive的启动,运行hive之前要确保hadoop集群启动和MySQL服务启动正常开启的情况下 

由于配置过环境变量,可以直接在命令行中输入hive  本地启动命令 hive

 测试hive,输入以下建表语句

show databases;
                create database test_work; //新建一个测试库
                use test_work;
              create table test(
                 id      int
              ,name    string
              );
               insert into table test values(1,"wangsheng");
              

以上正常执行,表明hive已经安装和配置完成。可去hdfs图形界面上查看建的表,访问hadoopIP:50070

最后

以上就是傲娇小刺猬最近收集整理的关于Hive安装部署的全部内容,更多相关Hive安装部署内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(115)

评论列表共有 0 条评论

立即
投稿
返回
顶部