hive和sparksql的端口号都是10000,所以在连接时我们要区分连接的是sparksql还是hive。
连接hive:
beeline -u jdbc:hive2://cdh1:10000/default
当出现Connected to: Apache Hive 字样时,表示连接hive成功。
连接sparksql:
在cdh2上启动spark thirft-server服务:
/opt/cloudera/parcels/CDH/lib/spark/sbin/start-thriftserver.sh
再使用beeline连接sparksql:
beeline -u jdbc:hive2://cdh2:10000/default
当出现Connected to: Spark SQL 字样时,表示连接spark sql成功。
从上可以看出,连接hive和连接sparksql的方式是一样的,端口号都是10000。当连接的是hiveserver2所在的节点(即jdbc:hive2://cdh1中的cdh1)时,连接的是hive;当连接的是spark thirft-server所在的节点时,连接的是sparksql。
为了方便连接,我们可以修改spark thrift-server的端口号,如改成10010.
连接impala:
beeline -u jdbc:hive2://cdh1:21050/default
端口号是21050.
最后
以上就是靓丽雪糕最近收集整理的关于使用beeline/jdbc 连接hive,impala,sparksql的全部内容,更多相关使用beeline/jdbc内容请搜索靠谱客的其他文章。
本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
发表评论 取消回复