我是靠谱客的博主 懦弱信封,这篇文章主要介绍java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration,现在分享给大家,希望可以做个参考。

IDEA打包Spark-HBase程序时缺少jar包,把spark submit到集群中运行时报错:

Exception in thread “main” java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration
at SparkHbase
在这里插入图片描述
解决办法:
1、在hadoop安装目录下找到hadoop-env.sh文件

添加 :

复制代码
1
2
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/usr/local/src/hbase-0.98.6-hadoop2/lib/*

/usr/local/src/hbase-0.98.6-hadoop2 为自己的hbase安装路径

2、在spark安装路径的conf文件夹找到spark-env.sh

添加 :

复制代码
1
2
export SPARK_CLASSPATH=/usr/local/src/hbase-0.98.6-hadoop2/lib/*

在这里插入图片描述
/usr/local/src/hbase-0.98.6-hadoop2 为自己的hbase安装路径

source spark-env.sh
重新提交spark服务,问题解决!

最后

以上就是懦弱信封最近收集整理的关于java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration的全部内容,更多相关java.lang.NoClassDefFoundError:内容请搜索靠谱客的其他文章。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(100)

评论列表共有 0 条评论

立即
投稿
返回
顶部