spark集群启动时节点报错Exception in thread "main" java.lang.NoClassDefFoundError: org/slf4j/Logger 10
已配置好hadoop2.7+spark1.4,且每个节点上的sparkpi程序均运行成功。但启动节点时却报如下错误。求大神帮忙。...
已配置好hadoop2.7+spark1.4,且每个节点上的spark pi程序均运行成功。但启动节点时却报如下错误。求大神帮忙。
展开
4个回答
展开全部
缺少jar包,-cp后面的classpath中,把slf4j相关的jar包也得指定
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
将/home/centos/soft/hadoop/share/hadoop/common/lib目录下的slf4j-api-1.7.5.jar文件,slf4j-log4j12-1.7.5.jar文件和commons-logging-1.1.3.jar文件拷贝到/home/centos/soft/spark/jars目录下
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
修改spark-env.sh配置
export SPARK_DIST_CLASSPATH=$(/Users/zzg/cloudera/cdh5.11/hadoop/bin/hadoop classpath)
其中具体路径 根据你实际情况
export SPARK_DIST_CLASSPATH=$(/Users/zzg/cloudera/cdh5.11/hadoop/bin/hadoop classpath)
其中具体路径 根据你实际情况
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
展开全部
这个问题我也遇到了,有解决的么
已赞过
已踩过<
评论
收起
你对这个回答的评价是?
推荐律师服务:
若未解决您的问题,请您详细描述您的问题,通过百度律临进行免费专业咨询