spark1(默认CDH自带版本)不存在这个问题,主要是升级了spark2(CDHparcel升级)版本安装后需要依赖到spark1的旧配置去读取hadoop集群的依赖包。1./etc/spark2/conf目录需要指向/hadoop1/cloudera-manager/parcel-r...

spark1(默认CDH自带版本)不存在这个问题,主要是升级了spark2(CDHparcel升级)版本安装后需要依赖到spark1的旧配置去读取hadoop集群的依赖包。
1./etc/spark2/conf目录需要指向/hadoop1/cloudera-manager/parcel-repo/SPARK2-2.1.0.cloudera1-1.cdh5.7.0.p0.120904/etc/spark2/conf.dist
(命令ln -s /hadoop1/cloudera-manager/parcel-repo/SPARK2-2.1.0.cloudera1-1.cdh5.7.0.p0.120904/etc/spark2/conf.dist /etc/spark2/conf)
2.指向的目录里的spark-env.sh里面必须有这两个配置其中一个,都是去引用了hadoop环境jar包
(export SPARK_DIST_CLASSPATH=$(paste -sd: "$SELF/classpath.txt")或export SPARK_DIST_CLASSPATH=$(hadoop classpath))
3.利用oozie管理启动spark应用需要关注这个配置参数:oozie.service.SparkConfigurationService.spark.configurations 值:*=/etc/spark2/conf,需要把这个参数同步到每一台机器。这个参数含义是oozie启动spark时候哪里找配置文件
错误Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream排查思路
原文:https://www.cnblogs.com/yaohaitao/p/11703753.html
本文标题为:错误Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream排查思路


基础教程推荐
- P3 利用Vulnhub复现漏洞 - Apache SSI 远程命令执行漏洞 2023-09-10
- Centos 安装Django2.1 2023-09-24
- 为Win2003服务器打造铜墙铁壁的方法步骤 2022-09-01
- 通过StatefulSet部署有状态服务应用实现方式 2022-10-01
- Apache Kafka 2.5 稳定版发布,新特性抢先看 2023-09-11
- RFO SIG之openEuler AWS AMI 制作详解 2022-12-28
- Apache CarbonData 1.0.0发布及其新特性介绍 2023-09-11
- Docker容器操作方法详解 2022-11-13
- windows环境下apache-apollo服务器搭建 2023-09-10
- Centos7 nginx的安装以及开机自启动的设置 2023-09-22