文章目录
- 1、报错内容
- 2、解决方式
- 3、再次启动Spark集群
1、报错内容
Spark启动时报错:
hadoop104: JAVA_HOME is not set
2、解决方式
解决方式:
打开启动配置文件
cd /opt/module/spark-standalone/sbin/
vim spark-config.sh
配置Java的环境变量
#JAVA_HOME
export JAVA_HOME=/usr/local/java/jdk1.8.0_181
export PATH=$JAVA_HOME/bin:$PATH
3、再次启动Spark集群
启动Spark集群
./sbin/start-all.sh