运行spark程序的时候报错:HADOOP_HOME and hadoop.home.dir are unset怎么办?

提问者:帅平 问题分类:大数据
在idea里面运行spark程序,结果报错了,提示:
Caused by: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset.
	at org.apache.hadoop.util.Shell.checkHadoopHomeInner(Shell.java:468)
	at org.apache.hadoop.util.Shell.checkHadoopHome(Shell.java:439)
	at org.apache.hadoop.util.Shell.<clinit>(Shell.java:516)

请问怎么办?
1 个回答
浴血而重生
浴血而重生
去下面的地址下载一个对应的hadoop版本:
https://github.com/cdarlint/winutils

如果没有对应的版本,则下载一个最近的版本即可,下载完成之后,在windows系统的环境变量里面配置下HADOOP_HOME,然后重启idea即可。
发布于:6个月前 (01-25) IP属地:未知
我来回答