运行spark程序的时候报错:HADOOP_HOME and hadoop.home.dir are unset怎么办?
在idea里面运行spark程序,结果报错了,提示:
请问怎么办?
Caused by: java.io.FileNotFoundException: HADOOP_HOME and hadoop.home.dir are unset.
at org.apache.hadoop.util.Shell.checkHadoopHomeInner(Shell.java:468)
at org.apache.hadoop.util.Shell.checkHadoopHome(Shell.java:439)
at org.apache.hadoop.util.Shell.<clinit>(Shell.java:516)
请问怎么办?
发布于:1年前 (2024-01-25) IP属地:未知
1 个回答
去下面的地址下载一个对应的hadoop版本:
如果没有对应的版本,则下载一个最近的版本即可,下载完成之后,在windows系统的环境变量里面配置下HADOOP_HOME,然后重启idea即可。
https://github.com/cdarlint/winutils
如果没有对应的版本,则下载一个最近的版本即可,下载完成之后,在windows系统的环境变量里面配置下HADOOP_HOME,然后重启idea即可。
发布于:1年前 (2024-01-25) IP属地:未知
我来回答
您需要 登录 后回答此问题!