1 个回答
从这里下载下win的hadoo环境
解压之后把解压后的放到某个目录下,然后再运行spark程序之前,添加此行代码声明下环境就不会报错了。
https://github.com/srccodes/hadoop-common-2.2.0-bin/archive/master.zip
解压之后把解压后的放到某个目录下,然后再运行spark程序之前,添加此行代码声明下环境就不会报错了。
//在windows环境下需要设置hadoop的环境变量,不然运行程序的时候会报错
System.setProperty("hadoop.home.dir", "D:\hadoop-common-2.2.0-bin-master");
发布于:2年前 (2022-12-14) IP属地:四川省
我来回答
您需要 登录 后回答此问题!