window上连接集群跑hadoop问题之java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.

在运行spark程序时,报java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.错误,如下图:

window上连接集群跑hadoop问题之java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows._第1张图片
在网上搜了很多解决方案,结果都没有解决,最后,发现是因为spark下载的版本与hadoop版本不一致,所以要解决这个问题,只需要看一下你的hadoop版本是多少,例如我这里是2.6.0
window上连接集群跑hadoop问题之java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows._第2张图片
那你下载spark http://spark.apache.org/downloads.html的时候就需要下载对应版本的,
window上连接集群跑hadoop问题之java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows._第3张图片
然后配置spark jar包就可以了,我用的是IntelliJ IDEA,file->Project Structure->选中‘+’号 -> java->找到下载的jar包路径->ok 就可以了
window上连接集群跑hadoop问题之java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows._第4张图片
window上连接集群跑hadoop问题之java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows._第5张图片

希望可以帮到你哦~


你可能感兴趣的:(window上连接集群跑hadoop问题之java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.)