window上连接集群跑hadoop问题之java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.

在运行spark程序时,报java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.错误,如下图:

在网上搜了很多解决方案,结果都没有解决,最后,发现是因为spark下载的版本与hadoop版本不一致,所以要解决这个问题,只需要看一下你的hadoop版本是多少,例如我这里是2.6.0
那你下载spark http://spark.apache.org/downloads.html的时候就需要下载对应版本的,
然后配置spark jar包就可以了,我用的是IntelliJ IDEA,file->Project Structure->选中‘+’号 -> java->找到下载的jar包路径->ok 就可以了

希望可以帮到你哦~


最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。