Windows上的Hadoop错误:java.lang.UnsatisfiedLinkError

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Windows上的Hadoop错误:java.lang.UnsatisfiedLinkError相关的知识,希望对你有一定的参考价值。

我是Hadoop的新手,并尝试执行我的第一个mapcuce wordcount工作。但是,每当我尝试这样做时,我都会收到以下错误:

java.lang.UnsatisfiedLinkError: org.apache.hadoop.util.NativeCrc32.nativeCompute
ChunkedSumsByteArray(II[BI[BIILjava/lang/String;JZ)V
        at org.apache.hadoop.util.NativeCrc32.nativeComputeChunkedSumsByteArray(
Native Method)
        at org.apache.hadoop.util.NativeCrc32.calculateChunkedSumsByteArray(Nati
veCrc32.java:86)
        at org.apache.hadoop.util.DataChecksum.calculateChunkedSums(DataChecksum
.java:430)
        at org.apache.hadoop.fs.FSOutputSummer.writeChecksumChunks(FSOutputSumme
r.java:202)
        at org.apache.hadoop.fs.FSOutputSummer.flushBuffer(FSOutputSummer.java:1
63)
        at org.apache.hadoop.fs.FSOutputSummer.flushBuffer(FSOutputSummer.java:1
44)
        at org.apache.hadoop.hdfs.DFSOutputStream.close(DFSOutputStream.java:221
7)
        at org.apache.hadoop.fs.FSDataOutputStream$PositionCache.close(FSDataOut
putStream.java:72)
        at org.apache.hadoop.fs.FSDataOutputStream.close(FSDataOutputStream.java
:106)
        at org.apache.hadoop.io.IOUtils.cleanup(IOUtils.java:237)
        at org.apache.hadoop.io.IOUtils.closeStream(IOUtils.java:254)
        at org.apache.hadoop.io.IOUtils.copyBytes(IOUtils.java:61)
        at org.apache.hadoop.io.IOUtils.copyBytes(IOUtils.java:112)
        at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:366)
        at org.apache.hadoop.fs.FileUtil.copy(FileUtil.java:338)
        at org.apache.hadoop.fs.FileSystem.copyFromLocalFile(FileSystem.java:190
5)
        at org.apache.hadoop.fs.FileSystem.copyFromLocalFile(FileSystem.java:187
3)
        at org.apache.hadoop.fs.FileSystem.copyFromLocalFile(FileSystem.java:183
8)
        at org.apache.hadoop.mapreduce.JobResourceUploader.copyJar(JobResourceUp
loader.java:246)
        at org.apache.hadoop.mapreduce.JobResourceUploader.uploadFiles(JobResour
ceUploader.java:166)
        at org.apache.hadoop.mapreduce.JobSubmitter.copyAndConfigureFiles(JobSub
mitter.java:98)
        at org.apache.hadoop.mapreduce.JobSubmitter.submitJobInternal(JobSubmitt
er.java:191)
        at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1297)
        at org.apache.hadoop.mapreduce.Job$10.run(Job.java:1294)
        at java.security.AccessController.doPrivileged(Native Method)
        at javax.security.auth.Subject.doAs(Subject.java:415)
        at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInforma
tion.java:1656)
        at org.apache.hadoop.mapreduce.Job.submit(Job.java:1294)
        at org.apache.hadoop.mapreduce.Job.waitForCompletion(Job.java:1315)
        at org.apache.hadoop.examples.WordCount.main(WordCount.java:87)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.
java:57)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAcces
sorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:606)
        at org.apache.hadoop.util.ProgramDriver$ProgramDescription.invoke(Progra
mDriver.java:71)
        at org.apache.hadoop.util.ProgramDriver.run(ProgramDriver.java:144)
        at org.apache.hadoop.examples.ExampleDriver.main(ExampleDriver.java:74)
        at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
        at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.
java:57)
        at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAcces
sorImpl.java:43)
        at java.lang.reflect.Method.invoke(Method.java:606)
        at org.apache.hadoop.util.RunJar.run(RunJar.java:221)
        at org.apache.hadoop.util.RunJar.main(RunJar.java:136)

而且,当我这样做

有操作检查--a

它向我展示了以下细节:

Native library checking:
hadoop:  true C:hadoop-2.6.1inhadoop.dll
zlib:    false
snappy:  false
lz4:     true revision:43
bzip2:   false
openssl: false org.apache.hadoop.util.NativeCodeLoader.buildSupportsOpenssl()Z
winutils: true C:hadoop-2.6.1inwinutils.exe
15/10/19 15:18:24 INFO util.ExitUtil: Exiting with status 1

有什么办法可以解决这个问题吗?

答案

我有同样的问题。从hadoop.dll目录中删除system32并设置HADOOP_HOME环境变量后,它起作用了。

或者使用可以添加像-Djava.library.path=<hadoop home>/lib/native这样的jvm参数。

另一答案

我也有这个错误,我解决了这个错误:

  1. 您可以访问链接https://github.com/steveloughran/winutils
  2. 使用您使用的版本下载文件“winutils.exe”和“hadoop.dll”
  3. 将2个文件复制到HADOOP_HOME bin。

对我来说还好。注意:如果2个文件“winutils.exe”和“hadoop.dll”与你使用的hadoop版本不对,那就不行了

另一答案

检查当您收到此错误时,java进程是否使用相同的C: hadoop-2.6.1 bin hadoop.dll文件。使用进程资源管理器来查找。

另一答案

检查你的java版本。如果java是32位版本,则需要卸载并重新安装64位版本的hadoop。

检查命令:

java -d32 -version;

java -d64 -version;(没有错误,如果64版本)

以上是关于Windows上的Hadoop错误:java.lang.UnsatisfiedLinkError的主要内容,如果未能解决你的问题,请参考以下文章

为什么Windows10上的Hadoop安装错误期间运行“ hdfs namenode -format”命令时出现错误?

hadoop在windows上的配置文件

Pig 0.12.0 在 Windows 2008 r2 x64 上的 Hadoop 2.3.0

2019暑假第二周(hadoop在个人电脑上的搭建)

windows下在eclipse上远程连接hadoop集群调试mapreduce错误记录

Hadoop 2.7.2 上的 Pig-0.16.0 - 错误 1002:无法存储别名