大数据调错系列之:自己总结的myeclipse连接hadoop会出现的问题
Posted
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据调错系列之:自己总结的myeclipse连接hadoop会出现的问题相关的知识,希望对你有一定的参考价值。
在我们学习或者工作中开始hadoop程序的时候,往往会遇到一个问题,我们写好的程序需要打成包放在集群中运行,这无形中在浪费我们的时间,因为程序可以需要不断的调试,然后把最终程序放在集群中即可。为了解决这个问题,现在我们配置远程连接hadoop,远程调试的方法。
一段程序如下:获取更多大数据视频资料请加QQ群:947967114
当我们在运行的时候会有如下众多的错误:
1、基础环境配置:首先需要注意自己使用的hadoop的版本:
这说明是2.6.0的所以需要下载一个连接包:hadoop-eclipse-plugin-2.6.0.jar,一定要注意根据自己的版本下载不同的连接包。放在myeclipse的安装路径下:D:Program FilesMyeclipse-10
Myeclipse-10和其他版本不同,是有两个目录的:其他版本只有一个目录,直接进入找到plugins即可。这里需要进入Common中找到plugins中,把连接包放在其中即可:
然后把Myeclipse重启。我们这个时候就可以进行hadoop的工程配置了:按照顺序点击:
在Browse中把解压好的hadoop包引入进来,只引入到主目录即可:然后就可以创建hadoop的,mapreduce工程了:获取更多大数据视频资料请加QQ群:947967114
完成后可以看到众多的依赖包都自动进入了:
然后我们配置远程连接hadoop的目录:
新建一个:
经过配置之后可以看到如下界面:
能够感受到已经连接到了hadoop的目录了:
2、Exception in thread “main” java.lang.NullPointerException atjava.lang.ProcessBuilder.start
运行是出现如上错误:
这个问题是Hadoop2以上版本,Hadoop2的bin目录中没有winutils.exe导致的错误。所以需要下载对应的包:
注意一定要是64位的现在很少32位的了:如果两个版本都可以:解压并且把包里的所有内容都复制出来分别放在自己的hadoop的bin解压目录中:
然后把myeclipse对应的hadoop文件重新引入一:获取更多大数据视频资料请加QQ群:947967114
3、Exception in thread "main"java.lang.UnsatisfiedLinkError:
4、main ExitCodeException
这是因为window本地的hadoop没有winutils.exe导致的.原来本地hadoop要去调用这个程序.我们先把上一部的winutils.exe文件中例如hadoop.dll等所有文件都放到c:windowsSystem32,然后使得其运行没错才可以.
然而winutils.exe还是无法启动,这个是某些电脑问题.有些人会遇到,双击winutils.exe运行报错,缺少msvcr120.dll.下载之后再去启动提示,“应用程序无法正常启动0xc000007b”.这是内存错误引起的.下载DirectX_Repair修复directx解决问题,最后成功启动了hadoop程序.
可能能够启动winutils.exe但还是不能正常跑应用程序,依然报错,可以试试修改权限验证.
修改hadoop/etc/hadoop/hdfs-site.xml
添加内容:
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
5、atorg.apache.hadoop.io.nativeio.NativeIO$Windows.access遇到这个问题是由于源码文件中需要更改:首先去官网下载hadoop-2.6.0-src.tar.gz源码包,解压:hadoop-2.6.0-srchadoop-common-projecthadoop-commonsrcmainjavaorgapachehadoopio
ativeio下NativeIO.java 复制到对应的Eclipse的project,然后修改557行为return true如图所示:
6、org.apache.hadoop.security.AccessControlException: Permissiondenied: user=zhengcy, access=WRITE,inode="/user/root/output"这是由于访问权限的问题。
有两种解决方式:第一种把hadoop的目录的权限扩大:例如 hadoop chmod -R 777 /,都给所有权限。第二种方式是修改配置文件。去掉检查权限的步骤:在这个etc/hadoop下的hdfs-site.xml添加
<property>
<name>dfs.permissions</name>
<value>false</value>
</property>
7.获取更多大数据视频资料请加QQ群:947967114
以上是关于大数据调错系列之:自己总结的myeclipse连接hadoop会出现的问题的主要内容,如果未能解决你的问题,请参考以下文章