MapReduce常见错误及解决方案

Posted ZSYL

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了MapReduce常见错误及解决方案相关的知识,希望对你有一定的参考价值。

【MapReduce】常见错误及解决方案

  1. 导包容易出错。尤其 Text 和 CombineTextInputFormat。

  2. Mapper 中第一个输入的参数必须是 LongWritable 或者 NullWritable,不可以是 IntWritable. 报的错误是类型转换异常。

  3. java.lang.Exception: java.io.IOException: Illegal partition for 13926435656 (4),说明 Partition 和 ReduceTask 个数没对上,调整 ReduceTask 个数。

  4. 如果分区数不是 1,但是 reducetask 为 1,是否执行分区过程。
    答案是:不执行分区过程。
    因为在 MapTask 的源码中,执行分区的前提是先判断 ReduceNum 个数是否大于 1。不大于1 肯定不执行。

  5. 在 Windows 环境编译的 jar 包导入到 Linux 环境中运行,hadoop jar wc.jar
    com.zs.mapreduce.wordcount.WordCountDriver /user/zs/ /user/zs/output
    报如下错误:Exception in thread "main" java.lang.UnsupportedClassVersionError: com/atguigu/mapreduce/wordcount/WordCountDriver : Unsupported major.minor version 52.0

原因是 Windows 环境用的 jdk1.7,Linux 环境用的 jdk1.8。

解决方案:统一 jdk 版本。

  1. 缓存 pd.txt 小文件案例中,报找不到 pd.txt 文件
    原因:大部分为路径书写错误。还有就是要检查 pd.txt.txt 的问题。还有个别电脑写相对路径找不到 pd.txt,可以修改为绝对路径。

  2. 报类型转换异常。

通常都是在驱动函数中设置 Map 输出和最终输出时编写错误。Map 输出的 key 如果没有排序,也会报类型转换异常。

  1. 集群中运行 wc.jar 时出现了无法获得输入文件。

原因:WordCount 案例的输入文件不能放用 HDFS 集群的根目录。

  1. 出现了如下相关异常
Exception in thread "main" java.lang.UnsatisfiedLinkError: 
org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
at org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Native Method)
at org.apache.hadoop.io.nativeio.NativeIO$Windows.access(NativeIO.java:609)
at org.apache.hadoop.fs.FileUtil.canRead(FileUtil.java:977)
java.io.IOException: Could not locate executable null\\bin\\winutils.exe in the Hadoop binaries.
at org.apache.hadoop.util.Shell.getQualifiedBinPath(Shell.java:356)
at org.apache.hadoop.util.Shell.getWinUtilsPath(Shell.java:371)
at org.apache.hadoop.util.Shell.<clinit>(Shell.java:364)

解决方案:拷贝 hadoop.dll 文件到 Windows 目录 C:\\Windows\\System32。个别电脑还需要修改 Hadoop 源码。

方案二:创建如下包名,并将 NativeIO.java 拷贝到该包名下


10. 自定义 Outputformat 时,注意在 RecordWirter 中的 close 方法必须关闭流资源。否则输出的文件内容中数据为空。

@Override
public void close(TaskAttemptContext context) throws IOException, InterruptedException {
		if (zsfos != null) {
			zsfos.close();
		}
		if (otherfos != null) {
			otherfos.close();
	} 
}

以上是关于MapReduce常见错误及解决方案的主要内容,如果未能解决你的问题,请参考以下文章

MapReduce实现两表的Join--原理及python和java代码实现

大数据技术之_03_Hadoop学习_02_入门_Hadoop运行模式+本地运行模式+伪分布式运行模式+完全分布式运行模式(开发重点)+Hadoop编译源码(面试重点)+常见错误及解决方案(示例代(代

MapReduce实现两表的Join--原理及python和java代码实现

MapReduce实现两表的Join--原理及python和java代码实现

Maven常见异常及解决方法---测试代码编译错误

Hadoop——MapReduce相关eclipse配置及Api调用(图文超详细版)(内含遇到错误的解决方法)