大数据讲课笔记5.6 MR案例—数据去重
Posted howard2005
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据讲课笔记5.6 MR案例—数据去重相关的知识,希望对你有一定的参考价值。
文章目录
零、学习目标
- 理解数据去重
- 实现数据去重
一、导入新课
- 通过上节课的学习,我们熟悉了MapReduce经典案例——倒序索引的具体实现流程。本节课将针对MapReduce经典案例——数据去重进行详细讲解。
二、新课讲解
(一)案例分析
1、数据去重介绍
- 数据去重主要是为了掌握利用并行化思想来对数据进行有意义的筛选,数据去重指去除重复数据的操作。在大数据开发中,统计大数据集上的多种数据指标,这些复杂的任务数据都会涉及数据去重。
2、案例需求及分析
- 文件file1.txt本身包含重复数据,并且与file2.txt同样出现重复数据,现要求使用Hadoop大数据相关技术对以上两个文件进行去重操作,并最终将结果汇总到一个文件中。
- 编写MapReduce程序,在Map阶段采用Hadoop默认作业输入方式后,将key设置为需要去重的数据,而输出的value可以任意设置为空。
- 在Reduce阶段,不需要考虑每一个key有多少个value,可以直接将输入的key复制为输出的key,而输出的value可以任意设置为空,这样就会使用MapReduce默认机制对key(也就是文件中的每行内容)自动去重。
(二)案例实现
1、Map阶段实现
- 使用IntelliJ开发工具创建Maven项目Deduplicate,并且新创建net.hw.mr包,在该路径下编写自定义Mapper类DedupMapper,主要用于读取数据集文件将TextInputFormat默认组件解析的类似<0,2018-3-1 a >键值对修改为<2018-3-1 a,null>。
2、Reduce阶段实现
- 根据Map阶段的输出结果形式,同样在net.hw.mr包下,自定义Reducer类DedupReducer,主要用于接受Map阶段传递来的数据,根据Shuffle工作原理,键值key相同的数据就会被合并,因此输出数据就不会出现重复数据了。
3、Driver程序主类实现
- 编写MapReduce程序运行主类DedupDriver,主要用于设置MapReduce工作任务的相关参数。由于本次演示的数据量较小,为了方便、快速地进行案例演示,本案例采用了本地运行模式,对指定的本地
D:\\\\Dedup\\\\input
目录下的源文件(需要提前准备)实现数据去重,并将结果输入到本地D:\\\\Dedup\\\\output
目录下。
4、效果测试
- 为了保证MapReduce程序正常执行,需要先在本地
D:\\\\Dedup\\\\input
目录下创建文件file1.txt和file2.txt;然后,执行MapReduce程序的程序入口DedupDriver类,正常执行完成后,在指定的D:\\\\Dedup\\\\output
目录下生成结果文件。
三、归纳总结
- 回顾本节课所讲的内容,并通过提问的方式引导学生解答问题并给予指导。
四、上机操作
- 形式:单独完成
- 题目:实现数据去重
- 要求:让学生自己按照步骤实现数据去重的功能,以此来巩固本节的学习内容。写一篇CSDN博客,记录操作过程。
以上是关于大数据讲课笔记5.6 MR案例—数据去重的主要内容,如果未能解决你的问题,请参考以下文章