如何编写映射的输出将作业直接减少到分布式缓存,以便将其传递给另一个作业

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了如何编写映射的输出将作业直接减少到分布式缓存,以便将其传递给另一个作业相关的知识,希望对你有一定的参考价值。

我目前正在练习Map-reduce(Hadoop 2.2),并且需要您对其中一个概念的帮助。

我有一个用例,我想用两个工作来完成。我希望将job1的输出写入分布式缓存,并将其作为输入传递给第二个作业。

基本上我想避免将第一个作业的输出写入文件,从而导致开销。

用例输入:

歌曲文件 -

| Id |宋|输入|

| s1 | song1 |经典| | s2 | song2 |爵士乐 | s2 | song3 |经典| 。

用户评级文件 -

| User_Id | Song_Id |评级|

| U1 | S1 | 7 | | U2 | S2 | 5 | | U3 | S2 | 9 | | U4 | S1 | 7 | | U5 | S5 | 5 | | U6 | S1 | 9 |

注意:这两个文件都包含非常大的数据。

用例描述:

查找每首古典歌曲的平均评分。

我提出的实际/预期解决方案是我将使用两个链式作业。 1.Job1:它将获得所有经典歌曲的ID并添加以分发缓存

2.Job2:第二个作业中的Mapper根据缓存中的值过滤古典歌曲的等级。 Reducer将计算每首歌曲的平均评分。

我在网上搜索,看看我们是否可以将作业的输出直接写入分布式缓存,但无法找到有用的信息。

我在stackoverflow上发现了类似的问题:

"How to directly send the output of a mapper-reducer to a another mapper-reducer without
 saving the output into the hdfs"

解决方法是使用'SequenceFileOutputFormat'。

但是在我的情况下,我希望在第二个作业中每个映射器都可以使用所有的歌曲ID。所以我认为上述解决方案在我的案例中不起作用。

我想要的替代方法是运行第一个作业,找到经典歌曲的ID并将输出(歌曲ID)写入文件并创建新作业并将歌曲ID输出文件添加到第二个作业的缓存。请指教。

非常感谢您的帮助。

答案

如果每条记录的大小都小于1mb,您可以将中间结果更新为MemCached

另一答案

遵循第二种方法。

  1. 第一个作业将输出写入文件系统。
  2. 第二个作业将使用Job API而不是DistributedCache API将所需文件传递给所有节点,该API已被弃用。

看看新的Job API的方法,如

addCacheFile(URI uri)
getCacheFiles()

等等

另一答案

一种方法可以是在分布式缓存中加载第一个作业的输出,然后启动第二个作业。

//CONFIGURATION

Job job = Job.getInstance(getConf(), "Reading from distributed cache and etc.");
job.setJarByClass(this.getClass());

////////////
FileSystem fs = FileSystem.get(getConf());

/*
 * if you have, for example, a map only job, 
 * that "something" could be "part-"
 */
FileStatus[] fileList = fs.listStatus(PATH OF FIRST JOB OUTPUT, 
                           new PathFilter(){
                                 @Override public boolean accept(Path path){
                                        return path.getName().contains("SOMETHING");
                                 } 
                            } );

for(int i=0; i < fileList.length; i++){ 
    DistributedCache.addCacheFile(fileList[i].getPath().toUri(), job.getConfiguration());
}

//other parameters

制图员:

//in mapper

@Override
public void setup(Context context) throws IOException, InterruptedException {

    //SOME STRUCT TO STORE VALUES READ (arrayList, HashMap..... whatever)
    Object store = null;

    try{
        Path[] fileCached = DistributedCache.getLocalCacheFiles(context.getConfiguration());

        if(fileCached != null && fileCached.length > 0) {
             for(Path file : fileCached) {
                readFile(file);
                }
        }
    } catch(IOException ex) {
        System.err.println("Exception in mapper setup: " + ex.getMessage());
    }

}

private void readFile(Path filePath) {

    try{
        BufferedReader bufferedReader = new BufferedReader(new FileReader(filePath.toString()));
        String line = null;

        while((line = bufferedReader.readLine()) != null) {

            //reading line by line that file and updating our struct store
            //....

        } //end while (cycling over lines in file)

        bufferedReader.close();

    } catch(IOException ex) {
        System.err.println("Exception while reading file: " + ex.getMessage());
    }
} //end readFile method

现在,在映射阶段,您将文件作为输入传递给作业,并将所需的值存储在struct store中。

我的答案来自How to use a MapReduce output in Distributed Cache

以上是关于如何编写映射的输出将作业直接减少到分布式缓存,以便将其传递给另一个作业的主要内容,如果未能解决你的问题,请参考以下文章

如何编写“仅地图”hadoop 作业?

一致性Hash算法在Redis分布式中的使用

分布式缓存-数据映射设计

一致性hash算法

分布式缓存服务(Redis)7天实战营~Day5实践作业完成步骤

php 中如何使用缓存,使用哪种缓存机制最好;