Hadoop 集中式的缓存管理demo

Posted Orison的孤独奋斗

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Hadoop 集中式的缓存管理demo相关的知识,希望对你有一定的参考价值。

参考文献:
http://www.infoq.com/cn/articles/hdfs-centralized-cache https://blog.csdn.net/javastart/article/details/50586743

从Hadoop 2.3.0 开始,加入了集中式缓存管理(HDFS centralized cache management)。

特点:

  • 由namenode管理。那么HDFS client(例如MapReduce、Impala)就可以根据block被cache的分布情况去调度任务,做到memory-locality。

  • HDFS原来单纯靠DataNode的OS buffer cache,这样不但没有把block被cache的分布情况对外暴露给上层应用优化任务调度,也有可能会造成cache浪费。例如一个block的三个replica分别存储在三个DataNote 上,有可能这个block同时被这三台DataNode的OS buffer cache,那么从HDFS的全局看就有同一个block在cache中存了三份,造成了资源浪费。

  • 加快HDFS client读速度。过去NameNode处理读请求时只根据拓扑远近决定去哪个DataNode读,现在还要加入speed的因素。当HDFS client和要读取的block被cache在同一台DataNode的时候,可以通过zero-copy read直接从内存读,略过磁盘I/O、checksum校验等环节。

  • 即使数据被cache的DataNode节点宕机,block移动,集群重启,cache都不会受到影响。因为cache被NameNode统一管理并被被持久化到FSImage和EditLog,如果cache的某个block的DataNode宕机,NameNode会调度其他存储了这个replica的DataNode,把它cache到内存。

我为什么会用到

在做一个工业数据量级别的项目,包括全量数据与部分增量数据,使用parquet格式存储在HDFS中,查询使用Hive与SparkSQL,原本计划重写MapReduce的InputFormat与Spark DataSource API,在计算分片时把增量数据读入JVM然后分发给每个分片。而Hive比较坑的一点是,当Hive使用MapReduce查询(如count、where、join等操作),将不会使用自定义InputFormat的getSplits方法进行分片而是用自带的CombineHiveInputFormat分片。导致无法在分片时读入增量数据。遂考虑在每个分片内独自读取增量数据。但是多个进程同时读势必会影响速度,于是打算将增量数据存储于集中式缓存。

使用示例

命令

  • addDirective:添加指令

hdfs cacheadmin -addDirective -path path -pool pool-name [-force] [-replication replication] [-ttl time-to-live]

-path 添加的路径 -pool 加入的缓冲池名称 -force 不检查缓存池的资源限制 -replication 要使用的副本数,默认为1 -ttl 缓存指令可以保持多长时间。可以按照分钟,小时,天来指定,如30m,4h,2d。有效单位为[smhd]。“never”表示永不过期的指令。如果未指定该值,那么,缓存指令就不会过期。

  • removeDirective:通过id删除指令

hdfs cacheadmin -removeDirective

  • removeDirectives:删除执行path下所有缓存命令

hdfs cacheadmin -removeDirective

  • listDirectives:显示某一路径下的缓存信息

hdfs cacheadmin -listDirectives [-stats] [-path path] [-pool pool]

-stats 显示 列出基于path的缓存指令统计信息。

  • 添加/修改缓存池:addPool/modifyPool

hdfs cacheadmin -addPool name [-owner owner] [-group group] [-mode mode] [-limit limit] [-maxTtl maxTtl] hdfs cacheadmin -modifyPool name [-owner owner] [-group group] [-mode mode] [-limit limit] [-maxTtl maxTtl]

其中, -owner/group是该pool的属主/组,默认为当前用户 -mode是POSIX风格权限,默认为0755 -limit为该pool中可以缓存的最大字节数,默认没有限制 -maxTtl 最大的生存期,可以是120s, 30m, 4h, 2d等。

  • 移除缓冲池:removePool

hdfs cacheadmin -removePool name

  • 列出缓冲池:listPools

hdfs cacheadmin -listPools [-stats] [name]

-stats为显示统计信息

实战

hdfs cacheadmin -addPool cache_data -mode 0777 18/05/12 13:48:08 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Successfully added cache pool cache_data. hdfs cacheadmin -addDirective -path /data -pool cache_data 18/05/12 13:50:21 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Added cache directive 1 hdfs cacheadmin -listPools -stats cache_data 18/05/12 13:50:39 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Found 1 result. NAME        OWNER      GROUP  MODE            LIMIT  MAXTTL  BYTES_NEEDED  BYTES_CACHED  BYTES_OVERLIMIT  FILES_NEEDED  FILES_CACHED cache_data  hadoop  staff  rwxrwxrwx   unlimited   never             0             0                0             0             0 hdfs cacheadmin -listDirectives -path /data 18/05/12 13:50:58 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable Found 1 entry ID POOL         REPL EXPIRY  PATH        1 cache_data      1 never   /data 

以上是关于Hadoop 集中式的缓存管理demo的主要内容,如果未能解决你的问题,请参考以下文章

HDFS中的集中缓存管理

在每个用户的Rails中使用片段缓存

Hadoop环境中管理大数据存储八大技巧

第二课:hdfs集群集中管理和hadoop文件操作

十一:Centralized Cache Management in HDFS 集中缓存管理

如何在片段着色器中平铺部分纹理