大数据启蒙-初识HDFS

Posted Liguangyang

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了大数据启蒙-初识HDFS相关的知识,希望对你有一定的参考价值。

分治思想:

我有一万个元素,查找其中的一个元素,最简单的遍历方法

复杂度为O(4) (遍历四次),如何实现

 

准备2500个数组

查找x

补充知识:什么是hash & 什么是hashCode

https://blog.csdn.net/weixin_38405253/article/details/91922340

小案例:https://www.runoob.com/java/java-string-hashcode.html

内存寻址比io寻址快10万倍

计算机除了cpu内存之外都叫IO设备

假设lo速度是500MB每秒,1T文件读取一遍需要约30分钟,找寻操作要进行多次查询好,io限制了计算机的计算能力

 

hash算法(找重复值):hashCode的值是稳定的,相同的行一定会去到一个小文件里

(文件排序)

先抽取50M文件,抽取xxx份

向多节点靠近

大数据生态

存储模型(HDFS)文件是一个字节数组

文件按线性字节切割成块(block),具有offset(偏量),id

文件与文件的block大小可以不一样

文件除了最后一个block,其他的block大小是一致的

block的大小依据硬件的I/O特性调整

block被分散存放在集群的节点中,具有location(地址)

Block具有副本,没有主从概念,副本不能出现在同一个节点

副本是满足可靠性和性能的关键

文件上传可以只等block大小和副本数,上传只能修改副本数

一次写入多次读取,不支持修改

支持追加数据

分布式系统那么多,为啥要在开发一个HDFS

HDFS能更好的使用的应用层--》不允许修改,只能增加,删除

这样文件块就不会大量的泛洪 ,不会大量消耗CPU内存性能

 

以上是关于大数据启蒙-初识HDFS的主要内容,如果未能解决你的问题,请参考以下文章

大数据笔记:HDFS权限和Java的api使用

大数据笔记:大数据启蒙与入门知识

打怪升级之小白的大数据之旅(四十八)<初识MapReduce>

flume初识

Hadoop启蒙:HDFS读写流程

初识Hadoop,轻松应对海量数据存储与分析所带来的挑战