华为云AOM基于cassandra的亿级数据监控实践系列
Posted 华为云产品与解决方案
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了华为云AOM基于cassandra的亿级数据监控实践系列相关的知识,希望对你有一定的参考价值。
2016下半年加入CloudBU大家庭,开始搞华为云AOM(应用运维管理)和APM(应用性能管理),截止今天,AOM/APM上线已成功上线稳定运行整整一年时间,当前在华为云上使用AOM的VM总数已达m台,每天处理的指标数据规模亿级,日志数据TB级。最近想把近一年内踩过的坑与大家共享下,希望能对开发者们有所帮助。
AOM每天处理着亿级条数据,这么多数据是怎么存储的呢?
说到数据存储就会想到关系型数据库,比如mysql,oracle,sybase。关系型数据库有自己的优势,数据强一致性,支持事务,通用,技术成熟。但是对于大批量数据的存储和查询就稍显吃力,毕竟AOM每秒的写入数据至少都是上万条,甚至是十几万条,随着系统规模增长,数据库的扩容也成为新的瓶颈。
AOM的数据存储系统使用的是非关系型数据库-----cassandra,相比关系型数据库,cassandra拥有高并发,大数据下读写能力强,支持分布式,易扩展等优点,当前也有最致命的缺点,不支持事务,不过对于事务我们可以通过zk/etcd等其他组件协助完成。
对于关系型数据库相比非关系型数据库为什么会有这么大的差异,这个就得从两者的架构上来讲了,下面小编以mysql和cassandra进行对比分析。
不管是mysql还是cassandra,最终数据的存储都要落盘,我们先来看下磁盘的写入原理:
磁盘的基本组件可分为以下几部分:磁头,盘片,盘面,磁道,柱面,扇区等。
即一次访盘请求(读/写)完成过程由三个动作组成:
1.寻道(时间):磁头移动定位到指定磁道
2.旋转延迟(时间):等待指定扇区从磁头下旋转经过
3.数据传输(时间):数据在磁盘与内存之间的实际传输
大家应该有过类似的经历,进行数据拷贝时,文件个数越少,单个文件越大,拷贝的速率越快,反之文件个数多,单个文件小,拷贝的速率越慢,这其中的原因就是因为在拷贝小文件时,系统的耗时基本都耗费在寻址上了。Cassandra相比mysql有更高的写入能力,就是因为cassandra采用了更高效的写入机制,该机制大大缩短了磁盘的寻址时间(准确来讲应该是寻址次数)。
我们先来看下Mysql(InnoDB)的索引原理, InnoDB的索引采用B+树,其数据结构如下所示:
B+树的顺序检索会产生大量的随机IO,B+树的写入同样会产生类似的问题,比如上图B+树中的9和86,它们所属的叶子节点在磁盘上相隔甚远,数据插入时就会产生两次随机写入。当大批量数据写入时,随机IO操作的次数也就更多。
如下是一张随机读写和顺序读写的性能比对图:
从上图可以直观的感受到随机读写与顺序读写的差异,这两者完全不在一个量级。用过kafka和HDFS的开发者就会发现kafka和HDFS的磁盘IO使用率非常高,有时甚至接近磁盘的最大写入速率,这个就是因为kafka和HDFS是基于文件的顺序写入(当然还有其他技术)。从以上分析来看,磁盘的随机读取/写入是影响mysql顺序检索和批量写入的最大因素,那我们有没有办法减少这种随机写入呢,此时LSM-Tree(Log-Structured Merge-Tree)呼之欲出。
2006年,google发表了BigTable的论文。BigTable的数据结构就采用了LSM:http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.44.2782&rep=rep1&type=pdf)
目前LSM被很多数据库作为存储结构,比如HBase,Cassandra,LevelDB。LSM抛弃了大多数数据库使用的传统文件组织方法,通过减少更新/写入操作带来的随机操作次数来提高数据的写入能力。
LSM Tree的核心思路其实非常简单,就是假定内存足够大,因此不需要每次有数据更新就必须将数据写入到磁盘中,而可以先将最新的数据驻留在磁盘中,等到积累到一定数目之后,再使用归并排序的方式将内存内的数据合并追加到磁盘队尾(因为所有待排序的树都是有序的,可以通过合并排序的方式快速合并到一起)。
LSM的核心思路可以分为两部分:
①数据先写入内存
②将内存中的数据排序后追加到磁盘队尾
LSM由两个或两个以上的存储结构组成。最简单的LSM由两部分组成,一部分常驻内存,称为C0;另一部分存储在硬盘上,称为C1。
数据写入时,先记录到本地的操作日志文件(HLog或CommitLog),为将来做数据恢复使用。然后将数据写入到C0中,由于C0使用的是内存,因此插入性能远远高于磁盘写入。当C0的节点数目超过一定阈值时,会将C0中的数据进行一次排序,然后追加到C1树中。
多部件的LSM就是包含多个存储结构:
随着数据规模增加,C0中的数据超过阈值后就会往磁盘中写入一个新的file,这样磁盘中的树(file)会越来越多。当较小的Ci-1个数超过一定阈值的时候,会进行Ci-1和Ci的合并。合并是为了减少整个C树的个数,加快搜索速度。
数据查询的时候,会按照树的生成时间按照从新到旧的顺序逐个遍历每个C树,即C0,C1,C2….Ck。为什么要按照时间顺序从最近往之前遍历呢,这就是LSM的另一个巧妙点(更新/删除)。
LSM的更新和删除操作都是往C0上新增一条记录,通过新记录+标记的方式完成,因此在遍历的时候必须按照时间顺序进行遍历,这样就可以保证数据更新和删除的正确性,同时保证了数据的顺序写入。当前LSM在进行C树合并时,会对删除和更新记录进行合并。
我们来看下HBase的整个架构图:
HBase是基于HDFS之上采用LSM结构做的数据存储。HBase的主要部件可以分为如下几类:
storeFile:小文件,不可编辑。即写入到磁盘中的C树。
Hlog:LSM中用于记录写入记录的操作日志,为了将来做数据恢复使用,毕竟C0中的数据是在内存中存储,当HBase宕机后,内存中的数据就会丢失,此时需要从Hlog中恢复。
Memstore:即C0树。
至此,LSM和B+树的对比也就讲完了,下一篇文章会继续讲解AOM是如何使用Casandra的一些特性。
点击阅读原文,了解华为云AOM!
以上是关于华为云AOM基于cassandra的亿级数据监控实践系列的主要内容,如果未能解决你的问题,请参考以下文章
华为云GeminiDB for Cassandra 正式商用
阿里CCO:基于 Hologres 的亿级明细 BI 探索分析实践
巧用 maxTimeMS 服务端超时,避免承载亿级用户的腾讯云数据库MongoDB服务雪崩