京东「卖家日志」系统的构建 | 流式计算日志系统应用实践
Posted 亿级流量网站架构
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了京东「卖家日志」系统的构建 | 流式计算日志系统应用实践相关的知识,希望对你有一定的参考价值。
本文讲述如何去构建一个日志系统,用到了哪些技术?为什么用这些技术?遇到的问题及优化的过程,希望给大家在实践中提供一些参考。
这是一个有关于日志的项目,负责收集、处理、存储、查询京东卖家相关操作的日志,这里就叫它“卖家日志”。在日常的开发过程中,可能对日志这个词并不陌生,例如常接触到的Log4j、slf4j等等,这些日志工具通常用来记录代码运行的情况,当系统出问题时,可以通过查看日志及时的定位问题所在,从而很快的解决问题。
今天所讲的“卖家日志”,与普通的日志有些许的不同,“卖家日志”是用来记录卖家对系统各个功能的操作情况,例如:张三这个商家对它的店铺的某款商品进行了价格的修改,就会记录下一条日志在系统当中,系统中的部分信息是可以提供给商家、运营人员看的,从而让商家知道自己做了哪些操作,也让运营人员更好的对商家进行管理。除此之外,也可以帮忙查找从log中找不到的信息,从而帮助开发人员解决问题。接下来就讲一下业务场景。
有许多的业务系统,如订单、商品,还有一些其他的系统,之前大家都是各自记录各自的日志,而且记录的方式五花八门,格式也独具一格,这对于商家和运营人员来说是非常头疼的一件事,没有给运营人员提供一个可以查询日志的平台,每次有问题的时候,只能耗费大半天的时间去找对应的开发团队,请他们配合找出问题所在,而且有的时候效果也不是很好。
在这么一种情况下,“卖家日志”就诞生了,它给商家和运营以及开发提供了一个统一的日志平台,所有团队的日志都可以通过申请权限接入这个平台,并且运营和商家有问题可以第一时间自己去查找日志解决问题,而不是盲目的找人解决。
上图是“卖家日志”系统的整体流程图,在对于处理日志这一块业务上,写了一个日志客户端提供给各个组调用,还用到了kafka+Strom的流式计算,对于日志查询这一块,首先想到了ES,因为ES是一个分布式的文件检索系统,它可以根据日志的内容提供丰富的检索功能。而对于冷日志的存储,用了一个能够存更大量的工具—HBase,并且也可以根据一些基本的条件进行日志的搜索。
流程:日志客户端 - Kafka集群 - Strom消费 - ES -HBase - ...
Kafka:一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据,说浅显易懂一点,可以将Kafka理解成为一个消息队列。
Storm:Storm是开源的分布式实时大数据处理框架,它是实时的,可以将它理解为一个专门用来处理流式实时数据的东西。
ElasticSearch:ES是一个基于Lucene的搜索服务器,它是一个分布式的文件检索系统,它提供了高效的检索,以及支持多种检索条件,用起来也十分方便。
HBase:HBase是一个高可靠性、高性能、面向列、可伸缩的分布式存储系统,适用于结构化的存储,底层依赖于Hadoop的HDFS,利用HBase技术可在廉价PCServer上搭建起大规模结构化存储集群。
日志客户端给各个系统提供了一个统一的API,类似于Log4j这些日志工具,这样使得接入变得方便简洁,和平常写日志没什么区别。这里需要提到的一个点是客户端对于日志的处理过程,用下图来进行说明:
大家可能会疑惑,为什么不直接写Kafka呢?接下来做个比较,直接写入本地快,还是写Kafka快呢?
很明显,写入本地快。因为写日志,想达到的效果是尽量不要影响业务,能够以更快的方式处理,而对于日志后期的处理,只需要在后台开启固定的几个线程就可以了,这样既使业务对此无感知,又不浪费资源,除此之外,落盘的方式还为日志数据不丢提供了保障。
此外,这里本地数据的落盘和读取都用到了NIO的内存映射,写入和读取的数据又有了进一步的提升,使得业务日志快速落盘,并且能够快速的读取出来发送到Kafka,这也是一个优势。
首先介绍一下Kafka,Kafka是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据,可以将Kafka理解成为一个消息队列。具体的一些细节,大家可以上网搜索。
Kafka主要应用场景:
持续的消息:为了从大数据中派生出有用的数据,任何数据的丢失都会影响生成的结果,Kafka提供了一个复杂度为O(1)的磁盘结构存储数据,即使是对于TB级别的数据都是提供了一个常量时间性能
高吞吐量:Kafka采用普通的硬件支持每秒百万级别的吞吐量
分布式:明确支持消息的分区,通过Kafka服务器和消费者机器的集群分布式消费,维持每一个分区是有序的
支持多种语言:Java、.net、php、ruby、Python
实时性:消息被生成者线程生产就能马上被消费者线程消费,这种特性和事件驱动的系统是相似的
Kafka的优势:
主要用来解决百万级别的数据中生产者和消费者之间数据传输的问题
可以将一条数据提供给多个接收这做不同的处理
当两个系统是隔绝的,无法通信的时候,如果想要他们通信就需要重新构建其中的一个工程,而Kafka实现了生产者和消费者之间的无缝对接
通过上面对Kafka的应用场景和优势的描述,再去理解“卖家日志”的业务场景,就能理解为什么采用的技术是Kafka了。因为Kafka快,并且适用于流式处理,它可以将突发的量转换成为平稳的流,以便于Strom的处理。
因为日志是不定时的,就像水流一样,一直是不断的,并且不一定是平稳的。而Kafka的一些特性,非常符合“卖家日志”的业务,除此之外,Kafka作为一个高吞吐量的分布式发布订阅消息系统,可以有多个生产者和消费者,这也为“卖家日志”统一接入和后期的多元化处理提供了强有力的保障。如下图:
日志是一个流式的数据,它是不定时的,而且是不平稳的,将这些不定时且不平稳的数据进行处理,用什么方式更好呢?讨论后最终采用了Kafka+Storm的方式来处理这些日志数据。
为什么要用Storm呢?Storm是一个免费开源、分布式、高容错的实时计算系统。Storm令持续不断的流计算变得容易,Kafka可以将突发的数据转换成平稳的流,源源不断的推向Storm,Storm进行消费,处理,最终落库。Storm处理这一块的流程,如下图所示:
从上图可以看到,Storm整个处理的流程,其中对日志进行了两次的处理,一次是校验是否有效,并且封装成对象交给下一个bolt,insertBolt负责将数据落库,这么一个流程看起来比较清晰明了。
对于数据的存储,采用ES对热数据进行存储,而对于冷数据,也就是很久之前的数据,采用HBase来进行存储备份。为什么要这样做呢?
日志数据使用什么做存储,直接影响查询,前期的想法是直接把数据存到能够抗量HBase上,但是对于多种条件的查询,HBase显然不符合要求,所以经过评审,决定用一个分布式检索的系统来进行存储,那就是ElasticSearch。
那大家可能会问到:为什么还要用HBase呢?因为ES作为一个检索的系统,它并不适用于大量的数据的存储,随着数据量的增大,ES的查询性能会慢慢的降低,而日志需要保存的时间是一年,每天的量都是6、7亿的数据,所以对于ES来说,很难抗住,不断的加机器并不是很好的解决办法。
经过讨论,寻求一个更能够存数据的东西来存很久不用的日志数据,并且能够提供简单的检索,最终选择了HBase,将最近两个月的数据放在ES中,给用户提供多条件的检索,两个月之前的数据存放在HBase中,提供简单的检索功能,因为两个多月前的日志也没有太大的量去查看了。具体的数据流转如下图:
随着数据量的增多,对服务的要求越来越高,即使是将存储的数据做了冷热分离,查询也非常的忙,并且随着数据量的增多,插入的性能也越来越慢了。而且,对于所申请的Kafka集群,明显也扛不住这么多客户端每天输入这么大的量,因此对日志这一块的业务流程进行了仔细的梳理。
经过不断的讨论和架构的评审,想到了一个比较好的解决办法,那就是对日志数据进行业务分离。抽出了几个日志量比较大的业务,比如订单和商品,新申请了订单和商品的Kafka集群和ES集群,其他业务还是不变,订单和商品的日志和其他日志都单独开来,使用不同的Kafka和ES、HBase集群。
通过对业务的抽离,性能得到了很明显的提升,并且对数据进行业务的分类,也方便了对日志数据的管理,达到互不影响的状态。今后对于HBase的数据,也打算将它推入到大数据集市中,提供不同的部门做数据分析。
以上是关于京东「卖家日志」系统的构建 | 流式计算日志系统应用实践的主要内容,如果未能解决你的问题,请参考以下文章