高并发电子商务平台技术架构

Posted lytwajue

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了高并发电子商务平台技术架构相关的知识,希望对你有一定的参考价值。

原文出自:http://blog.csdn.net/yangbutao/article/details/12242441

http://stamen.iteye.com/blog/1525924


我自己的大型B2B和B2C站点原来也是用Hibernate,可是后来不得不换成mybatis,
第一是用Hibernate 因为它封装得太高了。非常多东西是隐式进行的。常常引起问题,非常难定位。毕竟凡事有利必有弊;
第二大型站点肯定不是一个数据库。这点Hibernate是非常麻烦的,用Jdbc或Mybatis 能够轻松应付之。我自己写的shard分库框架眼下就是支持mybatis和Jdbc Template。
    另,认为割舍不了Hibernate的iteyer,事实上也是建议直接再用Hibernate,待遇到痛苦时。再换,这样体会会更深些技术分享

    我的技术选型和onecan的类似,差别在于:

1.缓存:我採用ehcache+memcached结合的方式,ehcache做JVM本地缓存。memcached做进程外全局缓存,即由本地缓存和全局缓存构成系统的二级缓存;

2.数据库上。你用单数据库肯定是不行的。

我的平台是划分为100多个库。早期我採用淘宝的amoeba(陈师儒兄写的)分库技术(事实上是一个分库中间件。通过一台代理amoeba实现对后端mysql集群的透明化代理。

后来发现问题多多,还有一个是中间件方案尽管使用简单。但不够灵活,不能做多数据库事务,所以弃之。不得以自己写了一个基于Java的分库框架。即Shard。在应用层直接通过Shard操作数据库集群;

3.全文索引,我们採用Solr,只是眼下想把它换成ElasticSearch,由于Solr的全文索引同步比較慢,延时是一个非常大的问题,ES做得好些。

4.任务调度你这里没有讲,事实上这块对于大型站点是非常重要的。我是基于Quautz自己写了一个全局任务调度框架。相当于任务调度云的方式。

如每天晚上汇总数据。定期迁移数据等就能够非常好地使用任务调度来完毕。

5.编码生成:凡是商城或应用系统,肯定是要有一个编码生成的框架,如单据号,商品编号等,要求是全局唯一。规则可自己定义。这个我是基于Spring Expression写了一个全局的编码框架。称为codeman,后面我也拟把它开源出来;

6.开放平台:假设你的商城要同意多终端接入,如iphone,android,PCclient,或者第三方。则一定要有一条服务总线,如淘宝的TOP。这个原来是用Spring MVC直接写的,后来发现新增功能太麻烦。开发效率太低了。因此我就基于Spring MVC框架的设计思路和TOP的应用模型写了一个Rop框架。这个已经开源的。參见我这个帖子:http://www.iteye.com/topic/1121252

7.NoSQL和mySQL结合。mySQL毕竟是关系型的,对于高并发的数据。我们是放到mogonDB中的,这个数据库的压力会小非常多。

8.日志的记录:大型站点的日志记录是非常重要的,是审计,问题定位的根据。原来早期,我直接把日志记录到MySQL中,日志非常大。数据库压力大。后来把它直接异步到Elastic Search中,不但能够全文检索。并发性大时也没有问题。
此外。对日志编写了一些分析引擎,能够从日志中发现关键的问题,即时报警。

9.会话管理的问题:因为应用服务节点非常多,因此弃用Web应用server本身的Session功能,直接自己编写了一个全局会话管理功能。以实现全局统一的会话管理。

10.图片server独立,每张图片仅仅保存一张物理的,事实上不同规格的图片动态生成并放到内存中;

11.项目採用敏捷开发。DDT,Maven等。


一、 设计理念

 

 

1.      空间换时间

1)      多级缓存,静态化

client页面缓存(http header中包括Expires/Cache of Controllast modified(304server不返回body,client能够继续用cache,降低流量)ETag

反向代理缓存

应用端的缓存(memcache)

内存数据库

Buffercache机制(数据库,中间件等)

2)      索引

哈希、B树、倒排、bitmap

哈希索引适合综合数组的寻址和链表的插入特性。能够实现数据的高速存取。

B树索引适合于查询为主导的场景。避免多次的IO。提高查询的效率。

倒排索引实现单词到文档映射关系的最佳实现方式和最有效的索引结构,广泛用在搜索领域。

Bitmap是一种很简洁高速的数据结构,他能同一时候使存储空间和速度最优化(而不必空间换时间),适合于海量数据的的计算场景。

2.     并行与分布式计算

 

1)      任务切分、分而治之(MR)

在大规模的数据中。数据存在一定的局部性的特征。利用局部性的原理将海量数据计算的问题分而治之。

MR模型是无共享的架构,数据集分布至各个节点。处理时。每一个节点就近读取本地存储的数据处理(map),将处理后的数据进行合并(combine)、排序(shuffle and sort)后再分发(reduce节点),避免了大量数据的传输。提高了处理效率。

 

2)      多进程、多线程并行运行(MPP)

并行计算(Parallel Computing)是指同一时候使用多种计算资源解决计算问题的过程,是提高计算机系统计算速度和处理能力的一种有效手段。它的基本思想是用多个处理器/进程/线程来协同求解同一问题。即将被求解的问题分解成若干个部分,各部分均由一个独立的处理机来并行计算。

MR的差别在于,它是基于问题分解的,而不是基于数据分解。

3.      多维度的可用

1)      负载均衡、容灾、备份

随着平台并发量的增大,须要扩容节点进行集群。利用负载均衡设备进行请求的分发;负载均衡设备通常在提供负载均衡的同一时候。也提供失效检測功能。同一时候为了提高可用性,须要有容灾备份。以防止节点宕机失效带来的不可用问题。备份有在线的和离线备份,能够依据失效性要求的不同,进行选择不同的备份策略。

2)      读写分离

读写分离是对数据库来讲的,随着系统并发量的增大。提高数据訪问可用性的一个重要手段就是写数据和读数据进行分离;当然在读写分离的同一时候。须要关注数据的一致性问题;对于一致性的问题,在分布式的系统CAP定量中,很多其它的关注于可用性。

3)      依赖关系

平台中各个模块之间的关系尽量是低耦合的,能够通过相关的消息组件进行交互。能异步则异步,分清楚数据流转的主流程和副流程,主副是异步的,比方记录日志能够是异步操作的,添加整个系统的可用性。

当然在异步处理中,为了确保数据得到接收或者处理,往往须要确认机制(confirmack)

可是有些场景中。尽管请求已经得到处理,可是因其它原因(比方网络不稳定)。确认消息没有返回。那么这样的情况下须要进行请求的重发,对请求的处理设计因重发因素须要考虑幂等性。

4)      监控

监控也是提高整个平台可用性的一个重要手段,多平台进行多个维度的监控;模块在执行时候是透明的,以达到执行期白盒化。

4.      伸缩

1)      拆分

拆分包含对业务的拆分和对数据库的拆分。

系统的资源总是有限的,一段比較长的业务运行假设是一竿子运行的方式。在大量并发的操作下,这样的堵塞的方式,无法有效的及时释放资源给其它进程运行。这样系统的吞吐量不高。

须要把业务进行逻辑的分段,採用异步非堵塞的方式,提高系统的吞吐量。

随着数据量和并发量的添加,读写分离不能满足系统并发性能的要求,须要对数据进行切分,包含对数据进行分库和分表。这样的分库分表的方式。须要添加对数据的路由逻辑支持。

2)      无状态

对于系统的伸缩性而言,模块最好是无状态的。通过添加节点就能够提高整个的吞吐量。

5.      优化资源利用

1)      系统容量有限

系统的容量是有限的,承受的并发量也是有限的,在架构设计时。一定须要考虑流量的控制,防止因意外攻击或者瞬时并发量的冲击导致系统崩溃。在设计时添加流控的措施,可考虑对请求进行排队,超出预期的范围。能够进行告警或者丢弃。

2)      原子操作与并发控制

对于共享资源的訪问。为了防止冲突,须要进行并发的控制,同一时候有些交易须要有事务性来保证交易的一致性,所以在交易系统的设计时,需考虑原子操作和并发控制。

保证并发控制一些经常使用高性能手段有,乐观锁、Latchmutex、写时复制、CAS等。多版本号的并发控制MVCC一般是保证一致性的重要手段,这个在数据库的设计中经常会用到。

3)      基于逻辑的不同,採取不一样的策略

平台中业务逻辑存在不同的类型,有计算复杂型的,有消耗IO型的。同一时候就同一种类型而言。不同的业务逻辑消耗的资源数量也是不一样的,这就须要针对不同的逻辑採取不同的策略。

针对IO型的,能够採取基于事件驱动的异步非堵塞的方式,单线程方式能够降低线程的切换引起的开销。或者在多线程的情况下採取自旋spin的方式,降低对线程的切换(比方oracle latch设计)。对于计算型的,充分利用多线程进行操作。

同一类型的调用方式。不同的业务进行合适的资源分配。设置不同的计算节点数量或者线程数量,对业务进行分流,优先运行优先级别高的业务。

4)      容错隔离

系统的有些业务模块在出现错误时,为了降低并发下对正常请求的处理的影响,有时候须要考虑对这些异常状态的请求进行单独渠道的处理,甚至临时自己主动禁止这些异常的业务模块。

有些请求的失败可能是偶然的临时的失败(比方网络不稳定),须要进行请求重试的考虑。

5)      资源释放

系统的资源是有限的,在使用资源时。一定要在最后释放资源。不管是请求走的是正常路径还是异常的路径,以便于资源的及时回收,供其它请求使用。

在设计通信的架构时。往往须要考虑超时的控制。

 

 

 

 

 

二、 静态架构蓝图

 技术分享

整个架构是分层的分布式的架构。纵向包含CDN,负载均衡/反向代理。web应用,业务层。基础服务层,数据存储层。水平方向包含对整个平台的配置管理部署和监控。

 

三、 剖析架构

1. CDN

CDN系统可以实时地依据网络流量和各节点的连接、负载状况以及到用户的距离和响应时间等综合信息将用户的请求又一次导向离用户近期的服务节点上。其目的是使用户可就近取得所需内容。解决 Internet网络拥挤的状况。提高用户訪问站点的响应速度。

对于大规模电子商务平台一般须要建CDN做网络加速。大型平台如淘宝、京东都採用自建CDN,中小型的企业能够採用第三方CDN厂商合作,如蓝汛、网宿、快网等。

当然在选择CDN厂商时,须要考虑经营时间长短,是否有可扩充的带宽资源、灵活的流量和带宽选择、稳定的节点、性价比。

2. 负载均衡、反向代理

一个大型的平台包含非常多个业务域。不同的业务域有不同的集群,能够用DNS做域名解析的分发或轮询。DNS方式实现简单,可是因存在cache而缺乏灵活性;一般基于商用的硬件F5、NetScaler或者开源的软负载lvs4层做分发,当然会採用做冗余(比方lvs+keepalived)的考虑,採取主备方式。

4层分发到业务集群上后。会经过webserver如nginx或者HAProxy7层做负载均衡或者反向代理分发到集群中的应用节点。

选择哪种负载,须要综合考虑各种因素(是否满足高并发高性能,Session保持怎样解决,负载均衡的算法怎样,支持压缩。缓存的内存消耗);以下基于几种经常使用的负载均衡软件做个介绍。

LVS。工作在4层,Linux实现的高性能高并发、可伸缩性、可靠的的负载均衡器。支持多种转发方式(NATDRIP Tunneling),当中DR模式支持通过广域网进行负载均衡。

支持双机热备(Keepalived或者Heartbeat)。对网络环境的依赖性比較高。

Nginx工作在7层。事件驱动的、异步非堵塞的架构、支持多进程的高并发的负载均衡器/反向代理软件。能够针对域名、文件夹结构、正则规则针对http做一些分流。通过port检測到server内部的故障。比方依据server处理网页返回的状态码、超时等等。而且会把返回错误的请求又一次提交到还有一个节点,只是当中缺点就是不支持url来检測

对于session sticky。能够基于ip hash的算法来实现,通过基于cookie的扩展nginx-sticky-module支持session sticky

HAProxy支持4层和7层做负载均衡,支持session的会话保持,cookie的引导;支持后端url方式的检測。负载均衡的算法比較丰富,有RR、权重等。

对于图片,须要有单独的域名。独立或者分布式的图片server或者如mogileFS。能够图片server之上加varnish做图片缓存。

3. App接入

应用层执行在jboss或者tomcat容器中,代表独立的系统。比方前端购物、用户自主服务、后端系统等

协议接口。HTTPJSON

能够採用servlet3.0,异步化servlet,提高整个系统的吞吐量

http请求经过Nginx,通过负载均衡算法分到到App的某一节点,这一层层扩容起来比較简单。

除了利用cookie保存少量用户部分信息外(cookie一般不能超过4K的大小),对于App接入层,保存实用户相关的session数据,可是有些反向代理或者负载均衡不支持对session sticky支持不是非常好或者对接入的可用性要求比較高(app接入节点宕机,session随之丢失),这就须要考虑session的集中式存储。使得App接入层无状态化,同一时候系统用户变多的时候。就能够通过添加很多其它的应用节点来达到水平扩展的目的。

Session的集中式存储,须要满足下面几点要求:

a、高效的通讯协议

bsession的分布式缓存,支持节点的伸缩,数据的冗余备份以及数据的迁移

csession过期的管理

 

4. 业务服务

代表某一领域的业务提供的服务,对于电商而言,领域实用户、商品、订单、红包、支付业务等等。不同的领域提供不同的服务,

这些不同的领域构成一个个模块,良好的模块划分和接口设计很重要。通常是參考高内聚、接口收敛的原则。

这样能够提高整个系统的可用性。当然能够依据应用规模的大小,模块能够部署在一起。对于大规模的应用,通常是独立部署的。

高并发:

业务层对外协议以NIORPC方式暴露,能够採用比較成熟的NIO通讯框架,如nettymina

可用性:

为了提高模块服务的可用性。一个模块部署在多个节点做冗余,并自己主动进行负载转发和失效转移;

最初能够利用VIP+heartbeat方式,眼下系统有一个单独的组件HA,利用zookeeper实现(比原来方案的长处)

一致性、事务:

对于分布式系统的一致性,尽量满足可用性,一致性能够通过校对来达到终于一致的状态。

5. 基础服务中间件

1) 通信组件

通信组件用于业务系统内部服务之间的调用,在大并发的电商平台中,须要满足高并发高吞吐量的要求。

整个通信组件包含client和服务端两部分。

client和server端维护的是长连接,能够降低每次请求建立连接的开销,在client对于每一个server定义一个连接池,初始化连接后。能够并发连接服务端进行rpc操作,连接池中的长连接须要心跳维护,设置请求超时时间。

对于长连接的维护过程能够分两个阶段。一个是发送请求过程。另外一个是接收响应过程。在发送请求过程中。若发生IOException,则把该连接标记失效。

接收响应时,服务端返回SocketTimeoutException,假设设置了超时时间,那么就直接返回异常,清除当前连接中那些超时的请求。否则继续发送心跳包(由于可能是丢包,超过pingInterval间隔时间就发送ping操作),若ping不通(发送IOException)。则说明当前连接是有问题的。那么就把当前连接标记成已经失效;若ping通,则说明当前连接是可靠的,继续进行读操作。

失效的连接会从连接池中清除掉。

每一个连接对于接收响应来说都以单独的线程执行,client能够通过同步(wait,notify)方式或者异步进行rpc调用,

序列化採用更高效的hession序列化方式。

服务端採用事件驱动的NIOMINA框架,支撑高并发高吞吐量的请求。

技术分享

 

2) 路由Router

在大多数的数据库切分解决方式中。为了提高数据库的吞吐量,首先是对不同的表进行垂直切分到不同的数据库中,

然后当数据库中一个表超过一定大小时,须要对该表进行水平切分,这里也是一样,这里以用户表为例。

对于訪问数据库client来讲,须要依据用户的ID,定位到须要訪问的数据;

数据切分算法,

依据用户的IDhash操作。一致性Hash,这样的方式存在失效数据的迁移问题。迁移时间内服务不可用

维护路由表,路由表中存储用户和sharding的映射关系,sharding分为leaderreplica,分别负责写和读

这样每一个bizclient都须要保持全部sharding的连接池。这样有个缺点是会产生全连接的问题;

一种解决方法是sharding的切分提到业务服务层进行,每一个业务节点仅仅维护一个shard的连接就可以。

见图(router

 技术分享

   

路由组件的实现是这种(可用性、高性能、高并发)

基于性能方面的考虑。採用mongodb中维护用户idshard的关系。为了保证可用性,搭建replicatset集群。

bizsharding和数据库的sharding是一一相应的,仅仅訪问一个数据库sharding.

biz业务注冊节点到zookeeper/bizs/shard/下。

router监听zookeeper/bizs/下节点状态。缓存在线bizrouter中。

client请求router获取biz时。router首先从mongodb中获取用户相应的shard,router依据缓存的内容通过RR算法获取biz节点。

为了解决router的可用性和并发吞吐量问题,对router进行冗余。同一时候client监听zookeeper/routers节点并缓存在线router节点列表。

 

3) HA

传统实现HA的做法通常是採用虚拟IP漂移,结合Heartbeatkeepalived等实现HA

Keepalived使用vrrp方式进行数据包的转发。提供4层的负载均衡,通过检測vrrp数据包来切换,做冗余热备更加适合与LVS搭配。

Linux Heartbeat是基于网络或者主机的服务的高可用。HAProxy或者Nginx能够基于7层进行数据包的转发。因此Heatbeat更加适合做HAProxyNginx,包含业务的高可用。

在分布式的集群中,能够用zookeeper做分布式的协调,实现集群的列表维护和失效通知,client能够选择hash算法或者roudrobin实现负载均衡;对于master-master模式、master-slave模式。能够通过zookeeper分布式锁的机制来支持。

4) 消息Message

对于平台各个系统之间的异步交互,是通过MQ组件进行的。

在设计消息服务组件时。须要考虑消息一致性、持久化、可用性、以及完好的监控体系。

业界开源的消息中间件主要RabbitMQkafka有两种。

RabbitMQ,遵循AMQP协议。由内在高并发的erlanng语言开发;kafkaLinkedin201012月份开源的消息公布订阅系统,它主要用于处理活跃的流式数据,大数据量的数据处理上。

对消息一致性要求比較高的场合须要有应答确认机制。包含生产消息和消费消息的过程。只是因网络等原理导致的应答缺失,可能会导致消息的反复。这个能够在业务层次依据幂等性进行推断过滤;RabbitMQ採用的是这样的方式。另一种机制是消费端从broker拉取消息时带上LSN号,从broker中某个LSN点批量拉取消息,这样无须应答机制。kafka分布式消息中间件就是这样的方式。

消息的在broker中的存储,依据消息的可靠性的要求以及性能方面的综合衡量。能够在内存中,能够持久化到存储上。

对于可用性和高吞吐量的要求,集群和主备模式都能够在实际的场景应用的到。RabbitMQ解决方式中有普通的集群和可用性更高的mirror queue方式。 kafka採用zookeeper对集群中的brokerconsumer进行管理。能够注冊topiczookeeper上;通过zookeeper的协调机制。producer保存相应topicbroker信息。能够随机或者轮询发送到broker上;而且producer能够基于语义指定分片,消息发送到broker的某分片上。

整体来讲。RabbitMQ用在实时的对可靠性要求比較高的消息传递上。kafka主要用于处理活跃的流式数据,大数据量的数据处理上。

 

5) Cache&Buffer

Cache系统

在一些高并发高性能的场景中,使用cache能够降低对后端系统的负载。承担可大部分读的压力,能够大大提高系统的吞吐量,比方通常在数据库存储之前添加cache缓存。

可是引入cache架构不可避免的带来一些问题,cache命中率的问题, cache失效引起的抖动,cache和存储的一致性。

Cache中的数据相对于存储来讲,毕竟是有限的,比較理想的情况是存储系统的热点数据,这里能够用一些常见的算法LRU等等淘汰老的数据;随着系统规模的添加。单个节点cache不能满足要求,就须要搭建分布式Cache;为了解决单个节点失效引起的抖动 ,分布式cache一般採用一致性hash的解决方式,大大降低因单个节点失效引起的抖动范围。而对于可用性要求比較高的场景,每一个节点都是须要有备份的。数据在cache和存储上都存有同一份备份。必定有一致性的问题,一致性比較强的,在更新数据库的同一时候,更新数据库cache

对于一致性要求不高的。能够去设置缓存失效时间的策略。

Memcached作为快速的分布式缓存server。协议比較简单。基于libevent的事件处理机制。

Cache系统在平台中用在router系统的client中,热点的数据会缓存在client,当数据訪问失效时,才去訪问router系统。

当然眼下很多其它的利用内存型的数据库做cache。比方redismongodbredismemcache有丰富的数据操作的APIredismongodb都对数据进行了持久化,而memcache没有这个功能。因此memcache更加适合在关系型数据库之上的数据的缓存。

 

Buffer系统

用在快速的写操作的场景中,平台中有些数据须要写入数据库。而且数据是分库分表的,但对数据的可靠性不是那么高,为了降低对数据库的写压力。能够採取批量写操作的方式。

开辟一个内存区域,当数据到达区域的一定阀值时如80%时。在内存中做分库梳理工作(内存速度还是比較快的),后分库批量flush。

6) 搜索

在电子商务平台中搜索是一个很的重要功能,主要有搜索词类目导航、自己主动提示和搜索排序功能。

开源的企业级搜索引擎主要有lucene, sphinx,这里不去论述哪种搜索引擎更好一些,只是选择搜索引擎除了主要的功能须要支持外,非功能方面须要考虑下面两点:

a、 搜索引擎是否支持分布式的索引和搜索。来应对海量的数据,支持读写分离。提高可用性

b、 索引的实时性

c、 性能

Solr是基于lucene的高性能的全文搜索server。提供了比lucene更为丰富的查询语言。可配置可扩展,对外提供基于http协议的XML/JSON格式的接口。

Solr4版本号開始提供了SolrCloud方式来支持分布式的索引,自己主动进行sharding数据切分。通过每一个shardingmaster-slave(leaderreplica)模式提高搜索的性能。利用zookeeper对集群进行管理,包含leader选举等等,保障集群的可用性。

Lucene索引的Reader是基于索引的snapshot的,所以必须在索引commit的后,又一次打开一个新的snapshot,才干搜索到新加入的内容;而索引的commit是很耗性能的。这样达到实时索引搜索效率就比較低下。

对于索引搜索实时性,Solr4的之前解决方式是结合文件全量索引和内存增量索引合并的方式,參见下图。

技术分享

 

Solr4提供了NRT softcommit的解决方式,softcommit无需进行提交索引操作,就能够搜素到最新对索引的变更,只是对索引的变更并没有sync commit到硬盘存储上。若发生意外导致程序非正常结束,未commit的数据会丢失,因此须要定时的进行commit操作。

平台中对数据的索引和存储操作是异步的。能够大大提高可用性和吞吐量;仅仅对某些属性字段做索引操作,存储数据的标识key,降低索引的大小;数据是存储在分布式存储HBase 中的。HBase对二级索引搜索支持的不好。然而能够结合Solr搜索功能进行多维度的检索统计。

索引数据和HBase数据存储的一致性,也就是怎样保障HBase存储的数据都被索引过,能够採用confirm确认机制。通过在索引前建立待索引数据队列。在数据存储并索引完毕后,从待索引数据队列中删除数据。

 

 

7) 日志收集

在整个交易过程中,会产生大量的日志。这些日志须要收集到分布式存储系统中存储起来。以便于集中式的查询和分析处理。

日志系统需具备三个基本组件。分别为agent(封装数据源,将数据源中的数据发送给collector)。collector(接收多个agent的数据。并进行汇总后导入后端的store中),store(中央存储系统,应该具有可扩展性和可靠性,应该支持当前很流行的HDFS)。

开源的日志收集系统业界使用的比較多的是clouderaFlumefacebookScribe,当中Flume眼下的版本号FlumeNGFlume从架构上做了较大的修改。

在设计或者对日志收集系统做技术选型时,通常须要具有下面特征:

a、 应用系统和分析系统之间的桥梁,将他们之间的关系解耦

b、 分布式可扩展。具有高的扩展性。当数据量添加时。能够通过添加节点水平扩展

日志收集系统是能够伸缩的,在系统的各个层次都可伸缩。对数据的处理不须要带状态,伸缩性方面也比較easy实现。

c、 近实时性

在一些时效性要求比較高的场景中,须要能够及时的收集日志。进行数据分析;

一般的日志文件都会定时或者定量的进行rolling,所以实时检測日志文件的生成。及时对日志文件进行类似的tail操作,并支持批量发送提高传输效率;批量发送的时机须要满足消息数量和时间间隔的要求。

 

d、 容错性

Scribe在容错方面的考虑是,当后端的存储系统crash时,scribe会将数据写到本地磁盘上。当存储系统恢复正常后。scribe将日志又一次载入到存储系统中。

FlumeNG通过Sink Processor实现负载均衡和故障转移。多个Sink能够构成一个Sink Group

一个Sink Processor负责从一个指定的Sink Group中激活一个SinkSink Processor能够通过组中全部Sink实现负载均衡;也能够在一个Sink失败时转移到还有一个。

e、 事务支持

Scribe没有考虑事务的支持。

Flume通过应答确认机制实现事务的支持,參见下图,

技术分享

通常提取发送消息都是批量操作的。消息的确认是对一批数据的确认,这样能够大大提高数据发送的效率。

 

f、 可恢复性

FlumeNGchannel依据可靠性的要求的不同,能够基于内存和文件持久化机制,基于内存的传输数据的销量比較高。可是在节点宕机后。数据丢失,不可恢复。而文件持久化宕机是能够恢复的。

g、 数据的定时定量归档

数据经过日志收集系统归集后,一般存储在分布式文件系统如Hadoop。为了便于对数据进行兴许的处理分析,须要定时(TimeTrigger)或者定量(SizeTriggerrolling分布式系统的文件。

8) 数据同步

在交易系统中,通常须要进行异构数据源的同步,通常有数据文件到关系型数据库,数据文件到分布式数据库。关系型数据库到分布式数据库等。数据在异构源之间的同步通常是基于性能和业务的需求,数据存储在本地文件里通常是基于性能的考虑。文件是顺序存储的,效率还是比較高的;数据同步到关系型数据通常是基于查询的需求。而分布式数据库是存储越来越多的海量数据的。而关系型数据库无法满足大数据量的存储和查询请求。

在数据同步的设计中须要综合考虑吞吐量、容错性、可靠性、一致性的问题

同步有实时增量数据同步和离线全量数据区分,以下从这两个维度来介绍一下。

实时增量通常是Tail文件来实时跟踪文件变化。批量或者多线程往数据库导出,这样的方式的架构类似于日志收集框架。这样的方式须要有确认机制,包含两个方面。

一个方面是Channel须要给agent确认已经批量收到数据记录了。发送LSN号给agent,这样在agent失效恢复时,能够从这个LSN点開始tail;当然对于同意少量的反复记录的问题(发生在channelagent确认的时,agent宕机并未受到确认消息),须要在业务场景中推断。

另外一个方面是syncchannel确认已经批量完毕写入到数据库的操作,这样channel能够删除这部分已经confirm的消息。

基于可靠性的要求,channel能够採用文件持久化的方式。

參见下图

技术分享

离线全量遵循空间间换取时间,分而治之的原则,尽量的缩短数据同步的时间,提高同步的效率。

须要对源数据比方mysql进行切分,多线程并发读源数据,多线程并发批量写入分布式数据库比方HBase,利用channel作为读写之间的缓冲,实现更好的解耦,channel能够基于文件存储或者内存。

參见下图:

技术分享

对于源数据的切分,假设是文件能够依据文件名设置块大小来切分。

对于关系型数据库。因为一般的需求是仅仅离线同步一段时间的数据(比方凌晨把当天的订单数据同步到HBase)。所以须要在数据切分时(依照行数切分)。会多线程扫描整个表(及时建索引,也要回表)。对于表中包括大量的数据来讲,IO非常高。效率非常低;这里解决办法是对数据库依照时间字段(依照时间同步的)建立分区。每次依照分区进行导出。

9) 数据分析

从传统的基于关系型数据库并行处理集群、用于内存计算近实时的,到眼下的基于hadoop的海量数据的分析,数据的分析在大型电子商务站点中应用很广泛,包含流量统计、推荐引擎、趋势分析、用户行为分析、数据挖掘分类器、分布式索引等等。

并行处理集群有商业的EMC GreenplumGreenplum的架构採用了MPP(大规模并行处理)基于postgresql的大数据量存储的分布式数据库。

内存计算方面有SAPHANA,开源的nosql内存型的数据库mongodb也支持mapreduce进行数据的分析。

海量数据的离线分析眼下互联网公司大量的使用HadoopHadoop在可伸缩性、健壮性、计算性能和成本上具有无可替代的优势,其实已成为当前互联网企业主流的大数据分析平台

Hadoop通过MapReuce的分布式处理框架,用于处理大规模的数据,伸缩性也很好;可是MapReduce最大的不足是不能满足实时性的场景。主要用于离线的分析。

基于MapRduce模型编程做数据的分析,开发上效率不高。位于hadoop之上Hive的出现使得数据的分析能够类似编写sql的方式进行。sql经过语法分析、生成运行计划后终于生成MapReduce任务进行运行,这样大大提高了开发的效率。做到以ad-hoc(计算在query发生时)方式进行的分析。

基于MapReduce模型的分布式数据的分析都是离线的分析。运行上都是暴力扫描,无法利用类似索引的机制;开源的Cloudera Impala是基于MPP的并行编程模型的。底层是Hadoop存储的高性能的实时分析平台,能够大大减少数据分析的延迟。

眼下Hadoop使用的版本号是Hadoop1.0,一方面原有的MapReduce框架存在JobTracker单点的问题。另外一方面JobTracker在做资源管理的同一时候又做任务的调度工作。随着数据量的增大和Job任务的增多,明显存在可扩展性、内存消耗、线程模型、可靠性和性能上的缺陷瓶颈。Hadoop2.0 yarn对整个框架进行了重构,分离了资源管理和任务调度,从架构设计上攻克了这个问题。

參考Yarn的架构

10) 实时计算

在互联网领域,实时计算被广泛实时监控分析、流控、风险控制等领域。电商平台系统或者应用对日常产生的大量日志和异常信息。须要经过实时过滤、分析,以判定是否须要预警;

同一时候须要对系统做自我保护机制,比方对模块做流量的控制,以防止非预期的对系统压力过大而引起的系统瘫痪,流量过大时,能够採取拒绝或者引流等机制。有些业务须要进行风险的控制,比方彩票中有些业务须要依据系统的实时销售情况进行限号与放号。

原始基于单节点的计算。随着系统信息量爆炸式产生以及计算的复杂度的添加,单个节点的计算已不能满足实时计算的要求,须要进行多节点的分布式的计算,分布式实时计算平台就出现了。

这里所说的实时计算,事实上是流式计算,概念前身事实上是CEP复杂事件处理,相关的开源产品如Esper,业界分布式的流计算产品Yahoo S4,Twitter storm等,以storm开源产品使用最为广泛。

对于实时计算平台。从架构设计上须要考虑下面几个因素:

1、 伸缩性

随着业务量的添加,计算量的添加,通过添加节点处理,就能够处理。

2、 高性能、低延迟

从数据流入计算平台数据,到计算输出结果。须要性能高效且低延迟,保证消息得到高速的处理,做到实时计算。

3、 可靠性

保证每一个数据消息得到一次完整处理。

4、 容错性

系统能够自己主动管理节点的宕机失效,相应用来说,是透明的。

TwitterStorm在以上这几个方面做的比較好,以下简单介绍一下Storm的架构。

技术分享

整个集群的管理是通过zookeeper来进行的。

client提交拓扑到nimbus

Nimbus针对该拓扑建立本地的文件夹依据topology的配置计算task,分配task,在zookeeper上建立assignments节点存储tasksupervisor机器节点中woker的相应关系

zookeeper上创建taskbeats节点来监控task的心跳。启动topology

Supervisorzookeeper上获取分配的tasks。启动多个woker进行。每一个woker生成task,一个task一个线程;依据topology信息初始化建立task之间的连接;TaskTask之间是通过zeroMQ管理的;后整个拓扑执行起来。

Tuple是流的基本处理单元,也就是一个消息。Tupletask中流转。Tuple的发送和接收步骤例如以下:

发送TupleWorker提供了一个transfer的功能,用于当前tasktuple发到到其它的task中。

以目的taskidtuple參数,序列化tuple数据并放到transfer queue中。

0.8版本号之前。这个queueLinkedBlockingQueue0.8之后是DisruptorQueue

0.8版本号之后,每个woker绑定一个inbound transfer queueoutbond queueinbound queue用于接收messageoutbond queue用于发送消息。

发送消息时。由单个线程从transferqueue中拉取数据,把这个tuple通过zeroMQ发送到其它的woker中。

接收Tuple每一个woker都会监听zeroMQtcpport来接收消息,消息放到DisruptorQueue中后。后从queue中获取message(taskid,tuple)。依据目的taskid,tuple的值路由到task中运行。每一个tuple能够emitdirect steam中。也能够发送到regular stream中。在Reglular方式下,由Stream Groupstream id-->component id -->outbond tasks)功能完毕当前tuple将要发送的Tuple的目的地。

通过以上分析能够看到,Storm在伸缩性、容错性、高性能方面的从架构设计的角度得以支撑。同一时候在可靠性方面,Stormack组件利用异或xor算法在不失性能的同一时候。保证每个消息得到完整处理的同一时候。 

 

11) 实时推送

实时推送的应用场景许多。比方系统的监控动态的实时曲线绘制,手机消息的推送,web实时聊天等。

实时推送有非常多技术能够实现,有Comet方式,有websocket方式等。

Comet基于server长连接的“server推”技术,包括两种:

Long Polling:server端在接到请求后挂起。有更新时返回连接即断掉,然后client再发起新的连接

Stream方式每次服务端数据传送不会关闭连接,连接仅仅会在通信出现错误时,或是连接重建时关闭(一些防火墙常被设置为丢弃过长的连接, server端能够设置一个超时时间, 超时后通知client又一次建立连接。并关闭原来的连接)。

Websocket:长连接。全双工通信

是 html的一种新的协议。它实现了浏览器与server的双向通讯。webSocket API 中。浏览器和server端仅仅须要通过一个握手的动作。便能形成浏览器与client之间的高速双向通道,使得数据能够高速的双向传播。

Socket.io是一个NodeJS websocket库,包含client的JS和服务端的的nodejs,用于高速构建实时的web应用。

12) 推荐引擎

 待补充

 

6. 数据存储

数据库存储大体分为以下几类。有关系型(事务型)的数据库。以oraclemysql为代表,有keyvalue数据库。以redismemcached db为代表。有文档型数据库如mongodb,有列式分布式数据库以HBasecassandra,dynamo为代表。还有其它的图形数据库、对象数据 库、xml数据库等。

每种类型的数据库应用的业务领域是不一样的,以下从内存型、关系型、分布式三个维度针对相关的产品做性能可用性等方面的考量分析。

1) 内存型数据库

内存型的数据库,以高并发高性能为目标,在事务性方面没那么严格,以开源nosql数据库mongodbredis为例

? Mongodb

通信方式

多线程方式,主线程监听新的连接。连接后,启动新的线程做数据的操作(IO切换)。

数据结构

 

技术分享

 

数据库-->collection-->record

MongoDB在数据存储上按命名空间来划分,一个collection是一个命名空间,一个索引也是一个命名空间。

同一个命名空间的数据被分成非常多个ExtentExtent之间使用双向链表连接。

在每个Extent中,保存了详细每一行的数据,这些数据也是通过双向链接连接的。

每一行数据存储空间不仅包括数据占用空间,还可能包括一部分附加空间。这使得在数据update变大后能够不移动位置。

索引以BTree结构实现。

假设你开启了jorunaling日志,那么还会有一些文件存储着你全部的操作记录

 

 

持久化存储

MMap方式把文件地址映射到内存的地址空间,直接操作内存地址空间就能够操作文件,不用再调用write,read操作。性能比較高。

mongodb调用mmap把磁盘中的数据映射到内存中的,所以必须有一个机制时刻的刷数据到硬盘才干保证可靠性。多久刷一次是与syncdelay參数相关的。

 journal(进行恢复用)是Mongodb中的redo log。而Oplog则是负责复制的binlog。假设打开journal,那么即使断电也仅仅会丢失100ms的数据,这对大多数应用来说都能够容忍了。

1.9.2+mongodb都会默认打开journal功能,以确保数据安全。并且journal的刷新时间是能够改变的,2-300ms的范围,使用 --journalCommitInterval 命令。Oplog和数据刷新到磁盘的时间是60s,对于复制来说,不用等到oplog刷新磁盘,在内存中就能够直接拷贝到Sencondary节点。

 

事务支持

Mongodb仅仅支持对单行记录的原子操作

 

HA集群

用的比較多的是Replica Sets,採用选举算法。自己主动进行leader选举。在保证可用性的同一时候。能够做到强一致性要求。

技术分享

 

当然对于大量的数据,mongodb也提供了数据的切分架构Sharding

 

? Redis

丰富的数据结构,快速的响应速度,内存操作

通信方式

因都在内存操作,所以逻辑的操作很快,降低了CPU的切换开销。所以为单线程的模式(逻辑处理线程和主线程是一个)。

 reactor模式。实现自己的多路复用NIO机制(epollselectkqueue等)

 单线程处理多任务

数据结构

  hash+bucket结构,当链表的长度过长时,会採取迁移的措施(扩展原来两倍的hash表,把数据迁移过去,expand+rehash

 

持久化存储

a、全量持久化RDB(遍历redisDB,读取bucket中的key,value),save命令堵塞主线程,bgsave开启子进程进行snapshot持久化操作。生成rdb文件。

 shutdown时。会调用save操作

 数据发生变化,在多少秒内触发一次bgsave

syncmaster接受slave发出来的命令

b、增量持久化(aof类似redolog),先写到日志buffer,flush到日志文件里(flush的策略能够配置的。而已单条。也能够批量),仅仅有flush到文件上的,才真正返回client。

要定时对aof文件和rdb文件做合并操作(在快照过程中,变化的数据先写到aof buf中等子进程完毕快照<内存snapshot>后。再进行合并aofbuf变化的部分以及全镜像数据)。

在高并发訪问模式下,RDB模式使服务的性能指标出现明显的抖动。aof在性能开销上比RDB好,可是恢复时又一次载入到内存的时间和数据量成正比。

 

集群HA

通用的解决方式是主从备份切换,採用HA软件,使得失效的主redis能够高速的切换到从redis上。主从数据的同步採用复制机制,该场景能够做读写分离。

眼下在复制方面。存在的一个问题是在遇到网络不稳定的情况下。SlaveMaster断开(包含闪断)会导致Master须要将内存中的数据所有又一次生成rdb文件(快照文件),然后传输给Slave

Slave接收完Master传递过来的rdb文件以后会将自身的内存清空,把rdb文件又一次载入到内存中。这样的方式效率比較低下,在后面的未来版本号Redis2.8作者已经实现了部分复制的功能。

2) 关系型数据库

关系型数据库在满足并发性能的同一时候。也须要满足事务性,以mysql数据库为例。讲述架构设计原理,在性能方面的考虑。以及怎样满足可用性的需求。

 

? mysql的架构原理(innodb)

在架构上,mysql分为server层和存储引擎层。

Server层的架构对于不同的存储引擎来讲都是一样的,包含连接/线程处理、查询处理(parseroptimizer)以及其它系统任务。

存储引擎层有非常多种,mysql提供了存储引擎的插件式结构,支持多种存储引擎。用的最广泛的是innodbmyisamininodb主要面向OLTP方面的应用,支持事务处理,myisam不支持事务,表锁,对OLAP操作速度快。

下面主要针对innodb存储引擎做相关介绍。

 

 技术分享

 

在线程处理方面,Mysql是多线程的架构,由一个master线程。一个锁监控线程,一个错误监控线程,和多个IO线程组成。而且对一个连接会开启一个线程进行服务。

io线程又分为节省随机IOinsert buffer。用于事务控制的类似于oracleredo log,以及多个write。多个read的硬盘和内存交换的IO线程。

在内存分配方面,包含innodb buffer pool ,以及log buffer

当中innodb buffer pool包含insert bufferdatapageindex page、数据字典、自适应hashLog buffer用于缓存事务日志,提供性能。

在数据结构方面,innodb包含表空间、段、区、页/块,行。

索引结构是B+tree结构,包含二级索引和主键索引。二级索引的叶子节点是主键PK,依据主键索引的叶子节点指向存储的数据块。这样的B+树存储结构能够更好的满足随机查询操作IO要求,分为数据页和二级索引页,改动二级索引页面涉及到随机操作,为了提高写入时的性能,採用insert buffer做顺序的写入,再由后台线程以一定频率将多个插入合并到二级索引页面。

为了保证数据库的一致性(内存和硬盘数据文件),以及缩短实例恢复的时间,关系型数据库另一个checkpoint的功能,用于把内存buffer中之前的脏页依照比例(老的LSN)写入磁盘,这样redolog文件的LSN曾经的日志就能够被覆盖了,进行循环使用;在失效恢复时,仅仅须要从日志中LSN点进行恢复就可以。

在事务特性支持上。关系型数据库须要满足ACID四个特性,须要依据不同的事务并发和数据可见性要求,定义了不同的事务隔离级别,而且离不开对资源争用的锁机制。要避免产生死锁。mysqlServer层和存储引擎层做并发控制,主要体如今读写锁,依据锁粒度不同,有各个级别的锁(表锁、行锁、页锁、MVCC);基于提高并发性能的考虑,使用多版本号并发控制MVCC来支持事务的隔离。并基于undo来实现,在做事务回滚时。也会用到undo段。

mysql redolog来保证数据的写入的性能和失效恢复。在改动数据时仅仅须要改动内存,再把改动行为记录到事务日志中(顺序IO)。不用每次将数据改动本身持久化到硬盘(随机IO),大大提高性能。

在可靠性方面。innodb存储引擎提供了两次写机制double writer用于防止在flush页面到存储上出现的错误。解决磁盘half-writern的问题。

 

? 对于高并发高性能的mysql来讲,能够在多个维度进行性能方面的调优。

a、硬件级别,

日志和数据的存储,须要分开,日志是顺序的写。须要做raid1+0。而且用buffer-IO。数据是离散的读写。走direct IO就可以,避免走文件系统cache带来的开销。

存储能力,SASraid操作(raid卡缓存,关闭读cache,关闭磁盘cache,关闭预读,仅仅用writeback buffer,只是须要考虑充放电的问题)。当然假设数据规模不大。数据的存储能够用快速的设备,Fusion IOSSD

对于数据的写入,控制脏页刷新的频率。对于数据的读取,控制cache hit率;因此而估算系统须要的IOPS,评估须要的硬盘数(fusion io上到IOPS 10w以上,普通的硬盘150)

Cpu方面,单实例关闭NUMAmysql对多核的支持不是太好,能够对多实例进行CPU绑定。

b、操作系统级别,

内核以及socket的优化,网络优化bond、文件系统、IO调度

innodb主要用在OLTP类应用,一般都是IO密集型的应用。在提高IO能力的基础上,充分利用cache机制。

须要考虑的内容有。

在保证系统可用内存的基础上,尽可能的扩大innodb buffer pool,一般设置为物理内存的3/4

文件系统的使用。仅仅在记录事务日志的时候用文件系统的cache;尽量避免mysql用到swap(能够将vm.swappiness=0,内存紧张时。释放文件系统cache)

IO调度优化,降低不必要的堵塞,降低随机IO訪问的延时(CFQDeadlineNOOP)

c、server以及存储引擎级别(连接管理、网络管理、table管理、日志)

包含cache/bufferConnectionIO

d、应用级别(比方索引的考虑,schema的优化适当冗余。优化sql查询导致的CPU问题和内存问题。降低锁的范围,降低回表扫描,覆盖索引)

? 在高可用实践方面,

支持master-mastermaster-slave模式。master-master模式是一个作为主负责读写,另外一个作为standby提供灾备,maser-slave是一个作为主提供写操作,其它几个节点作为读操作,支持读写分离。

对于节点主备失效检測和切换,能够採用HA软件,当然也能够从更细粒度定制的角度,採用zookeeper作为集群的协调服务。

对于分布式的系统来讲,数据库主备切换的一致性始终是一个问题,能够有下面几种方式:

a、集群方式,如oraclerack,缺点是比較复杂

b、共享SAN存储方式,相关的数据文件和日志文件都放在共享存储上。长处是主备切换时数据保持一致,不会丢失。但因为备机有一段时间的拉起,会有短暂的不可用状态

c、主备进行数据同步的方式,常见的是日志的同步,能够保障热备,实时性好,可是切换时。可能有部分数据没有同步过来,带来了数据的一致性问题。能够在操作主数据库的同一时候,记录操作日志,切换到备时,会和操作日志做个check。补齐未同步过来的数据;

d另一种做法是备库切换到主库的regolog的存储上。保证数据不丢失。

数据库主从复制的效率在mysql上不是太高,主要原因是事务是严格保持顺序的,索引mysql在复制方面包含日志IOrelog log两个过程都是单线程的串行操作,在数据复制优化方面。尽量降低IO的影响。

只是到了Mysql5.6版本号,能够支持在不同的库上的并行复制。

? 基于不同业务要求的存取方式

平台业务中。不同的业务有不同的存取要求,比方典型的两大业务用户和订单,用户一般来讲总量是可控的,而订单是不断地递增的,对于用户表首先採取分库切分,每一个sharding做一主多读。相同对于订单因很多其它需求的是用户查询自己的订单,也须要依照用户进行切分订单库。而且支持一主多读。

在硬件存储方面,对于事务日志因是顺序写。闪存的优势比硬盘高不了多少,所以採取电池保护的写缓存的raid卡存储;对于数据文件,不管是对用户或者订单都会存在大量的随机读写操作,当然加大内存是一个方面,另外能够採用快速的IO设备闪存,比方PCIe卡 fusion-io

使用闪存也适合在单线程的负载中,比方主从复制,能够对从节点配置fusion-IO卡,减少复制的延迟。

对于订单业务来讲,量是不断递增的,PCIe卡存储容量比較有限。而且订单业务的热数据仅仅有近期一段时间的(比方近3个月的)。对此这里列两种解决方式,一种是flashcache方式,採用基于闪存和硬盘存储的开源混合存储方式,在闪存中存储热点的数据。第二种是能够定期把老的数据导出到分布式数据库HBase中,用户在查询订单列表是近期的数据从mysql中获取,老的数据能够从HBase中查询。当然须要HBase良好的rowkey设计以适应查询需求。

 

 

3) 分布式数据库

对于数据的高并发的訪问。传统的关系型数据库提供读写分离的方案,可是带来的确实数据的一致性问题提供的数据切分的方案;对于越来越多的海量数据。传统的数据库採用的是分库分表,实现起来比較复杂,后期要不断的进行迁移维护;对于高可用和伸缩方面,传统数据採用的是主备、主从、多主的方案。可是本身扩展性比較差,添加节点和宕机须要进行数据的迁移。对于以上提出的这些问题。分布式数据库HBase有一套完好的解决方式,适用于高并发海量数据存取的要求。

 

? HBase

基于列式的高效存储减少IO
通常的查询不须要一行的所有字段,大多数仅仅须要几个字段
对与面向行的存储系统,每次查询都会所有数据取出,然后再从中选出须要的字段
面向列的存储系统能够单独查询某一列。从而大大减少IO
提高压缩效率
同列数据具有非常高的相似性,会添加压缩效率
Hbase的非常多特性。都是由列存储决定的

高性能

LSM Tree

适合快速写的场景

 技术分享

 

强一致的数据訪问

MVCC

HBase的一致性数据訪问是通过MVCC来实现的。

HBase在写数据的过程中,须要经过好几个阶段,写HLog。写memstore,更新MVCC;

仅仅有更新了MVCC,才算真正memstore写成功,当中事务的隔离须要有mvcc的来控制,比方读数据不能够获取别的线程还未提交的数据。

高可靠

HBase的数据存储基于HDFS。提供了冗余机制。

Region节点的宕机,对于内存中的数据还未flush到文件里,提供了可靠的恢复机制。

技术分享

  

 

可伸缩。自己主动切分。迁移

通过Zookeeper定位目标Region Server,最后定位Region。 

Region Server扩容,通过将自身公布到MasterMaster均匀分布。

 

可用性

存在单点故障,Region Server宕机后,短时间内该server维护的region无法訪问。等待failover生效。 

通过Master维护各Region Server健康状况和Region分布。

多个MasterMaster宕机有zookeeperpaxos投票机制选取下一任Master

Master就算全宕机,也不影响Region读写。

Master仅充当一个自己主动运维角色。

HDFS为分布式存储引擎,一备三,高可靠,0数据丢失。

HDFSnamenode是一个SPOF

为避免单个region訪问过于频繁,单机压力过大,提供了split机制

HBase的写入是LSM-TREE的架构方式,随着数据的appendHFile越来越多。HBase提供了HFile文件进行compact,对过期数据进行清除。提高查询的性能。

Schema free

HBase没有像关系型数据库那样的严格的schema,能够自由的添加和删除schema中的字段。

 

HBase分布式数据库。对于二级索引支持的不太好,眼下仅仅支持在rowkey上的索引,所以rowkey的设计对于查询的性能来讲很关键。

7. 管理与部署配置

统一的配置库

部署平台

 

 

8. 监控、统计

 

大型分布式系统涉及各种设备。比方网络交换机,普通PC机。各种型号的网卡。硬盘,内存等等,还有应用业务层次的监控。数量许多的时候,出现错误的概率也会变大,而且有些监控的时效性要求比較高,有些达到秒级别;在大量的数据流中须要过滤异常的数据,有时候也对数据会进行上下文相关的复杂计算,进而决定是否须要告警。因此监控平台的性能、吞吐量、已经可用性就比較重要,须要规划统一的一体化的监控平台对系统进行各个层次的监控。

 

平台的数据分类

应用业务级别:应用事件、业务日志、审计日志、请求日志、异常、请求业务metrics、性能度量

系统级别:CPU、内存、网络、IO

 

时效性要求

阀值。告警:

实时计算:

近实时分钟计算

按小时、天的离线分析

实时查询

 

架构

节点中Agent代理能够接收日志、应用的事件以及通过探针的方式採集数据,agent採集数据的一个原则是和业务应用的流程是异步隔离的。不影响交易流程。

数据统一通过collector集群进行收集,依照数据的不同类型分发到不同的计算集群进行处理;有些数据时效性不是那么高,比方按小时进行统计,放入hadoop集群;有些数据是请求流转的跟踪数据,须要能够查询的,那么就能够放入solr集群进行索引;有些数据须要进行实时计算的进而告警的,须要放到storm集群中进行处理。

数据经过计算集群处理后。结果存储到Mysql或者HBase中。

监控的web应用能够把监控的实时结果推送到浏览器中,也能够提供API供结果的展现和搜索。

 技术分享









































以上是关于高并发电子商务平台技术架构的主要内容,如果未能解决你的问题,请参考以下文章

MySQL的Docker容器化大规模实践

电子商务商城系统开发方案:中大型交易类电商网站架构设计

实现基于lnmp的电子商务网站

AWS云计算平台工作使用中的心得

[项目] 电子商城项目 Part.1

电子商务网站比较常用的缓存策略架构