《Elasticsearch 源码解析与优化实战》第14章:Cluster模块分析
Posted 宝哥大数据
tags:
篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了《Elasticsearch 源码解析与优化实战》第14章:Cluster模块分析相关的知识,希望对你有一定的参考价值。
文章目录
Cluster模块封装了在集群层面要执行的任务。例如,把分片分配给节点属于集群层面的工作,在节点间迁移分片以保持数据均衡,集群健康、集群级元信息管理,以及节点管理都属于集群层面工作。本章重点论述集群任务的执行,以及集群状态的下发过程。分片分配和节点管理等单独讨论更合适一-些。
在_ cluster/health API 中看到的 number_of_pending_tasks (任务数量)就是等待执行的“集群任务”的任务数量,通过 _cat/pending_tasks API 可以列出具体的任务列表。本章介绍主节点都会执行哪些任务,以及任务的执行细节。这些任务由主节点执行,如果其他节点产生某些事件涉及集群层面的变更,则它需要向主节点发送一个RPC请求,然后由主节点执行集群任务。例如,在数据写入过程中,主分片写副分片失败,它会向主节点发送一个RPC请求,将副分片从同步分片列表中移除。
集群任务执行完毕,可能会产生新的集群状态。如果产生新的集群状态,则主节点会把它广播到其他节点。主节点和其他节点的通信使用最广泛的方式,就是通过下发集群状态让从节点执行相应的处理。控制信息、变更信息都存储在集群状态中。我们先来看看集群状态中存在哪些内容。
集群状态
集群状态在ES中封装为 ClusterState 类。可以通过cluster/state API来获取集群状态。
curl -X GET "localhost: 9200/_cluster/state"
响应信息中提供了集群名称、集群状态的总压缩大小(下发到数据节点时是被压缩的)和集群状态本身,请求时可以通过设置过滤器来获取特定内容。
默认情况下,协调节点在收到这个请求后会把请求路由到主节点执行,确保获取最新的集群状态。可以通过在请求中添加local=true参数,让接收请求的节点返回本地的集群状态。例如,在排查问题时如果怀疑节点的集群状态是否最新,则可以用这种方式来验证。
集群状态返回的信息比较多,为了节省篇幅,摘取关键信息如下。
{
"cluster_name" : "elasticsearch",
"compressed_size_in_bytes" : 1383, //压缩后的字节数
"version" : 5, //当前集群状态的版本号
"state_uuid" : "MMXpwaedThCVDIkzn9vpgA",
"master_node" : " fc6s0S0hRi2yJvMo54qt_g",
"blocks" : { }, //阻塞信息
"nodes" : {
" fc6s0S0hRi2yJvMo54qt_g" : {
//节点名称、监听地址和端口等信息
}
}
"metadata" : {//元数据
"cluster_uuid" : "olrqNUxhTC20VVG8KyXJ_w",
"templates" : {
//全部模板的具体内容
},
"indices" : {//索引列表
"website" : {
"state" : "open",
"settings" : {
//setting的具体内容
},
"mappings": {
//mapping的具体内容
}
"aliases" : [ ],//索引别名
"primary_ terms" : {
//某个分片被选为主分片的次数,用于区分新旧主分片(具体请参考数据模型一章)
"0" : 4,
"1" : 5
}
"in_sync_allocations" : {
//同步分片列表,代表某个分片中拥有最新数据的分片列表
"1":[
"jalbPWjJST2bDPCU008ScQ" //这个值是allocation_id
],
"0":[
"1EjTXE1CSZ-C1DYlEFRXtw"
]
}
}
},
"repositories" : {
//为存储快照而创建的仓库列表
},
"index-graveyard" : {
//索引墓碑。记录已删除的索引,并保存一段时间。索引删除是主节点通过下发
//集群状态来执行的
//各节点处理集群状态是异步的过程。例如,索引分片分布在5个节点上,删除
//索引期间,某个节点是“down”掉的,没有执行删除逻辑
//当这个节点恢复的时候,其存储的已删除的索引会被当作孤立资源加入集群,
//索引死而复活。墓碑的作用就是防止发生这种情况
"tombstones" : [
//已删除的索引列表
]
}
},
"routing_table" : { //内容路由表。存储某个分片位于哪个节点的信息。通过分片
//找到节点
"indices" : { //全部索引列表
"website" : {//索引名称
"shards" : {//该索引的全部分片列表 .
"1" : [//分片 1
{
"state" : "STARTED", //分片可能的状态: UNASSIGNED、INITIALIZING、
//STARTED、RELOCATING
"primary" : true, //是否是主分片
"node" : "fc6s0S0hRi2yJvMo54qt_g", //所在分片
"relocating_node" : null, //正在“relocation”到哪个节点
"shard" : 1, // 分片1
"index" : "website", // 索引名
"allocation_ id" : {
"id" : "jalbPWj JST2bDPCUO08ScQ" // 分片唯一的allocation_id配合in_sync_allocations使用
}
}
]
}
}
}
},
"routing nodes" : {//存储某个节点存储了哪些分片的信息。通过节点找到分片
"unassigned" : [//未分配的分片列表
{//某个分片的信息
"state" : "UNASSIGNED",
"primary" : true,
"node" : null,
"relocating_ node" : null,
"shard" : 0,
"index" : "website",
" recovery_ source" : {
"type" : "EXISTING_ STORE"
},
"unassigned_ info" : {//未 分配的具体信息
"reason" : "CLUSTER RECOVERED",
"at" : "2018-05-27T08:17:56.381Z",
"delayed" : false,
"allocation status" : "no_ valid_ shard copy"
}
}
],
"nodes" : {//节点列表
"fc6s0S0hRi2yJvMo54qt_g" : [//某个节点 上的分片列表
{
"state" : "STARTED", //分片信息, 同上
"primary" : true,
"node" : " fc6s0S0hRi2yJvMo54qt_g",
"relocating_ node" : null,
"shard" : 1,
"index" : "website",
"allocation_id" : {
"id" : "jalbPWjJST2bDPCU008ScQ"
},
"snapshot_deletions" : {//请 求删除快照的信息
"snapshot_deletions" :[ ]
},
"snapshots" : {//请求创 建快照的信息
"snapshots" : [ ]
},
"restore" : {//请求恢 复快照的信息
"snapshots" : [ ]
}
}
}
}
}
由于集群状态需要频繁下发,而且内容较多,从ES 2.0版本开始,主节点发布集群信息时支持在相邻的两个版本号之间只发送增量内容。
内部封装和实现
下面介绍两个重要的类, MasterService 和 ClusterApplierService 分别负责运行任务和应用任务产生的集群状态。
MasterService
MasterService 类负贵集群任务管理、运行等工作。其对外提供提交任务的接口,内部维护一个线程池运行这些任务。对外提供的主要接口如下表所示。
只有主节点会执行这个类中的方法。也就是说,只有主节点会提交集群任务到内部的队列,并运行队列中的任务。.
ClusterApplierService
ClusterApplierService 类负责管理需要对集群任务进行处理的模块(Applier)和监听器(Listener),以及通知各个 Applier 应用集群状态。其对外提供接收集群状态的接口,当传输模块收到集群状态时,调用这个接口将集群状态传递过来,内部维护一个线程池用于应用集群状态。对外提供的主要接口如下表所示。
主节点和从节点都会应用集群状态,因此都会执行这个类中的方法。如果某个模块需要处理集群状态,则调用addStateApplier方法添加一一个处理器。如果想监听集群状态的变化,则通过addListener添加一一个监听器。Applier负责将集群状态应用到组件内部,对Applier的调用在集群状态可见(ClusterService#state 获取到的)之前,对Listener的通知在新的集群状态可见之后。
实现一个Applie
如果模块需要对集群状态进行处理,则需要从接口类ClusterStateApplier实现,实现其中的applyClusterState方法,例如:
public class GatewayMetaState extends AbstractComponent implements ClusterStateApplier {
public void applyClusterState (Clus terChangedEvent event) {
//实现对集群状态的处理
}
}
类似的, SnapshotsService、RestoreService、IndicesClusterStateService都从ClusterStateApplie接口实现。
实现ClusterStateApplier的子类后,在子类中调用addStateApplier将类的实例添加到Applie列表。当应用集群状态时,会遍历这个列表通知各个模块执行应用。
clusterService.addStateApplier (this);
实现一个Listene
大部分的组件只需要感知产生了新的集群状态,针对新的集群状态执行若干操作。如果模块需要在产生新的集群状态时被通知,则需要实现接口类ClusterStateListener,实现其中的clusterChanged方法。例如:
public class GatewayService extends AbstractLifecycleComponent implements ClusterStateListener {
public void clusterChanged (final Clus terChangedEvent event) {
//处理集群状态变化
}
}
类似的,实现ClusterStateListener 接口的类还有IndicesStore, DanglingIndicesState 、MetaDataUpdateSettingsService和SnapshotShardsService 等。
实现ClusterStateListener 的子类后,在子类中调用addListener将类的实例添加到Listene列表。当集群状态应用完毕,会遍历这个列表通知各个模块集群状态已发生变化。
clusterService.addListener(this);
线程池
运行集群任务、应用集群任务都在各自的线程池执行,它们的线程池的大小都是1。
运行集群任务的线程池
执行集群任务的线程池为单个线程的线程池。因此,集群任务被串行地执行。线程池类型为PrioritizedEsThreadPoolExecutor,支持优先级。其初始化在MasterService#doStart 方法中:
threadPoolExecutor = EsExecutors.newSinglePrioritizing (MASTER_UPDATE_THREAD_NAME, daemonThreadFactory(settings, MASTER_UPDATE_THREAD_NAME), threadPool.getThreadContext(),threadPool.scheduler());
该线程池的名称为masterService#updateTask。
在newSinglePrioritizing 方法中可以看到corePoolSize 、maximumPoolSize 都等于1, keepAliveTime为0。
public static PrioritizedEsThreadPoolExecutor newSinglePrioritizing(String name, ThreadFactory threadFactory, ThreadContext contextHolder, ScheduledExecutorService timer) {
return new PrioritizedEsThreadPoolExecutor (name, 1, 1, 0L, TimeUnit.MILLISECONDS,threadFactory, contextHolder, timer);
}
继续跟踪到PrioritizedEsThreadPoolExecutor构造函数,可以看到线程池使用带优先级的阻塞队列PriorityBlockingQueue。
PrioritizedEsThreadPoolExecutor (String name, int corePoolSize, int maximumPoolSize,long keepAliveTime, TimeUnit unit,
ThreadFactory threadFactory, ThreadContext contextHolder,
ScheduledExecutorService timer) {
super (name, corePoolSize, maximumPoolSize, keepAliveTime, unit, new PriorityBlockingQueue<>(),threadFactory, contextHolder);
this. timer = timer;
}
任务优先级定义在common.Priority中,有6种类型的优先级: IMMEDIATE、 URGENT、HIGH、NORMAL、LOW和LANGUID。默认为NORMAL。
应用集群任务的线程池
应用集群任务的线程池也是单个线程的线程池,集群任务被串行地应用。与运行集群任务时相同,该线程池类型为PrioritizedEsThreadPoolExecutor, 其初始化在ClusterApplierService#doStart方法中:
threadPoolExecutor = EsExecutors.newSinglePrioritizing (CLUSTER_UPDATE_THREAD_NAME, daemonThreadFactory(settings, CLUSTER_UPDATE_THREAD_NAME),threadPool.getThreadContext(),threadPool.scheduler());
该线程池的名称为clusterApplierService#updateTask。
该线程池的构建过程及优先级信息与运行集群任务的线程池相同。
提交集群任务
什么情况下会提交集群任务?通过查看对ClusterService#submitStateUpdateTask方法的调用,可以看到哪些模块会提交集群任务,这个任务会做什么事情也基本能看出来。下图并非完整调用。
整理这些调用模块,直接或间接提交集群任务的时机可以归纳为以下几种情况。
- 集群拓扑变化;
- 模板、索引map、别名的变化;
- 索引操作:创建、删除、open、 close;
- pipeline的增删;
- 脚本的增删;
- gateway模块发布选举出的集群状态;
- 分片分配;
- 快照、reroute api等触发。
内部模块如何提交任务
内部模块通过clusterService. submitStateUpdateTask来提交-一个集群任务。 该方法有3种重载,参数大同小异,我们以最常见的方式为例来说明情况。函数原型如下:
public <T extends ClusterStateTaskConfig & ClusterStateTaskExecutor<T> & ClusterStateTaskListener> void submitStateUpdateTask(String source, T updateTask)
第一个参数是事件源,第二个参数是要提交的具体的任务,这个任务有多种类封装,比如ClusterStateUpdateTask、AckedClusterStateUpdateTask、 LocalClusterUpdateTask 等,最具代表性是ClusterStateUpdateTask,许多其他任务类型从它这里继承,或者与它的结构相似。
ClusterStateUpdateTask的类图结构如下图所示。
- ClusterStateTaskListener:提交任务时实现- -些回调函数,例如,对任务处理失败、集群状态处理完毕时的处理。
- ClusterStateTaskExecutor:主要是定义要执行的任务。每个任务在执行时会传入当前集群状态,任务执行完毕返回新产生的集群状态。如果没有产生新的集群状态,则返回原集群状态的实例。
- ClusterStateTaskConfig:任务的配置信息,包括超时和优先级。任务类ClusterStateUpdateTask实现了这三个接口,总体来说就是要定义执行的任务,以及实现一些事件通知函数。当某个模块提交任务时,使用下面的简单方式:
clusterService.submitStateUpdateTask ("allocation dangled indices ", new ClusterStateUpdateTask() {
//实现要执行的具体任务,任务返回新的集群状态
public ClusterState execute (ClusterState currentState) {}
//任务执行失败的回调
public void onFailure (String source, Exception e) {}
//集群状态处理完毕的回调,当集群状态已经被全部Appliers和Listeners处理完毕后调用
public void clusterStateProcessed (String source, ClusterState oldState, ClusterState newState) {}
});
任务类AckedClusterStateUpdateTask在ClusterStateUpdateTask 的基础上增加了更多的回调通知,其类结构如下图所示。
在绝大部分情况下,各个模块提交任务时只提交一个任务,只有两种情况下可能会提交多个任务,都在选主流程中:
1. ElectionContext#closeAndBecomeMaste
Map<DiscoveryNode, ClusterStateTaskListener> tasks = getPendingAsTasks();
tasks.put(BECOME_MASTER_TASK,(sourcel, e) -> {}); // noop listener, the election finished listener determines result .
tasks.put(FINISH_ELECTION_TASK,electionFinishedListener);
masterService.submitStateUpdateTasks(source, tasks, ClusterStateTaskConfig.build (Priority.URGENT),joinTaskExecutor);
2. ElectionContext#closeAndProcessPending
Map<DiscoveryNode, ClusterStateTaskListener> tasks = getPendingAsTasks();
tasks.put(FINISH_ELECTION_TASK, electionFinishedListener);
masterService.submitStateUpdateTasks(source, tasks, ClusterStateTaskConfig.build(Priority.URGENT),joinTaskExecutor);
两处的getPendingAsTasks返回的并非执行集群任务线程池的等待队列,而是选主流程中等待加入集群的请求数量。
现在我们来看一下 submitStateUpdateTask具体执行过程。
任务提交过程实现
无论提交单个任务,还是提交多个任务,submitStateUpdateTask 最终通过TaskBatcher#submitTasks来提交任务。该方法的实现有些难以理解。其核心工作就是将提交的任务交给线程池执行。但是在此基础上实现了部分场景下的任务去重。
去重的原理是:拥有相同ClusterStateTaskExecutor对象实例的任务只执行一个。
去重在实现时并没有在线程池队列的列表上操作,而是将任务列表添加到-一个独立于线程池任务队列之外的HashMap中:tasksPerBatchingKey。这个HashMap保存的也是待执行的任务。与线程池任务队列不同的是,当提交多个任务时,线程池队列中只保存第一个,而tasksPerBatchingKey以ClusterState TaskExecutor为Key, Value 是提交的整个任务列表。当从线程池任务队列中取出任务准备执行时,先根据任务的ClusterStateTaskExecutor从tasksPerBatchingKey中找到它的任务列表,然后批量执行这个任务列表。所谓批量执行实际上只执行一个,然后对其他任务赋予相同的执行结果。
换句话说,区分重复任务的方式是通过定义的任务本身实现的,即定义具有相同的ClusterStateTaskExecutor对象。去重的方式并非将重复的任务从列表中删除,而是在执行完任务后赋予重复任务相同的执行结果。
去重的时机有两方面:
- 提交的任务列表本身的去重。
- 提交的任务在任务队列tasksPerBatchingKey中已存在,也就是存在尚未执行的相同任务,此时新提交的任务被追加到tasksPerBatchingKey某个k对应的v中。
提交的任务列表本身任务数量大于1个的情况如上一小节所述,只在选主的流程中。那么,拥有相同ClusterStateTaskExecutor对象的是什么情况?一般情况下,各模块调用clusterService.submitStateUpdateTask提交任务,如果在任务执行之前提交多次,则不认为这些是重复的任务。因为一般每次提交会创建不同的ClusterStateUpdateTask对象,因此也拥有不同的ClusterStateTaskExecutor实例。例如,提交两次相同的创建索引请求,两次请求都会被加入任务队列,然后执行2次。
只有模块在提交任务时明确使用了相同的ClusterStateTaskExecutor对象,才可能会在执行时去重。例如,每次提交shard-started任务时使用创建好的ClusterStateTaskExecutor,因此是同一个ClusterState’ TaskExecutor对象实例。
clusterService.submitStateUpdateTask (
"shard-started " + request,
request,
ClusterStateTaskConfig.build (Priority URGENT) ,
shardStartedClusterStateTaskExecutor,
shardStartedClusterStateTaskExecutor);
channel.sendResponse(TransportResponse.Empty.INSTANCE);
下面我们看一下任务提交过程submitTasks的具体实现。
submitTasks的核心工作就是将待执行任务加入任务队列。每个任务都有优先级,线程池的任务队列也是支持优先级的PriorityBlockingQueue。
各个入口的submitStateUpdateTask最终通过TaskBatcher提交任务:
taskBatcher.submitTasks (safeTasks,config.timeout());
第一个参数为任务列表,第二个参数为超时时间。提交的任务本质上是一个Runnable。
UpdateTask的类图结构如下图所示。
submitTasks方法的主要实现过程如下:
public void submitTasks (List<? extends BatchedTask> tasks, @Nullable TimeValue timeout) throws EsRejectedExecutionException {
//batchingKey为ClusterStateTaskExecuto
//BatchedTask: :getTask返回完整的task <T extends ClusterStateTaskConfig
//& ClusterStateTaskExecutor<T> & ClusterStateTas kListener>
//例如,ClusterStateUpdateTask 对象
final BatchedTask firstTask = tasks.get(0);
//如果一次提交多个任务,则必须有相同的batchingKey,这些任务将被批量执行
asserttasks.stream().allMatch(t -> t.batchingKey == firstTask.batchingKey) :
"tasks submitted in a batch should share the same batching key: " + tasks;
//将tasks从List转换为Map, key为task对象,例如,ClusterStateUpdateTask,
//如果提交的任务列表存在重复则抛出异常
final Map<0bject, BatchedTask> tasksIdentity = tasks.stream().collect(Collectors.toMap (BatchedTask::getTask, Function. identity(), (a, b) -> { throw new IllegalStateException ("cannot add,duplicate task: " + a); }, IdentityHashMap: :new)) ;
//tasksPerBatchingKey在这里添加,在任务执行线程池中,在任务真正开始运行之前“remove"
//key为batchingKey,值为tasks
synchronized (tasks PerBatchingKey) {
//如果不存在batchingKey,则添加进去,如果存在则不操作
//computeIfAbsent返回新添加的k对应的v,或者已存在的k对应的v
LinkedHashSet<BatchedTask> existingTasks = tasksPerBatchingKey.computeI fAbsent (firstTask.batchingKey, k -> new LinkedHashSet<> (tasks.size())) ;
for (BatchedTask existing : existingTasks) {
//一个batchingKey对应的任务列表不可有相同的identity, identity是任务
//本身,例如,ClusterStateUpdateTask 对象
BatchedTask duplicateTask = tasksIdentity.get (existing.getTask()) ;
if (duplicateTask != null) {
throw new IllegalStateException() ;
}
}
//添加到tasksPerBatchingKey的value中。如果提交了相同的任务,
//则新任务被追加到这里
existingTasks.addAll (tasks) ;
}
//交给线程执行
if (timeout != null) {
threadExecutor.execute(firstTask, timeout, () -> onTimeoutInternal(tasks, timeout));
} else {
threadExecutor.execute (firstTask);
}
}
虽然只将传,入任务列表的第-一个任务交个线程池执行,但是任务列表的全部任务被添加到tasksPerBatchingKey中,线程池执行任务时,根据任务的batchingKey从tasksPerBatchingKey中获取任务列表,然后批量执行这个任务列表。
当调用threadExecutor.execute将其交任务给线程池执行时,如果线程池中没有任务运行,则立刻执行这个任务,否则将任务加入线程池的任务队列。
集群任务的执行过程
masterServiceupdateTask线程池负责执行集群任务,任务的执行入口为TaskBatcher.BatchedTask#run,但是线程池队列中的这个任务并非真实要执行的任务,而是任务的一-部分。
1.构建任务列表
先根据任务的batchingKey从提交任务时记录的HashMap ( tasksPerBatchingKey)中提取要执行的任务列表。这个任务列表是拥有相同ClusterStateTaskExecutor 的任务。用这个任务列表中尚未执行的任务构建新的列表,这个新列表就是真实要执行的任务列表:
void runIfNotProcessed (BatchedTask updateTask) {
if (updateTask .processed.get() == false) {
synchronized (tasksPerBatchingKey) {
//根据batchingKey获取任务列表
LinkedHashSet<BatchedTask> pending = tasksPerBatchingKey.remove(updateTask.batchingKey);
if (pending != null) {
for (BatchedTask task : pending) {
if (task.processed.getAndSet(true) == false) {
//构建要执行的任务列表
toExecute.add(task) ;
processTasksBySource.以上是关于《Elasticsearch 源码解析与优化实战》第14章:Cluster模块分析的主要内容,如果未能解决你的问题,请参考以下文章
《Elasticsearch 源码解析与优化实战》第19章:搜索速度优化
《Elasticsearch 源码解析与优化实战》第19章:搜索速度优化
《Elasticsearch 源码解析与优化实战》第18章:写入速度优化
《Elasticsearch 源码解析与优化实战》第18章:写入速度优化