Envoy架构师Matt Klein对Envoy线程模型的简介

Posted ServiceMesher

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了Envoy架构师Matt Klein对Envoy线程模型的简介相关的知识,希望对你有一定的参考价值。

关于Envoy代码库的底层技术文档目前相当稀少。 为了纠正这个问题,我打算做一系列关于各种子系统的博客文章。 由于这是第一篇文章,请让我知道您的想法以及您希望了解的其他主题。

我经常看到的关于Envoy的最常见技术问题之一就是要求从底层描述Envoy使用的线程模型。这篇文章将介绍Envoy如何将连接映射到线程,以及内部使用的线程本地存储(TLS)系统的描述,以使代码极其并行且性能更高。

线程模型概览

Envoy使用三种不同类型的线程,如上图所示。

  • Main:此线程负责服务器启动和关闭,所有xDS API处理(包括DNS,运行状况检查和常规集群管理),运行时,统计刷新,管理和一般进程管理(信号,热启动等)。 在此线程上发生的所有事情都是异步的并且是“非阻塞的”。通常,主线程协调所有不需要大量CPU来完成的关键过程功能。 这允许将大多数管理代码编写为单线程编写。

  • Worker:默认情况下,Envoy为系统中的每个硬件线程生成一个工作线程。(这可以通过--concurrency 选项控制)。 每个工作线程运行一个“非阻塞”事件循环,负责监听每个监听器(当前没有监听器分片),接受新连接,为连接实例化过滤器堆栈,以及处理所有IO的生命周期。 连接。 同样,这允许将大多数连接处理代码写成好像是单线程的。

  • 文件刷新器:Envoy写入的每个文件(主要是访问日志)当前都有一个独立的阻塞刷新线程。 这是因为即使使用O_NONBLOCK写入文件系统缓存文件有时也会阻塞(哎)。 当工作线程需要写入文件时,数据实际上被移入内存缓冲区,最终通过文件刷新线程刷新。 这是代码的一个区域,技术上所有worker都可以阻止同一个锁尝试填充内存缓冲区。 还有一些其他的将在下面进一步讨论。

连接处理

如上所述,所有工作线程都会在没有任何分片的情况下监听所有监听器。 因此,内核用于智能地将接受的套接字分派给工作线程。 现代内核一般都很擅长这个; 他们使用诸如IO优先级提升之类的功能来尝试填充线程的工作,然后开始使用同时监听同一套接字的其他线程,以及不使用单个自旋锁来处理每个接受。

一旦连接被worker接受,它就永远不会离开那个worker。 所有进一步的连接处理都在工作线程内完全处理,包括任何转发行为。这有一些重要的含义:

  • Envoy中的所有连接池都是每个工作线程。 因此,尽管HTTP / 2连接池一次只与每个上游主机建立一个连接,但如果有四个工作站,则每个上游主机在稳定状态下将有四个HTTP/2连接。

  • Envoy以这种方式工作的原因是因为通过将所有代码保存在单个工作线程中,几乎所有代码都可以在没有锁的情况下编写,就像它是单线程一样。 这种设计使得大多数代码更易于编写,并且可以非常好地扩展到几乎无限数量的worker。

  • 然而,一个主要的问题是,从内存和连接池效率的角度来看,调整并发选项实际上非常重要。 拥有比所需更多的worker将浪费内存,创建更多空闲连接,并导致更低的连接池命中率。 在Lyft,我们的 sidecar Envoy以非常低的并发性运行,因此性能大致与他们旁边的服务相匹配。 我们只以最大并发性运行我们的边缘Envoy。

什么是非阻塞

到目前为止,在讨论主线程和工作线程如何操作时,已经多次使用术语“非阻塞”。 所有代码都是在假设没有任何阻塞的情况下编写的。 然而,这并不完全正确(完全是这样的吗?)。 Envoy 确实采用了一些进程宽锁:

  • 如前所述,如果正在写入访问日志,则所有工作程序在填充内存访问日志缓冲区之前都会获取相同的锁。 锁定保持时间应该非常低,但是这种锁可以在高并发性和高吞吐量下竞争。

  • Envoy采用了一个非常复杂的系统来处理线程本地的统计数据。 这将是一个单独的帖子的主题。 但是,我将简要提一下,作为线程本地统计处理的一部分,有时需要获取对中央“stat store”的锁定。这种锁定不应该高度争用。

  • 主线程需要定期与所有工作线程协调。 这是通过从主线程“发布”到工作线程(有时从工作线程返回到主线程)来完成的。 发布需要锁定,以便将发布的消息放入队列中以便以后发送。 这些锁永远不应该高度争用,但它们仍然可以在技术上阻止。

  • 当Envoy将自己记录到标准错误时,它会获取进程范围的锁定。 一般来说,Envoy本地记录被认为是表现糟糕的,所以没有多少考虑改善这一点。

  • 还有一些其他随机锁,但它们都不在性能关键路径中,永远不应该争用。

线程本地存储

由于Envoy将主线程职责与工作线程职责分开,因此需要在主线程上完成复杂处理,然后以高度并发的方式使每个工作线程可用。 本节介绍了Envoy的高级线程本地存储(TLS)系统。 在下一节中,我将描述如何使用它来处理集群管理。

Envoy架构师Matt Klein对Envoy线程模型的简介

如已经描述的那样,主线程基本上处理Envoy过程中的所有管理/控制平面功能。 (控制平面在这里有点过载但是当在Envoy进程中考虑并与工人做的转发进行比较时,似乎是合适的)。 主线程进程执行某些工作是一种常见模式,然后需要使用该工作的结果更新每个工作线程,并且工作线程不需要在每次访问时获取锁定。

Envoy的TLS系统的工作原理如下:

  • 在主线程上运行的代码可以分配进程范围的TLS槽。 虽然是抽象的,但实际上,这是一个允许O(1)访问的向量索引。

  • 主线程可以将任意数据设置到其槽中。 完成此操作后,数据将作为正常事件循环事件发布到每个工作程序中。

  • 工作线程可以从其TLS槽读取,并将检索那里可用的任何线程本地数据。

虽然非常简单,但这是一个非常强大的范例,与RCU锁定概念非常相似。 (实质上,工作线程在工作时从不会看到TLS插槽中的数据发生任何变化。更改只发生在工作事件之间的静止期间)。 Envoy以两种不同的方式使用它:

  • 通过在没有任何锁定的情况下访问每个工作人员存储不同的数据

  • 通过将共享指针存储到每个worker的只读全局数据。 因此,每个工作者都具有对在工作时不能递减的数据的引用计数。 只有当所有工作人员都已停顿并加载新的共享数据时,旧数据才会被销毁。 这与RCU相同。

集群线程更新

在本节中,我将描述TLS如何用于集群管理。 集群管理包括xDS API处理和/或DNS以及运行状况检查。

图3显示了涉及以下组件和步骤的总体流程:

  1. 集群管理器是Envoy内部的组件,用于管理所有已知的上游集群,CDS API,SDS / EDS API,DNS和活动(带外)运行状况检查。 它负责创建每个上游集群的最终一致视图,其中包括已发现的主机以及运行状况。

  2. 运行状况检查程序执行活动运行状况检查,并将运行状况更改报告回集群管理器。

  3. 执行CDS / SDS / EDS / DNS以确定集群成员资格。 状态更改将报告回集群管理器。

  4. 每个工作线程都在不断运行事件循环。

  5. 当集群管理器确定集群的状态已更改时,它会创建集群状态的新只读快照,并将其发布到每个工作线程。

  6. 在下一个静止期间,工作线程将更新分配的TLS插槽中的快照。

  7. 在需要确定要负载均衡的主机的IO事件期间,负载均衡器将在TLS插槽中查询主机信息。 没有获得锁定来执行此操作。 (另请注意,TLS还可以在更新时触发事件,以便负载平衡器和其他组件可以重新计算高速缓存,数据结构等。这超出了本文的范围,但在代码中的各个位置使用)。

通过使用先前描述的过程,Envoy能够处理每个请求而不需要任何锁定(除了之前描述的那些)。 除了TLS代码本身的复杂性之外,大多数代码都不需要理解线程如何工作,并且可以编写为单线程。 这使得大多数代码更容易编写,并产生出色的性能。

其他使用TLS的子系统

TLS和RCU在Envoy中广泛使用。 其他一些例子包括:

  • 运行时(功能标志)覆盖查找:在主线程上计算当前功能标志覆盖映射。 然后使用RCU语义为每个工作程序提供只读快照。

  • 路由表交换:对于RDS提供的路由表,路由表在主线程上实例化。 然后使用RCU语义为每个工作程序提供只读快照。 这使得路由表交换有效地原子化。

  • HTTP日期标头缓存:事实证明,在每个请求上计算HTTP日期标头(当每个核心执行~25K + RPS时)非常昂贵。 Envoy大约每半秒计算一次日期标题,并通过TLS和RCU将其提供给每个工作人员。

还有其他情况,但前面的例子应该提供TLS所用事物的良好品味。

已知的性能陷阱

虽然Envoy整体表现相当不错,但是当它以非常高的并发性和吞吐量使用时,有一些已知领域需要注意:

  • 正如本文中已经描述的那样,当前所有工作者在写入访问日志的内存缓冲区时都会获得锁定。 在高并发性和高吞吐量的情况下,当写入最终文件时,将需要以按顺序交付为代价对每个工作人员批量访问日志进行批处理。 或者,访问日志可以成为每个工作线程。

  • 尽管统计信息已经过非常优化,但在非常高的并发性和吞吐量下,个别统计信息可能存在原子争用。 对此的解决方案是每个工人计数器,定期冲洗到中央计数器。 这将在后续文章中讨论。

  • 如果Envoy部署在几乎没有需要大量资源来处理的连接的场景中,现有架构将无法正常运行。 这是因为无法保证连接在工作人员之间均匀分布。 这可以通过实现工作者连接平衡来解决,其中工作人员能够将连接转发给另一个工作人员进行处理。

结论

Envoy的线程模型旨在支持编程的简单性和大规模并行性,但如果调整不当可能会浪费内存和连接使用。 该模型允许它在非常高的worker数量和吞吐量下表现良好。

正如我在Twitter上简要提到的那样,该设计也适合在DPDK之类的完整用户模式网络堆栈上运行,这可能导致商用服务器在执行完整的L7处理时每秒处理数百万个请求。看看未来几年建成什么会非常有趣。

最后一个快速评论:我多次被问到为什么我们为Envoy选择C++。 原因仍然是它仍然是唯一广泛部署的生产级语言,使用该语言中可以构建本文中描述的架构。 C++当然不适合所有项目,甚至许多项目,但对于某些用例,它仍然是完成工作的唯一工具。

代码链接

本文中讨论的一些接口和实现头的一些链接:

  • https://github.com/lyft/envoy/blob/master/include/envoy/thread_local/thread_local.h

  • https://github.com/lyft/envoy/blob/master/source/common/thread_local/thread_local_impl.h

  • https://github.com/lyft/envoy/blob/master/include/envoy/upstream/cluster_manager.h

  • https://github.com/lyft/envoy/blob/master/source/common/upstream/cluster_manager_impl.

点击阅读原文跳转到 Web 浏览可以查看文中链接。

相关阅读推荐








以上是关于Envoy架构师Matt Klein对Envoy线程模型的简介的主要内容,如果未能解决你的问题,请参考以下文章

Envoy实现.NET架构的网关代理GRPC

Envoy实现.NET架构的网关集成Redis实现限流

Envoy与Nginx的八大对比

Envoy源码分析之Dispatcher

Envoy源码分析之Dispatcher

ASP.NET Core 搭载 Envoy 实现微服务身份认证(JWT)