GRPC负载均衡

Posted

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了GRPC负载均衡相关的知识,希望对你有一定的参考价值。

参考技术A 负载均衡是高可用网络基础架构的关键组件,通常用于将工作负载分布到多个服务器来提高应用的性能和可靠性。

关于GRPC的负载均衡,我们选择nginx来进行反向代理。NGINX在1.13.9版本已经开始支持GRPC代理。有了对 GRPC 的支持,NGINX 就可以代理 GRPC TCP 连接,还可以终止、检查和跟踪 GRPC 的方法调用。

在nginx的配置文件中配置GRPC代理即可。

通过grpc 调用代理端口

观察NGINX的access.log,可以看到相应的代理记录

首先GRPC是建立在HTTP2.0的基础上进行数据传输,HTTP2.0的优势就不用多说了。因此NGINX负载均衡同样也是建立在HTTP2.0的基础之上。并且NGINX新增了GRPC模块。用于负载GRPC请求。
需要注意以下几个NGINX的参数配置:
nginx_http2模块
http2_max_requests:在一个tcp连接上默认通过的最大数据包数,默认1000个
http2_max_concurrent_streams:在一个tcp连接上默认最大并发流,默认128个
nginx_grpc模块
grpc_send_timeout:将请求传输到gRPC服务器的超时时间,如果超过这个时间,NGINX会断开连接。
grpc_read_timeout:接收gRPC服务器数据的超时时间,如果超过这个时间,NGINX会断开连接。
grpc_socket_keepalive:NGINX与gRPC服务器长连接配置设置。

k8s 服务发现 以及 gRPC 长连接负载均衡

众所周知 gRPC 是基于 HTTP/2,而 HTTP/2 是基于 TCP 长连接的。

k8s 自带一套基于 DNS 的服务发现机制 —— Service。

但基于 Service 的服务发现对于 gRPC 来说并不是开箱即用的,这里面有很多坑。

错误姿势 ClusterIP Service

gRPC client 直接使用 ClusterIP Service 会导致负载不均衡。因为 HTTP/2 多个请求在一个 TCP 连接上多路复用。

即使这个连接上的 stream 达到 maxConcurrentStreams,也不会创建新的连接,而是阻塞。除非搭配自定义 gRPC 连接池使用。

参见源码:grpc-go/internal/transport/http2_client.go:L107

为什么 HTTP/1.1 不受影响

HTTP/1.1 默认开启 Keepalive,也会保持长连接。 但是 HTTP/1.1 多个请求不会共享一个连接,如果连接池里没有空闲连接则会新建一个,经过 Service 的负载均衡,各个 pod 上的连接是相对均衡的。

正确姿势

长连接负载均衡的原理是与后端每个 pod 都建立一个长连接,LB 算法选择一个写入请求。

gRPC client LB 配合 Headless Service

创建 Headless Service 后,k8s 会生成 DNS 记录,访问 Service 会返回后端多个 pod IP 的 A 记录,这样应用就可以基于 DNS 自定义负载均衡。

在 grpc-client 指定 headless service 地址为 dns:/// 协议,DNS resolver 会通过 DNS 查询后端多个 pod IP,然后通过 client LB 算法来实现负载均衡。这些 grpc-go 这个库都帮你做了。

conn, err := grpc.DialContext(ctx, "dns:///"+headlessSvc,
    grpc.WithInsecure(),
    grpc.WithBalancerName(roundrobin.Name),
    grpc.WithBlock(),
)

完整代码参考:https://github.com/win5do/go-...

Proxy LB 或 ServiceMesh

如果不想在 client 代码中来做 LB,可以使用 Envoy 或 Nginx 反向代理。

Proxy Server 与后端多个 pod 保持长连接,需配置对应模块来识别 HTTP/2 请求,根据 LB 算法选择一个 pod 转发请求。

Istio 做长连接 LB 不要求 Headless Service,因为网格控制器不会直接使用 Service,而是获取 Service 背后 Endpoint(IP)配置到 Envoy 中。

Proxy 如果自身有多个 replicas,则 proxy 与 client 之间也有长连接的问题,这就套娃了。

但 Istio 等服务网格会为每个 pod 注入一个专用的 Envoy 代理作为 sidecar,所以问题不大。

gRPC 使用 Envoy proxy 可参考 Google Cloud 的教程:

https://github.com/GoogleClou...

对比

client 和 proxy 两种方式的对比其实就是 侵入式服务治理 vs 网格化服务治理

侵入式网格化
优点- 性能好,没有多次转发
- 逻辑清晰,开发人员能很快定位问题
- 基础设施下沉,逻辑一致,方便跨语言异构
- 非侵入,应用无感知
- 服务治理生态繁荣
缺点- 多种编程语言需要分别开发 client 库
- 对接监控告警、链路追踪等基础设施工作量大
- 链路长,有性能损耗
- 下层逻辑复杂,不透明,出问题抓瞎
- 还不够成熟

Reference

https://kubernetes.io/blog/20...

https://zhuanlan.zhihu.com/p/...

https://zhuanlan.zhihu.com/p/...

以上是关于GRPC负载均衡的主要内容,如果未能解决你的问题,请参考以下文章

gRPC服务注册发现及负载均衡的实现方案与源码解析

GRPC负载均衡

07平衡负载:gRPC是如何进行负载均衡的?

gRPC 客户端负载均衡

gRPC负载均衡器/名称解析器示例? [关闭]

.net core grpc consul 实现服务注册 服务发现 负载均衡