linux性能优化 关于Linux网络的知识

Posted sysu_lluozh

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了linux性能优化 关于Linux网络的知识相关的知识,希望对你有一定的参考价值。

网络处理的流程最复杂,跟进程调度、中断处理、内存管理以及I/O等都密不可分,网络模块是一个重要且核心的资源模块

网络是一种把不同计算机或网络设备连接到一起的技术,它本质上是一种进程间通信方式,特别是跨系统的进程间通信必须要通过网络才能进行

随着高并发、分布式、云计算、微服务等技术的普及,网络的性能也变得越来越重要

那么,Linux网络又是怎么工作的呢?又有哪些指标衡量网络的性能呢?

一、网络模型

说到网络,肯定经常提起七层负载均衡、四层负载均衡,或者三层设备、二层设备等等。那么这里说的二层、三层、四层、七层又都是什么意思呢?

1.1 OSI网络模型

实际上,这些层都来自国际标准化组织制定的开放式系统互联通信参考模型(Open System Interconnection Reference Model),简称OSI网络模型

为了解决网络互联中异构设备的兼容性问题,并解耦复杂的网络包处理流程,OSI模型把网络互联的框架分为应用层、表示层、会话层、传输层、网络层、数据链路层以及物理层等七层,每个层负责不同的功能。其中:

  • 应用层,负责为应用程序提供统一的接口
  • 表示层,负责把数据转换成兼容接收系统的格式
  • 会话层,负责维护计算机之间的通信连接
  • 传输层,负责为数据加上传输表头,形成数据包
  • 网络层,负责数据的路由和转发
  • 数据链路层,负责MAC寻址、错误侦测和改错
  • 物理层,负责在物理网络中传输数据帧

1.2 TCP/IP网络模型

但是OSI模型还是太复杂,也没能提供一个可实现的方法。所以,在Linux中实际上使用的是另一个更实用的四层模型,即TCP/IP网络模型

TCP/IP模型把网络互联的框架分为应用层、传输层、网络层、网络接口层等四层,其中:

  • 应用层

负责向用户提供一组应用程序,比如HTTP、FTP、DNS等

  • 传输层

负责端到端的通信,比如TCP、UDP等

  • 网络层

负责网络包的封装、寻址和路由,比如IP、ICMP等

  • 网络接口层

负责网络包在物理网络中的传输,比如MAC寻址、错误侦测以及通过网卡传输网络帧等

TCP/IP与OSI模型的关系图如下:
在这里插入图片描述
当然了,虽说Linux实际按照TCP/IP模型实现了网络协议栈,但在平时使用中习惯上还是用OSI七层模型来描述

二、Linux网络栈

2.1 协议传递封装

有了TCP/IP模型后,在进行网络传输时数据包就会按照协议栈,对上一层发来的数据进行逐层处理,然后封装上该层的协议头,再发送给下一层

当然,网络包在每一层的处理逻辑,都取决于各层采用的网络协议
比如在应用层,一个提供REST API的应用可以使用HTTP协议,把它需要传输的JSON数据封装到HTTP协议中,然后向下传递给TCP层

而封装做的事情相对简单,只是在原来的负载前后增加固定格式的元数据,原始的负载数据并不会被修改

比如,以通过TCP协议通信的网络包为例,应用程序数据在每个层的封装格式如下图:

在这里插入图片描述
其中:

  1. 传输层在应用程序数据前面增加了TCP 头
  2. 网络层在TCP数据包前增加了IP头
  3. 网络接口层在IP数据包前后分别增加了帧头和帧尾

这些新增的头部和尾部都按照特定的协议格式填充,想了解具体格式可以查看协议的文档

2.2 网络包的大小

这些新增的头部和尾部增加了网络包的大小,但是物理链路中并不能传输任意大小的数据包

  • MTU

网络接口配置的最大传输单元(MTU)规定了最大的IP包大小,在以太网中MTU默认值是1500(这也是Linux的默认值)

  • 网络层分片

一旦网络包超过MTU的大小就会在网络层分片,以保证分片后的IP包不大于MTU值。显然,MTU越大需要的分包也就越少,自然网络吞吐能力就越好

理解了TCP/IP网络模型和网络包的封装原理后,很容易能想到Linux 内核中的网络栈其实也类似于TCP/IP 的四层结构。Linux通用IP网络栈的示意图如下:
在这里插入图片描述
从上到下来看这个网络栈可以发现:

  • 最上层的应用程序,需要通过系统调用来跟套接字接口进行交互
  • 套接字的下面,就是前面提到的传输层、网络层和网络接口层
  • 最底层,则是网卡驱动程序以及物理网卡设备

这里简单说一下网卡

  • 网卡

网卡是发送和接收网络包的基本设备

  • 在系统启动过程中,网卡通过内核中的网卡驱动程序注册到系统中
  • 在网络收发过程中,内核通过中断跟网卡进行交互

再结合前面提到的Linux网络栈,可以看出网络包的处理非常复杂。所以,网卡硬中断只处理最核心的网卡数据读取或发送,而协议栈中的大部分逻辑都会放到软中断中处理

三、Linux网络收发流程

了解Linux 网络栈后,再来看看Linux到底是怎么收发网络包的

3.1 网络包的接收流程

先来看网络包的接收流程

  • 首先,收包队列中并硬中断通知

当一个网络帧到达网卡后,网卡会通过DMA方式把这个网络包放到收包队列中,然后通过硬中断告诉中断处理程序已经收到了网络包

  • 接着,分配内核数据结构并拷贝到缓冲区

网卡中断处理程序会为网络帧分配内核数据结构(sk_buff),并将其拷贝到sk_buff缓冲区中,然后再通过软中断,通知内核收到了新的网络帧

  • 接下来,取出并自上而下处理网络帧

内核协议栈从缓冲区中取出网络帧,并通过网络协议栈,从下到上逐层处理这个网络帧。比如:

  1. 在链路层检查报文的合法性,找出上层协议的类型(比如IPv4还是IPv6),再去掉帧头、帧尾,然后交给网络层
  2. 网络层取出IP头,判断网络包下一步的走向,比如是交给上层处理还是转发。当网络层确认这个包是要发送到本机后,取出上层协议的类型(比如TCP还是UDP),去掉IP头后再交给传输层处理
  3. 传输层取出TCP头或者UDP头后,根据<源IP、源端口、目的IP、目的端口> 四元组作为标识,找出对应的Socket,并把数据拷贝到Socket的接收缓存中
  • 最后,读取到新接收到的数据

应用程序就可以使用Socket接口读取到新接收到的数据

下图比较清晰表示这个流程:
在这里插入图片描述
这张图的左半部分表示接收流程,而图中的粉色箭头则表示网络包的处理路径

3.2 网络包的发送流程

了解网络包的接收流程后,就很容易理解网络包的发送流程
网络包的发送流程就是上图的右半部分,很容易发现,网络包的发送方向正好跟接收方向相反

  • 首先,调用API发送网络包

应用程序调用Socket API(比如 sendmsg)发送网络包,由于这是一个系统调用,所以会陷入到内核态的套接字层中
套接字层会把数据包放到Socket发送缓冲区中

  • 接下来,从发送缓冲区中取出数据包逐层处理

网络协议栈从Socket发送缓冲区中取出数据包,再按照TCP/IP栈从上到下逐层处理
比如:

  1. 传输层和网络层分别为其增加TCP头和IP头
  2. 执行路由查找确认下一跳的IP,并按照MTU大小进行分片
  3. 分片后的网络包再送到网络接口层,进行物理地址寻址,以找到下一跳的MAC地址
  4. 然后添加帧头和帧尾,放到发包队列中
  • 然后,软中断通知驱动程序

这一切完成后,软中断通知驱动程序发包队列中有新的网络帧需要发送

  • 最后,驱动程序把数据发送出去

驱动程序通过DMA从发包队列中读出网络帧,并通过物理网卡把它发送出去

四、性能指标

了解Linux网络的基本原理和收发流程后,接下来探讨如何去观察网络的性能情况。具体而言,哪些指标可以用来衡量Linux的网络性能呢?

实际上,通常用带宽、吞吐量、延时、PPS(Packet Per Second)等指标衡量网络的性能

  • 带宽

表示链路的最大传输速率,单位通常为b/s(比特/秒)

  • 吞吐量

表示单位时间内成功传输的数据量,单位通常为b/s(比特/秒)或者B/s(字节/秒)
吞吐量受带宽限制,而吞吐量/带宽,也就是该网络的使用率

  • 延时

表示从网络请求发出后,一直到收到远端响应所需要的时间延迟
在不同场景中,这一指标可能会有不同含义
比如,它可以表示:

  1. 建立连接需要的时间(比如TCP握手延时)
  2. 一个数据包往返所需的时间(比如 RTT)
  • PPS

Packet Per Second(包/秒)的缩写,表示以网络包为单位的传输速率
PPS通常用来评估网络的转发能力,比如硬件交换机,通常可以达到线性转发(即PPS可以达到 或者接近理论最大值),而基于Linux服务器的转发则容易受网络包大小的影响

除了这些指标,网络的可用性(网络能否正常通信)、并发连接数(TCP连接数量)、丢包率(丢包百分比)、重传率(重新传输的网络包比例)等也是常用的性能指标

五、网络配置

接下来,打开一个终端SSH登录到服务器上,一起探索、观测这些性能指标

分析网络问题的第一步,通常是查看网络接口的配置和状态
可以使用ifconfig或者ip命令来查看网络的配置,不过更推荐使用ip工具,因为它提供了更丰富的功能和更易用的接口

注:
ifconfig和ip分别属于软件包net-tools和iproute2,iproute2是net-tools的下一代
通常情况下它们会在发行版中默认安装,但如果找不到ifconfig或者ip命令可以安装这两个软件包

以网络接口eth0为例,可以运行下面的两个命令查看它的配置和状态:

$ ifconfig eth0
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
      inet 10.240.0.30 netmask 255.240.0.0 broadcast 10.255.255.255
      inet6 fe80::20d:3aff:fe07:cf2a prefixlen 64 scopeid 0x20<link>
      ether 78:0d:3a:07:cf:3a txqueuelen 1000 (Ethernet)
      RX packets 40809142 bytes 9542369803 (9.5 GB)
      RX errors 0 dropped 0 overruns 0 frame 0
      TX packets 32637401 bytes 4815573306 (4.8 GB)
      TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

$ ip ‑s addr show dev eth0
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc mq state UP group default qlen 1000
  link/ether 78:0d:3a:07:cf:3a brd ff:ff:ff:ff:ff:ff
  inet 10.240.0.30/12 brd 10.255.255.255 scope global eth0
      valid_lft forever preferred_lft forever
  inet6 fe80::20d:3aff:fe07:cf2a/64 scope link
      valid_lft forever preferred_lft forever
  RX: bytes packets errors dropped overrun mcast
   9542432350 40809397 0       0       0       193
  TX: bytes packets errors dropped carrier collsns
   4815625265 32637658 0       0       0       0

可以看到,ifconfig和ip命令输出的指标基本相同,只是显示格式略微不同
比如,都包括网络接口的状态标志、MTU大小、IP、子网、MAC地址以及网络包收发的统计信息

这里有几个跟网络性能密切相关的指标,需要特别关注:

  • 第一,网络接口的状态标志

ifconfig输出中的RUNNING,或ip输出中的LOWER_UP,都表示物理网络是连通的,即网卡已经连接到了交换机或者路由器中,如果看不到它们则通常表示网线被拔掉了

  • 第二,MTU 的大小

MTU默认大小是1500,根据网络架构的不同(比如是否使用了VXLAN等叠加网络),可能需要调大或者调小MTU的数值

  • 第三,网络接口的IP地址、子网以及MAC地址

这些都是保障网络功能正常工作所必需的,需要确保配置正确

  • 第四,网络收发的字节数、包数、错误数以及丢包情况

特别是TX和RX部分的errors、dropped、overruns、carrier以及collisions等指标不为0时,通常表示出现了网络I/O问题,其中:
errors: 表示发生错误的数据包数,比如校验错误、帧同步错误等
dropped: 表示丢弃的数据包数,即数据包已经收到了Ring Buffer,但因为内存不足等原因丢包
overruns: 表示超限数据包数,即网络I/O速度过快导致Ring Buffer中的数据包来不及处理(队列满)而导致的丢包
carrier: 表示发生carrirer错误的数据包数,比如双工模式不匹配、物理电缆出现问题等
collisions: 表示碰撞数据包数

六、套接字信息

ifconfig和ip只显示了网络接口收发数据包的统计信息,但在实际的性能问题中网络协议栈中的统计信息也必须关注
可以用netstat或者ss来查看套接字、网络栈、网络接口以及路由表的信息

6.1 查询网络连接信息

更推荐使用ss来查询网络的连接信息,因为它比netstat提供了更好的性能(速度更快)

比如,执行下面的命令查询套接字信息:

# head ‑n 3 表示只显示前面3行
# ‑l 表示只显示监听套接字
# ‑n 表示显示数字地址和端口(而不是名字)
# ‑p 表示显示进程信息
$ netstat ‑nlp | head ‑n 3
Active Internet connections (only servers)
Proto Recv‑Q Send‑Q Local Address           Foreign Address         State       PID/Program name
tcp        0      0 127.0.0.53:53           0.0.0.0:*               LISTEN      840/systemd‑resolve
# ‑l 表示只显示监听套接字
# ‑t 表示只显示 TCP 套接字
# ‑n 表示显示数字地址和端口(而不是名字)
# ‑p 表示显示进程信息
$ ss ‑ltnp | head ‑n 3
State    Recv‑Q    Send‑Q        Local Address:Port        Peer Address:Port
LISTEN   0         128           127.0.0.53%lo:53               0.0.0.0:*        users:(("systemd‑res
LISTEN   0         128                 0.0.0.0:22               0.0.0.0:*        users:(("sshd",pid=1

netstat和ss的输出也是类似的,都展示了套接字的状态、接收队列、发送队列、本地地址、远端地址、进程PID和进程名称等

6.2 Recv-Q和Send-Q

其中,接收队列(Recv-Q)和发送队列(Send-Q)需要特别关注,它们通常应该是0
当发现它们不是0时,说明有网络包的堆积发生,当然还要注意在不同套接字状态下它们的含义不同

当套接字处于连接状态(Established)时:

  • Recv-Q表示套接字缓冲还没有被应用程序取走的字节数(即接收队列长度)
  • Send-Q表示还没有被远端主机确认的字节数(即发送队列长度)

当套接字处于监听状态(Listening)时:

  • Recv-Q表示syn backlog的当前值
  • Send-Q表示最大的syn backlog值

6.3 半连接和全连接

syn backlog是TCP协议栈中的半连接队列长度,相应的也有一个全连接队列(accept queue),它们都是维护TCP状态的重要机制

  • 半连接

顾名思义,所谓半连接,就是还没有完成 TCP 三次握手的连接
连接只进行了一半,而服务器收到了客户端的SYN包后,就会把这个连接放到半连接队列中,然后再向客户端发送SYN+ACK包

  • 全连接

全连接则是指服务器收到了客户端的ACK,完成了TCP三次握手,然后就会把这个连接挪到全连接队列中
这些全连接中的套接字还需要再被accept()系统调用取走,这样服务器就可以开始真正处理客户端的请求了

七、协议栈统计信息

类似的,使用netstat或ss也可以查看协议栈的信息:

$ netstat ‑s
...
Tcp:
    3244906 active connection openings
    23143 passive connection openings
    115732 failed connection attempts
    2964 connection resets received
    1 connections established
    13025010 segments received
    17606946 segments sent out
    44438 segments retransmitted
    42 bad segments received
    5315 resets sent
    InCsumErrors: 42
...
$ ss ‑s
Total: 186 (kernel 1446)
TCP:   4 (estab 1, closed 0, orphaned 0, synrecv 0, timewait 0/0), ports 0
Transport Total     IP        IPv6
*    1446      ‑         ‑
RAW    2         1         1
UDP    2         2         0
TCP    4         3         1
...

这些协议栈的统计信息都很直观
ss只显示已经连接、关闭、孤儿套接字等简要统计,而netstat则提供的是更详细的网络协议栈信息

比如,上面netstat的输出示例,展示了TCP协议的主动连接、被动连接、失败重试、发送和接收的分段数量等各种信息

八、网络吞吐和PPS

接下来,再来看看如何查看系统当前的网络吞吐量和PPS,在这里,推荐使用sar,在CPU、内存和I/O模块中已经多次用到它

给sar增加-n参数就可以查看网络的统计信息,比如网络接口(DEV)、网络接口错误(EDEV)、TCP、UDP、ICMP等等
执行下面的命令,可以得到网络接口统计信息:

# 数字1表示每隔1秒输出一组数据
$ sar ‑n DEV 1
Linux 4.15.0‑1035‑azure (ubuntu)   01/06/19   _x86_64_  (2 CPU)
13:21:40        IFACE   rxpck/s   txpck/s    rxkB/s    txkB/s   rxcmp/s   txcmp/s  rxmcst/s   %ifutil
13:21:41         eth0     18.00     20.00      5.79      4.25      0.00      0.00      0.00      0.00
13:21:41      docker0      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00
13:21:41           lo      0.00      0.00      0.00      0.00      0.00      0.00      0.00      0.00

输出的指标比较多,简单解释下它们的含义:

  • rxpck/s和txpck/s分别是接收和发送的PPS,单位为包/秒
  • rxkB/s和txkB/s分别是接收和发送的吞吐量,单位是KB/秒
  • rxcmp/s和txcmp/s分别是接收和发送的压缩数据包数,单位是包/秒
  • %ifutil是网络接口的使用率,即半双工模式下为(rxkB/s+txkB/s)/Bandwidth,全双工模式下为max(rxkB/s, txkB/s)/Bandwidth

其中,Bandwidth可以用ethtool来查询,它的单位通常是Gb/s或者Mb/s,不过注意这里小写字母b ,表示比特而不是字节
通常提到的千兆网卡、万兆网卡等,单位也都是比特

如下可以看到eth0网卡就是一个千兆网卡:

$ ethtool eth0 | grep Speed
Speed: 1000Mb/s

九、连通性和延时

最后,通常使用ping来测试远程主机的连通性和延时,而这基于ICMP协议
比如, 执行下面的命令可以测试本机到114.114.114.114这个IP地址的连通性和延时:

# ‑c3表示发送三次ICMP包后停止
$ ping ‑c3 114.114.114.114
PING 114.114.114.114 (114.114.114.114) 56(84) bytes of data.
64 bytes from 114.114.114.114: icmp_seq=1 ttl=54 time=244 ms
64 bytes from 114.114.114.114: icmp_seq=2 ttl=47 time=244 ms
64 bytes from 114.114.114.114: icmp_seq=3 ttl=67 time=244 ms
‑‑‑ 114.114.114.114 ping statistics ‑‑‑
3 packets transmitted, 3 received, 0% packet loss, time 2001ms
rtt min/avg/max/mdev = 244.023/244.070/244.105/0.034 ms

ping 的输出可以分为两部分:

  • 第一部分,每个ICMP请求的信息,包括ICMP序列号(icmp_seq)、TTL(生存时间或者跳数)以及往返延时
  • 第二部分,三次ICMP请求的汇总

比如上面的示例显示发送了3个网络包,并且接收到3个响应且没有丢包发生
这说明测试主机到114.114.114.114是连通的,平均往返延时(RTT)是244ms,也就是从发送ICMP开始到接收到114.114.114.114回复的确认总共经历244ms

十、小结

通常使用带宽、吞吐量、延时等指标来衡量网络的性能,相应的可以用ifconfig、netstat、ss、sar、ping等工具查看这些网络的性能指标

以上是关于linux性能优化 关于Linux网络的知识的主要内容,如果未能解决你的问题,请参考以下文章

关于Linux性能调优中网络I/O的一些笔记

Linux性能优化之磁盘优化

关于linux系统调优这一篇文章就够了

关于linux系统调优这一篇文章就够了

Linux性能分析工具汇总合集

linux性能优化内核线程CPU利用率高分析