[Linux 高并发服务器] I/O 多路复用

Posted 鱼竿钓鱼干

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了[Linux 高并发服务器] I/O 多路复用相关的知识,希望对你有一定的参考价值。

[Linux 高并发服务器] IO多路复用

文章概述

该文章为 牛客C++项目课:Linux高并发服务器 的个人笔记,记录了IO多路复用相关的知识点

作者信息

NEFU 2020级 zsl
ID:fishingrod/鱼竿钓鱼干
Email:851892190@qq.com
欢迎各位引用此博客,引用时在显眼位置放置原文链接和作者基本信息

参考资料

感谢前辈们留下的优秀资料,从中学到很多,冒昧引用,如有冒犯可以私信或者在评论区下方指出

标题作者引用处
Linux 高并发服务器牛客网贯穿全文,以此为基础
select、poll和epoll的区别和 IO多路复用模型讲解IT生涯对比三zhongIO多路复用的补充
IO多路复用底层原理分析CallMeJiaGu自己写的检测和select的差距在哪里
服务端经典的C10k问题(译)kbryanzhangC10K问题译文
高性能网络编程(二):上一个10年,著名的C10K并发连接问题Jack JiangC10问题概览和分析

另外,各位可以看一下张龙远前辈写的《C++服务器开发精髓》个人觉得可以和牛客的课程对上,然后会有更多细节的补充。

正文部分

I/O 多路复用(I/O 多路转接)的概念

I/O 多路复用使得程序能同时监听多个文件描述符,能够提高程序的性能,Linux 下实现 I/O 多路复用的系统调用主要有 select、poll 和 epoll

这里的I/O实际上指的是读写缓冲区的操作,不要局限于文件和内存之间的信息传输

常见的IO模型

BIO模型

阻塞等待
我们直接设置阻塞的IO函数等待数据传过来然后进行处理,这么做的好处是不占用CPU宝贵的时间片,但是同一时刻只能处理一个操作

为了解决这一问题,我们可以采用多进程和多线程并发技术,这么做的缺点是线程或进程会消耗资源,线程或进程调度也会消耗CPU资源

实际上多线程和多进程并没有解决根本阻塞问题,在子进程子线程当中仍然会阻塞,只不过不会因为一个阻塞等待导致其他请求没法处理

取自牛客网教程的ppt

C10K Problem
这里可以了解一下C10K问题,译文和概览分析已经放在参考资料里了
对于C10K问题的解决思路主要有两个方向:

  1. 每个进程/线程处理单个链接,然后搭配多进程/线程
  2. 每个进程/线程处理多个链接,IO多路复用

第一个思路就是BIO模型,阻塞等待+多线程多进程,然而随着互联网的发展,并发需求越来越高,传统的进程/线程服务器模型因为进程/线程消耗资源过大,无法真正解决C10K问题。C10K问题的核心在于减少CPU等核心计算资源的使用。

下面介绍的NIO模型搭配上IO多路复用技术可以较好的解决C10K问题

NIO 模型

非阻塞忙轮询
程序每隔一段时间询问一次有没有数据有没有到达,优点是提高了程序的执行效率,缺点是需要占用更多的CPU和系统资源

取自牛客网PPT

解决方案是采用I/O 多路复用技术

I/O 多路复用技术

如果让我们直接写一个NIO模型那么很可能是下面这样的结构

代码摘自IO多路复用底层原理分析

while true {
        for(i in stream[]) {
            if(i has data)
                read until unavailable
        }
}

这么做的缺点是,如果没有准备就绪的流,那么就会浪费很多时间。解决方案是如果没有就绪的流就阻塞起来,直到出现准备就绪的流

我个人感觉这个有点像多进程/线程模型当中的条件变量,检测到符合条件的才开始工作。

select

委托内核查看有几个文件描述符有数据到了,但是不能告诉你具体是那几个,底层检测是靠二进制位来实现的,具体要看哪几个还是要轮询。

select的主旨思想:

摘自牛客PDF

  1. 首先要构造一个关于文件描述符的列表,将要监听的文件描述符添加到该列表中。
  2. 调用一个系统函数,监听该列表中的文件描述符,直到这些描述符中的一个或者多个进行I/O
    操作时,该函数才返回。
    a.这个函数是阻塞
    b.函数对文件描述符的检测的操作是由内核完成的
  3. 在返回时,它会告诉进程有多少(哪些)描述符要进行I/O操作。

代码示例:
服务端

#include <stdio.h>
#include <arpa/inet.h>
#include <unistd.h>
#include <stdlib.h>
#include <string.h>
#include <sys/select.h>

int main() {

    // 创建socket
    int lfd = socket(PF_INET, SOCK_STREAM, 0);
    struct sockaddr_in saddr;
    saddr.sin_port = htons(9999);
    saddr.sin_family = AF_INET;
    saddr.sin_addr.s_addr = INADDR_ANY;

    // 绑定
    bind(lfd, (struct sockaddr *)&saddr, sizeof(saddr));

    // 监听
    listen(lfd, 8);

    // 创建一个fd_set的集合,存放的是需要检测的文件描述符
    fd_set rdset, tmp;
    FD_ZERO(&rdset);
    FD_SET(lfd, &rdset);
    int maxfd = lfd;

    while(1) {

        tmp = rdset;

        // 调用select系统函数,让内核帮检测哪些文件描述符有数据
        int ret = select(maxfd + 1, &tmp, NULL, NULL, NULL);
        if(ret == -1) {
            perror("select");
            exit(-1);
        } else if(ret == 0) {
            continue;
        } else if(ret > 0) {
            // 说明检测到了有文件描述符的对应的缓冲区的数据发生了改变
            if(FD_ISSET(lfd, &tmp)) {
                // 表示有新的客户端连接进来了
                struct sockaddr_in cliaddr;
                int len = sizeof(cliaddr);
                int cfd = accept(lfd, (struct sockaddr *)&cliaddr, &len);

                // 将新的文件描述符加入到集合中
                FD_SET(cfd, &rdset);

                // 更新最大的文件描述符
                maxfd = maxfd > cfd ? maxfd : cfd;
            }

            for(int i = lfd + 1; i <= maxfd; i++) {
                if(FD_ISSET(i, &tmp)) {
                    // 说明这个文件描述符对应的客户端发来了数据
                    char buf[1024] = {0};
                    int len = read(i, buf, sizeof(buf));
                    if(len == -1) {
                        perror("read");
                        exit(-1);
                    } else if(len == 0) {
                        printf("client closed...\\n");
                        close(i);
                        FD_CLR(i, &rdset);
                    } else if(len > 0) {
                        printf("read buf = %s\\n", buf);
                        write(i, buf, strlen(buf) + 1);
                    }
                }
            }

        }

    }
    close(lfd);
    return 0;
}


客户端

#include <stdio.h>
#include <arpa/inet.h>
#include <stdlib.h>
#include <unistd.h>
#include <string.h>

int main() {

    // 创建socket
    int fd = socket(PF_INET, SOCK_STREAM, 0);
    if(fd == -1) {
        perror("socket");
        return -1;
    }

    struct sockaddr_in seraddr;
    inet_pton(AF_INET, "127.0.0.1", &seraddr.sin_addr.s_addr);
    seraddr.sin_family = AF_INET;
    seraddr.sin_port = htons(9999);

    // 连接服务器
    int ret = connect(fd, (struct sockaddr *)&seraddr, sizeof(seraddr));

    if(ret == -1){
        perror("connect");
        return -1;
    }

    int num = 0;
    while(1) {
        char sendBuf[1024] = {0};
        sprintf(sendBuf, "send data %d", num++);
        write(fd, sendBuf, strlen(sendBuf) + 1);

        // 接收
        int len = read(fd, sendBuf, sizeof(sendBuf));
        if(len == -1) {
            perror("read");
            return -1;
        }else if(len > 0) {
            printf("read buf = %s\\n", sendBuf);
        } else {
            printf("服务器已经断开连接...\\n");
            break;
        }
        // sleep(1);
        usleep(1000);
    }

    close(fd);

    return 0;
}

select的缺陷

  • 每次调用select要把fd从用户态拷贝到内核态,时间开销大
  • select在内核中也是对fd进行遍历,如果fd很多开销也很大
  • select支持的文件描述符数量太少了
  • fds集合不能重用,每次需要重置

代码示例

poll

poll和select区别不大,主要解决了selct文件描述符限制的问题,因为他是用链表实现的。但是其他几个缺陷还是没有解决

代码示例
服务端

#include <stdio.h>
#include <arpa/inet.h>
#include <unistd.h>
#include <stdlib.h>
#include <string.h>
#include <poll.h>


int main() {

    // 创建socket
    int lfd = socket(PF_INET, SOCK_STREAM, 0);
    struct sockaddr_in saddr;
    saddr.sin_port = htons(9999);
    saddr.sin_family = AF_INET;
    saddr.sin_addr.s_addr = INADDR_ANY;

    // 绑定
    bind(lfd, (struct sockaddr *)&saddr, sizeof(saddr));

    // 监听
    listen(lfd, 8);

    // 初始化检测的文件描述符数组
    struct pollfd fds[1024];
    for(int i = 0; i < 1024; i++) {
        fds[i].fd = -1;
        fds[i].events = POLLIN;
    }
    fds[0].fd = lfd;
    int nfds = 0;

    while(1) {

        // 调用poll系统函数,让内核帮检测哪些文件描述符有数据
        int ret = poll(fds, nfds + 1, -1);
        if(ret == -1) {
            perror("poll");
            exit(-1);
        } else if(ret == 0) {
            continue;
        } else if(ret > 0) {
            // 说明检测到了有文件描述符的对应的缓冲区的数据发生了改变
            if(fds[0].revents & POLLIN) {
                // 表示有新的客户端连接进来了
                struct sockaddr_in cliaddr;
                int len = sizeof(cliaddr);
                int cfd = accept(lfd, (struct sockaddr *)&cliaddr, &len);

                // 将新的文件描述符加入到集合中
                for(int i = 1; i < 1024; i++) {
                    if(fds[i].fd == -1) {
                        fds[i].fd = cfd;
                        fds[i].events = POLLIN;
                        break;
                    }
                }

                // 更新最大的文件描述符的索引
                nfds = nfds > cfd ? nfds : cfd;
            }

            for(int i = 1; i <= nfds; i++) {
                if(fds[i].revents & POLLIN) {
                    // 说明这个文件描述符对应的客户端发来了数据
                    char buf[1024] = {0};
                    int len = read(fds[i].fd, buf, sizeof(buf));
                    if(len == -1) {
                        perror("read");
                        exit(-1);
                    } else if(len == 0) {
                        printf("client closed...\\n");
                        close(fds[i].fd);
                        fds[i].fd = -1;
                    } else if(len > 0) {
                        printf("read buf = %s\\n", buf);
                        write(fds[i].fd, buf, strlen(buf) + 1);
                    }
                }
            }

        }

    }
    close(lfd);
    return 0;
}


客户端

#include <stdio.h>
#include <arpa/inet.h>
#include <stdlib.h>
#include <unistd.h>
#include <string.h>

int main() {

    // 创建socket
    int fd = socket(PF_INET, SOCK_STREAM, 0);
    if(fd == -1) {
        perror("socket");
        return -1;
    }

    struct sockaddr_in seraddr;
    inet_pton(AF_INET, "127.0.0.1", &seraddr.sin_addr.s_addr);
    seraddr.sin_family = AF_INET;
    seraddr.sin_port = htons(9999);

    // 连接服务器
    int ret = connect(fd, (struct sockaddr *)&seraddr, sizeof(seraddr));

    if(ret == -1){
        perror("connect");
        return -1;
    }

    int num = 0;
    while(1) {
        char sendBuf[1024] = {0};
        sprintf(sendBuf, "send data %d", num++);
        write(fd, sendBuf, strlen(sendBuf) + 1);

        // 接收
        int len = read(fd, sendBuf, sizeof(sendBuf));
        if(len == -1) {
            perror("read");
            return -1;
        }else if(len > 0) {
            printf("read buf = %s\\n", sendBuf);
        } else {
            printf("服务器已经断开连接...\\n");
            break;
        }
        // sleep(1);
        usleep(1000);
    }

    close(fd);

    return 0;
}

epoll

摘自牛客网PPT

epoll相比select/poll有了以下改进

  • 仍然会进入内核态,但是不用拷贝fd之类的信息了
  • 采用红黑树检测文件描述符号信息,提高了检测效率
  • 使用双向链表存放检测到数据发生改变的文件描述符

代码示例
服务端

#include <stdio.h>
#include <arpa/inet.h>
#include <unistd.h>
#include <stdlib.h>
#include <string.h>
#include <sys/epoll.h>

int main() {

    // 创建socket
    int lfd = socket(PF_INET, SOCK_STREAM, 0);
    struct sockaddr_in saddr;
    saddr.sin_port = htons(9999);
    saddr.sin_family = AF_INET;
    saddr.sin_addr.s_addr = INADDR_ANY;

    // 绑定
    bind(lfd, (struct sockaddr *)&saddr, sizeof(saddr));

    // 监听
    listen(lfd, 8);

    // 调用epoll_create()创建一个epoll实例
    int epfd = epoll_create(100);

    // 将监听的文件描述符相关的检测信息添加到epoll实例中
    struct epoll_event epev;
    epev.events = EPOLLIN;
    epev.data.fd = lfd;
    epoll_ctl(epfd, EPOLL_CTL_ADD, lfd, &epev);

    struct epoll_event epevs[网络I/O模型--05多路复用I/O

I/O多路复用

Linux I/O复用——select()

I/O多路复用——epoll函数

Linux高并发机制——epoll模型

[转]Nginx实现高并发的原理