套接字Socket编程

Posted JavaEdge.

tags:

篇首语:本文由小常识网(cha138.com)小编为大家整理,主要介绍了套接字Socket编程相关的知识,希望对你有一定的参考价值。

Socket,原意插座、插口。写软件程序时,可以想象成一根网线,一头插在客户端,一头插在服务端,然后进行通信。所以通信前,双方都要建立一个Socket。

Socket编程进行的是端到端的通信,意识不到中间经过多少局域网、路由器,因而能设置参数,也只能是端到端协议之上网络层和传输层的。

在网络层,Socket函数需要指定IPv4 or IPv6,分别对应设置为:

  • AF_INET
  • AF_INET6

还要指定到底是TCP还是UDP:

  • TCP协议是基于数据流的,所以设置为SOCK_STREAM
  • UDP是基于数据报的,因而设置为SOCK_DGRAM

基于TCP协议的Socket程序函数调用过程

两端创建了Socket之后,接下来的过程中,TCP和UDP稍有不同,我们先来看TCP。

TCP的服务端要先监听一个端口,一般是先调用bind函数,给这个Socket赋予一个IP地址和端口。

为什么需要端口?
一个应用程序,当一个网络包来了,内核要通过TCP头里面的这个端口,找到你这个应用程序,把包给你。

为什么要IP地址?
有时一台机器会有多个网卡,就会有多个IP地址。可以选择监听所有网卡,也可以选择监听一个网卡,这样,只有发给这个网卡的包,才会给你。

当服务端有了IP和端口号,就能调用listen函数进行监听。服务端就进入listen状态,这时客户端即可发起连接。

在内核中,为每个Socket维护两个队列:

  • 已经建立了连接的队列,这时候连接三次握手已经完毕,处于established状态
  • 还没有完全建立连接的队列,这时三次握手还没完成,处于syn_rcvd状态。

接着服务端调用accept函数,拿出一个已完成的连接进行处理。若还没完成,就要等着。

在服务端等待时,客户端可通过connect函数发起连接:

  • 先在参数中指明要连接的IP地址和端口号
  • 然后开始发起三次握手
    内核会给客户端分配一个临时端口。一旦握手成功,服务端的accept就会返回另一个Socket

监听的Socket和真正用来传数据的Socket是两个:

  • 监听Socket
  • 已连接Socket

连接建立成功之后,双方开始通过read和write函数来读写数据,就像往一个文件流里面写东西一样。

基于TCP协议的Socket程序函数调用过程。

TCP的Socket就是一个文件流,因为Socket在Linux中是以文件形式存在。
写入和读出都是通过文件描述符(后文简称为 fd)。

在内核中,Socket是一个文件,那对应就有fd。
每个进程都有一个数据结构task_struct,里面指向一个fd数组,列出该进程打开的所有文件的fd。
fork 之后,就会创建个该结构:

struct task_struct {
/* these are hardcoded - don't touch */
	long state;	/* -1 unrunnable, 0 runnable, >0 stopped */
	long counter;
	long priority;
	long signal;
	fn_ptr sig_restorer;
	fn_ptr sig_fn[32];
/* various fields */
	int exit_code;
	unsigned long end_code,end_data,brk,start_stack;
	long pid,father,pgrp,session,leader;
	unsigned short uid,euid,suid;
	unsigned short gid,egid,sgid;
	long alarm;
	long utime,stime,cutime,cstime,start_time;
	unsigned short used_math;
/* file system info */
	int tty;		/* -1 if no tty, so it must be signed */
	unsigned short umask;
	struct m_inode * pwd;
	struct m_inode * root;
	unsigned long close_on_exec;
	struct file * filp[NR_OPEN];
/* ldt for this task 0 - zero 1 - cs 2 - ds&ss */
	struct desc_struct ldt[3];
/* tss for this task */
	struct tss_struct tss;
};

fd是个整数,是这个数组的下标。

数组内容是个指针,指向内核中所有打开的文件的列表。是文件,就会有个inode,Socket对应的inode不像真正的文件系统保存在硬盘,而是在内存。在这个inode,指向了Socket在内核中的Socket结构。

这个结构里面,主要是两个队列:

  • 发送队列
  • 接收队列

这两个队列里保存的是一个缓存sk_buff。该缓存能够看到完整的包结构。

基于UDP协议的Socket程序函数调用过程

UDP没有连接,所以无需三次握手,即无需调用listen、connect。
但UDP的的交互仍需IP、端口号,因而也需要bind。

UDP没有维护连接状态,因而无需每对连接都建立一组Socket,只要有一个Socket就能和多个客户端通信。
正因为没有连接状态,每次通信时,都调用sendto、recvfrom,都可以传入IP地址和端口。
基于UDP协议的Socket程序函数调用过程

服务器如何接更多的项目?

建立连接后,进行一个while循环:

  • 客户端发了收
  • 服务端收了发

这只是网络编程第一步,使用这种方法,只能一对一沟通。
若你是个服务器,同时只能服务一个客户,那肯定不行。那我肯定能接的服务越多越好。

那理论值是多少呢?即最大连接数,系统会用一个四元组来标识一个TCP连接。

{本机IP, 本机端口, 对端IP, 对端端口}

服务器通常固定在某个本地端口上监听,等待客户端的连接请求。
因此,服务端的TCP连接四元组只有对端IP,即客户端的IP和对端端口,也即客户端的端口是可变的,因此:

最大TCP连接数=客户端IP数 × 客户端端口数

比如最常用的IPv4:

  • 客户端的IP数,max=2^32
  • 客户端的端口数,max=2^16

即服务端单机最大TCP连接数,约为2^48。

服务端最大并发TCP连接数远不能达到理论上限:

  • fd限制
    Socket都是文件,所以要通过ulimit配置fd的数目
  • 内存
    按上面的数据结构,每个TCP连接都要占用一定内存,os有限。
    所以,在资源有限情况下,要想服务更多客户,就得降低每个客户消耗的资源数。
    那有哪些方案呢?

多进程

将项目外包给其他公司,相当于你是个代理,在那里监听请求。一旦建立了一个连接,就会有一个已连接Socket,这时你可以创建一个子进程,然后将基于已连接Socket的交互交给这个新的子进程来做。
就像来了个新项目,但项目不一定你做,可以再注册一家子公司,招点人,然后把项目转包给这家子公司做,以后对接就交给这家子公司,你就可以专注接新的项目了。

问题是你如何创建子公司,又怎么将项目交给子公司?

Linux使用fork创建子进程,基于父进程完全拷贝一个子进程。在Linux内核中,会复制fd的列表,也会复制内存空间,还会复制一条记录当前执行到了哪行程序的进程。
显然,复制的时候在调用fork,复制完后,父进程、子进程都会记录当前刚刚执行完的fork。
这两个进程刚复制完时,基本一样,只是根据fork返回值区分:

  • 返回值是0,则是子进程
  • 返回值是其它整数,就是父进程

进程复制过程

因为复制了fd列表,而fd都是指向整个内核统一的打开文件列表的,因而父进程刚才因为accept创建的已连接Socket也是一个文件描述符,同样也会被子进程获得。

接下来,子进程就可以通过这个已连接Socket和客户端进行互通了,当通信完毕之后,就可以退出进程,那父进程如何知道子进程干完了项目,要退出呢?还记得fork返回的时候,如果是整数就是父进程吗?这个整数就是子进程的ID,父进程可以通过这个ID查看子进程是否完成项目,是否需要退出。

多线程

将项目转包给独立的项目组,之前的方案若每次接个项目,都申请一个新公司,然后干完了,就注销掉这个公司,实在太消耗精力。毕竟一个新公司要有新公司的资产,有新的办公家具,每次都买了再卖,不划算。

考虑使用线程,相比于进程,更轻量级。

  • 创建进程相当于成立新公司,购买新办公家具
  • 创建线程,就相当于在同一个公司成立项目组。一个项目做完了,那这个项目组就可以解散,组成另外的项目组,办公家具还可复用。

Linux通过pthread_create创建一个线程,也调用do_fork
虽然新线程在task列表会新创建一项,但很多资源,例如fd列表、进程空间,还是共享的,只不过多了一个引用。

新的线程也可以通过已连接Socket处理请求,达到并发处理的目的。

基于进程或线程模型其实还有问题。新到来一个TCP连接,就需要分配一个进程或者线程。一台机器无法创建很多进程或者线程。
C10K,一台机器要维护1万个连接,就要创建1万个进程或线程吗,那操作系统无法承受。如果维持1亿用户在线需要10万台服务器,成本也太高了。

C10K问题就是你接项目接的太多了,如果每个项目都成立单独的项目组,就要招聘10万人,你肯定养不起,那怎么办呢?

IO多路复用,一个线程维护多个Socket

一个项目组支撑多个项目,这时每个项目组都应该有个项目进度墙,将自己组看的项目列在那里,然后每天通过项目墙看每个项目的进度,一旦某个项目有了进展,就派人去盯一下。

由于Socket是文件描述符,因而某个线程盯的所有的Socket,都放在一个文件描述符集合fd_set中,这就是项目进度墙,然后调用select函数来监听文件描述符集合是否有变化。
一旦有变化,就会依次查看每个文件描述符。那些发生变化的文件描述符在fd_set对应的位都设为1,表示Socket可读或者可写,从而可以进行读写操作,然后再调用select,接着盯着下一轮的变化。

IO多路复用,从“派人盯着”到“有事通知”

一个项目组支撑多个项目,上面select函数还是有问题,因为每次Socket所在的文件描述符集合中有Socket发生变化的时候,都需要通过轮询,需要将全部项目都过一遍,这大大影响了一个项目组能够支撑的最大的项目数量。因而使用select,能够同时盯的项目数量由FD_SETSIZE限制。

改成事件通知的方式,就会好很多,项目组不需要通过轮询挨个盯着这些项目,而是当项目进度发生变化的时候,主动通知项目组,然后项目组再根据项目进展情况做相应的操作。

能完成这件事情的函数叫epoll,它在内核中的实现不是通过轮询的方式,而是通过注册callback函数的方式,当某个文件描述符发送变化的时候,就会主动通知。

如图所示,假设进程打开了Socket m, n, x等多个文件描述符,现在需要通过epoll来监听是否这些Socket都有事件发生。其中epoll_create创建一个epoll对象,也是一个文件,也对应一个文件描述符,同样也对应着打开文件列表中的一项。在这项里面有一个红黑树,在红黑树里,要保存这个epoll要监听的所有Socket。

当epoll_ctl添加一个Socket的时候,其实是加入这个红黑树,同时红黑树里面的节点指向一个结构,将这个结构挂在被监听的Socket的事件列表中。当一个Socket来了一个事件的时候,可以从这个列表中得到epoll对象,并调用call back通知它。

这种通知方式使得监听的Socket数据增加的时候,效率不会大幅度降低,能够同时监听的Socket的数目也非常的多了。上限就为系统定义的、进程打开的最大文件描述符个数。因而,epoll被称为解决C10K问题的利器。

总结

写一个能够支撑大量连接的高并发的服务端不容易,需要多进程、多线程,而epoll机制能解决C10K问题。

以上是关于套接字Socket编程的主要内容,如果未能解决你的问题,请参考以下文章

19 网络编程--Socket 套接字方法

套接字编程阻塞程序

网络编程socket套接字及其使用

linux 中 C++ 中的 UDP Socket 编程

Python套接字编程细节

Linux:UDP Socket编程(代码实战)