您现在的位置是:亿华云 > IT科技类资讯

从Select引起的Bug聊聊多路复用一

亿华云2025-10-03 08:34:54【IT科技类资讯】9人已围观

简介一、前言很久没写文章了,主要自己还在沉淀,学习类的分享总觉得为了分享而分享,多几天可能自己都记不清细节了,所以一直没有再去写,这次遇到一个比较有意思的bug,多路复用的一个bug,这个领域那,虽然自己

一、引用前言

很久没写文章了,聊聊多路复主要自己还在沉淀,引用学习类的聊聊多路复分享总觉得为了分享而分享,多几天可能自己都记不清细节了,引用所以一直没有再去写,聊聊多路复这次遇到一个比较有意思的引用bug,多路复用的聊聊多路复一个bug,这个领域那,引用虽然自己也学习过,聊聊多路复但是引用一直也没写过代码练习,就这个机会就一并练习下,聊聊多路复可能对高手来说这是引用稀松平常的问题,却耗费了我们一天左右的聊聊多路复时间进行问题的排查。

二、引用问题描述和排查步骤

我们有个跑了很久的c开发的系统,在新版本测试中,发现一直会core,core的位置飘忽不定,而且core的有点莫名其妙,根本不该core的地方却core了,云服务器提供商开始从现象看来很像是多线程引起的问题,排查了下却没有发现问题所在。

由于代码量很多,我们排查步骤是:

利用ascan库定位core的位置,我们根据core的地方开始关闭相关的功能。

减少了core的地方后,接下来还是会core,core的位置在一个unix socket 通信线程的创建上,这个线程本该早就创建好的,但是为什么运行5-10分钟才开始创建,线程创建没有做父子进程的监控,所以不存在重启可能而且如果是这个线程挂了,引起的重新创建也是不可能的,因为线程挂了,必然会导致进程都挂了,结果整个进程的云服务器其他线程仍然是正常运行的。(这个至今无解)

由于是线程创建问题,同事注意到了此进程的由于新增写kafka的功能,导致线程过多,遂代码上注释掉这些功能,继续排查。

由于这个线程主要用来执行一些程序交互命令的,所以就用客户端工具连着去测试,发现经常连不上,有时候连上也会core,ascan的报错信息:

ASAN:SIGSEGV

=================================================================

==316088== ERROR: AddressSanitizer: SEGV on unknown address 0x00000366650b (pc 0x00000366650b sp 0x7f6e7db81fa0 bp 0x7f6e7db82820 T236)

AddressSanitizer can not provide additional info.

#0 0x366650a (+0xbd650a)

从报错信息利用add2line命令查到具体的堆栈,这个命令以前文章有聊过,执行起来是:

addr2line -a -C -e bin/可执行程序 pc对应的地址

如是经过gdb调试,发现core的时候在unix socket的处理函数的返回上,也就是说栈信息被破坏了,百思不得其解啊,甚至汇编每次跟踪地址也没查到谁破坏的。

正常连接的高防服务器时候,客户端进程卡死,通过strace 跟踪客户端的系统调用,如下:

socket(AF_UNIX, SOCK_STREAM|SOCK_CLOEXEC, 0) = 3

connect(3, { sa_family=AF_UNIX, sun_path="./run/xxxx.socket"}, 33) = 0

ioctl(3, FIONBIO, [1]) = 0

poll([{ fd=3, events=POLLOUT}], 1, 10000) = 1 ([{ fd=3, revents=POLLOUT}])

sendto(3, "{ \"version\": \"0.2\"}", 18, 0, NULL, 0) = 18

select(4, [3], [], [], { tv_sec=600, tv_usec=0}) = 1 (in [3], left { tv_sec=599, tv_usec=999794})

poll([{ fd=3, events=POLLIN}], 1, 10000) = 1 ([{ fd=3, revents=POLLIN}])

recvfrom(3, "{ \"return\":\"OK\"}\n", 1024, 0, NULL, NULL) = 16

poll([{ fd=3, events=POLLOUT}], 1, 10000) = 1 ([{ fd=3, revents=POLLOUT}])

sendto(3, "{ \"command\": \"command-list\"}\n", 28, 0, NULL, 0) = 28

select(4, [3], [], [], { tv_sec=600, tv_usec=0}

通过客户端的日志打印信息,发送command-list命令后服务器端没有返回,sendto命令是成功的,返回28,来看看服务器端怎么说:

[23331] 9/9/2022 -- 22:01:47 - (xxx.c:403) (xx) -- Unix socket: recv msg: { "version": "0.2"}

[23331] 9/9/2022 -- 22:01:47 - (xxx.c:449) (xx) -- Unix socket: send to client:(null)

[23331] 9/9/2022 -- 22:01:47 - (xxx.c:343) (xx) -- Unix socket: send content:{ "return":"OK"}

[23331] 9/9/2022 -- 22:01:47 - (xxx.c:345) <Info> (xx) -- Unix socket:sent message of size 16 to client socket 1118

通过服务器端的日志来看,只收到了初次的版本信息,后续的command-list命令并没有收到。 这就很奇怪了。

交互图

百思不得其解,是难道是内核bug?通过gdb调试并没有发现什么问题,接着通过lsof 查看socket文件的连接数,当我们通过客户端去连接的时候,连接数递增了,这没啥问题,如下图:

[root@localhost xx]# lsof ./run/command.socket

COMMAND PID USER FD TYPE DEVICE SIZE/OFF NODE NAME

xxx 30894 root 101u unix 0xffff8810e7e99800 0t0 300947 ./run/command.socket

xxx 30894 root 1172u unix 0xffff8802b42a4000 0t0 1446065 ./run/command.socket

开始没有注意到这个1172,这个文件描述符有什么特别的地方,也知道select做多路复用的时候,有一定的局限,只能处理1024个连接,我在想,我们就只有一个连接没有超过1024这个限制啊, 也许有朋友知道了原因,是1172超过了1024,也就是说select的FD的数量不能超过1024,且大小也不能超过,那么就是这么简单嘛,继续实践吧。

The behavior of these macros is undefined if a descriptor value is less than zero or

greater than or equal to FD_SETSIZE, which is normally at least equal to the maximum num-

ber of descriptors supported by the system.

三、多路复用

在高性能的服务器上,多采用多路复用技术,多路其实就是多个连接,复用就是复用此服务器进程,那么何在一起多路复用,就是用一个进程进行多个连接的处理。

对于服务器来说,开放端口等待客户端连接,开始多采用多进程或多线程编程的方式,即每个连接采用单独的进程或线程进行处理,但是每台计算机因为内存等资源限制,可以开的进程或线程数有限,而且过多的线程会导致线程切换的成本过大,缓存失效等一系列问题,根本无法做到单机处理十万、百万连接。

如果采用非阻塞,在用户进程里面轮询方式那?这样会占用很高的cpu资源,所以后来发展出多路复用技术,即采用一个进程处理多个连接,一个引用怎么处理多个连接那,不可能采用阻塞的方式,一旦阻塞在一个连接的IO上,其他连接有事件过来了也没办法处理,那只能轮询查看各个连接上是否有可读、可写消息,从而达到多路复用的目的,linux内核提供select、poll、epoll三种多路复用机制。

3.1 select 机制实现多路复用

3.1.1 基本使用说明

/* According to POSIX.1-2001 */

#include

int select(int nfds, fd_set *readfds, fd_set *writefds,

fd_set *exceptfds, struct timeval *timeout);

void FD_CLR(int fd, fd_set *set); // 从fdset中删除fd

int FD_ISSET(int fd, fd_set *set); // 判断fd是否已存在fdset

void FD_SET(int fd, fd_set *set); // 将fd添加到fdset

void FD_ZERO(fd_set *set); // fdset所有位清0

1.nfds 表示监视的文件描述符中,待测的最大描述符+1. 2. readfds:监视有读数据到达的文件描述符集合。 3. writefds:监视有写数据到达的文件描述符集合。 4. exceptfds:监视有异常发生的文件描述符集合。 这三个集合每次都要传入,每当要监视的事件发生时候,都会被复制出来。 5. timeout 设置为NULL,则select阻塞,直到事件发生;如果不为NULL,且值不为0,则等待固定时间,如果这个事件没有监视事件来的话,也仍然会返回;如果不为NULL,且值为0,则不等待,立刻返回。

下面四个为宏,含义如后面的注释,在linux内核的 中的实现如下(不同的版本实现稍微有差异):

#define __NFDBITS (8 * sizeof(unsigned long)) // 每个ulong型可以表示多少个bit,

#define __FD_SETSIZE 1024 // socket最大取值为1024

#define __FDSET_LONGS (__FD_SETSIZE/__NFDBITS) // bitmap一共有1024个bit,共需要多少个ulong

#define __FD_ELT(d) ((d) / __NFDBITS)

#define __FD_MASK(d) ((__fd_mask) 1 << ((d) % __NFDBITS))

typedef struct {

unsigned long fds_bits [__FDSET_LONGS]; //用ulong数组来表示bitmap

} __kernel_fd_set;

typedef __kernel_fd_set fd_set;

#define __FD_SET(d, set) \

((void) (__FDS_BITS (set)[__FD_ELT (d)] |= __FD_MASK (d)))

#define __FD_CLR(d, set) \

((void) (__FDS_BITS (set)[__FD_ELT (d)] &= ~__FD_MASK (d)))

#define __FD_ISSET(d, set) \

((__FDS_BITS (set)[__FD_ELT (d)] & __FD_MASK (d)) != 0)

fd_set是由unsigned long 的类型组构成的位图, FD_SET 操作即找到哪个unsigned long的哪个位,通过((__fd_mask) 1 << ((d) % __NFDBITS)) 来定位具体的位信息,将那一位设置为1,取反即设置为0.

问题出在是FD_SET地方,即在__FD_ELT(d) ((d) / __NFDBITS) 如果d的值大于1024,那么fds_bits 就越界了,就会破坏栈数据,从而导致返回异常。

简化下我们的程序,写的如下:

#服务器端

#include

#include

#include

#include

#include

#include

#include

#include

#include

#include

#include

#include

#define CLIENT_SIZE 100

#define SOCK_FILE "command.socket"

#define TOO_MANY "Too many client."

typedef struct unix_socket_infos_ {

int socket;

int select_max;

struct sockaddr_un client_addr;

int clients[CLIENT_SIZE];

} unix_socket_infos_t;

static int create_unix_socket(unix_socket_infos_t *this) {

struct sockaddr_un addr;

addr.sun_family = AF_UNIX;

strncpy(addr.sun_path, SOCK_FILE, sizeof(addr.sun_path));

addr.sun_path[sizeof(addr.sun_path) - 1] = 0;

int len = strlen(addr.sun_path) + sizeof(addr.sun_family) + 1;

int listen_socket = socket(AF_UNIX, SOCK_STREAM, 0);

if (listen_socket == -1) {

perror("create socket error.\n");

return -1;

}

// fcntl (socket, F_SETFL,SOCK_NONBLOCK) ;

int on = 1;

/* set reuse option */

int ret = setsockopt(listen_socket, SOL_SOCKET, SO_REUSEADDR, (char *)&on,

sizeof(on));

unlink(SOCK_FILE);

/* bind socket */

ret = bind(listen_socket, (struct sockaddr *)&addr, len);

if (ret == -1) {

perror("bind error.\n");

return -1;

}

printf("start to listen\n");

ret = listen(listen_socket, 1);

if (ret == -1) {

perror("listen error\n");

return -1;

}

ret = chmod(SOCK_FILE, S_IRUSR | S_IWUSR | S_IRGRP | S_IWGRP);

if (ret == -1) {

perror("chmod error\n");

return -1;

}

this->socket = listen_socket;

this->select_max = listen_socket;

return 1;

}

static int set_max(unix_socket_infos_t *this) {

for (int i = 0; i < CLIENT_SIZE; i++) {

if (this->clients[i] >= this->select_max) {

this->select_max = this->clients[i];

}

if (this->clients[i] < 0) {

break;

}

}

fprintf(stderr, "max is:%d\n", this->select_max);

return 0;

}

static int close_client(unix_socket_infos_t *this, int index) {

int client = this->clients[index];

close(client);

this->clients[index] = -1;

set_max(this);

}

static int deal_client(unix_socket_infos_t *this, int index) {

char buffer[1024] = { 0};

int ret = recv(this->clients[index], buffer, sizeof(buffer) - 1, 0);

if (ret <= 0) {

if (ret == 0) {

printf("lost connect.\n");

} else {

printf("recv error:%s \n", strerror(errno));

}

close_client(this, index);

return -1;

}

if (ret < sizeof(buffer)-2) {

buffer[ret] = \n;

buffer[ret+1] = 0;

}

fprintf(stderr, "client[%d]:%s", this->clients[index],buffer);

ret = send(this->clients[index], buffer, strlen(buffer), MSG_NOSIGNAL);

if (ret < 0) {

perror("send error:");

} else {

fprintf(stderr, "server:%s", buffer);

}

return 1;

}

static int accept_client(unix_socket_infos_t *this) {

socklen_t len = sizeof(this->client_addr);

char buffer[1024] = { 0};

int client = accept(this->socket, (struct sockaddr *)&(this->client_addr), &len);

printf("client to comming:%d\n", client);

if (client < 0) {

perror("accept error\n");

return -1;

}

memset(buffer,0x0,1024);

int ret = recv(client, buffer, sizeof(buffer) - 1, 0);

if (ret < 0) {

perror("recv error\n");

return -1;

}

if (ret < sizeof(buffer)-2) {

buffer[ret] = \n;

buffer[ret+1] = 0;

}

fprintf(stderr, "client[%d][first]:%s",client,buffer);

ret = send(client, buffer, strlen(buffer), MSG_NOSIGNAL);

if (ret < 0) {

perror("send error\n");

} else {

fprintf(stderr, "server[first]:%s", buffer);

}

int is_set = 0;

for (int i = 0; i < CLIENT_SIZE; i++) {

if (this->clients[i] < 0) {

this->clients[i] = client;

is_set = 1;

break;

}

}

set_max(this);

if (is_set == 0) {

fputs(TOO_MANY, stdout);

close(client);

return -1;

}

return 1;

}

static int run_select(unix_socket_infos_t *this) {

struct timeval tv;

int ret;

fd_set select_set;

FD_ZERO(&select_set);

FD_SET(this->socket, &select_set);

for (int i = 0; i < CLIENT_SIZE; i++) {

if (this->clients[i] > 0) {

FD_SET(this->clients[i], &select_set);

} else {

break;

}

}

tv.tv_sec = 0;

tv.tv_usec = 200 * 1000;

int select_max = this->select_max + 1;

ret = select(select_max, &select_set, NULL, NULL, &tv);

if (ret == -1) {

if (errno == EINTR) {

return 1;

}

return -1;

}

if (ret == 0) {

return 1;

}

if (FD_ISSET(this->socket, &select_set)) {

accept_client(this);

}

for (int i = 0; i < CLIENT_SIZE; i++) {

if (this->clients[i] <= 0) {

break;

}

if (FD_ISSET(this->clients[i], &select_set)) {

deal_client(this, i);

}

}

return 1;

}

int main(int argc, char **argv) {

unix_socket_infos_t unix_socket_infos;

for (int i = 0; i < CLIENT_SIZE; i++) {

unix_socket_infos.clients[i] = -1;

}

int ret = create_unix_socket(&unix_socket_infos);

printf("start to loop\n");

while (1) {

int run_ret = run_select(&unix_socket_infos);

if (run_ret == -1) {

break;

}

}

return 0;

}

客户端连接代码:

#include

#include

#include

#include

#include

#include

#include

#include

#include

#include

#include

#include

#include

#define SOCK_FILE "command.socket"

int main(int argc, char **argv) {

struct sockaddr_un un;

int sock_fd;

char buffer[1024] = "hello unix socket server";

char recv_buffer[1024];

un.sun_family = AF_UNIX;

strcpy(un.sun_path, SOCK_FILE);

sock_fd = socket(AF_UNIX, SOCK_STREAM, 0);

if (sock_fd < 0) {

perror("socket error.\n");

return -1;

}

if (connect(sock_fd, (struct sockaddr *)&un, sizeof(un)) < 0) {

perror("connect error.\n");

return -1;

}

while (1) {

memset(recv_buffer,0,1024);

memset(buffer,0,1024);

fprintf(stderr,"\nmy[%d]:",sock_fd);

fgets(buffer,sizeof(buffer)-1,stdin);

if (strncmp(buffer, "quit", 4) == 0) {

break;

}

int ret = send(sock_fd, buffer, strlen(buffer) - 1, 0);

if (ret == -1) {

perror("send error.\n");

} else {

ret = recv(sock_fd, recv_buffer, sizeof(recv_buffer) - 1, 0);

if (ret <= 0) {

perror("recv error.\n");

}

recv_buffer[ret - 1] = 0;

fprintf(stderr,"server:%s",recv_buffer);

}

}

close(sock_fd);

return 0;

}

练习代码,写的比较挫,客户端通过unix socket 连接到服务器,然后接收用户输入发送给服务器,服务器回送消息,直到用户输入quit退出。 示意下效果:

root@ubuntu-lab:/home/miao/c-test/select# ./a.out

start to listen

start to loop

client to comming:4

client[4][first]:123

server[first]:123

max is:4

client[4]:456

server:456

client[4]:abc

server:abc

lost connect.

max is:4

.....

客户端显示:

root@ubuntu-lab:/home/miao/c-test/select# ./client

my[3]:123

server:123

my[3]:456

server:456

my[3]:abc

server:abc

my[3]:quit

3.1.2 core模拟

在main的开始位置加上如下的代码:

int files[1800] = { 0};

char fileName[256] = { 0};

for (int i = 0; i < 1800; i++) {

memset(fileName, 0x0, sizeof(fileName));

sprintf(fileName, "test_%d", i);

files[i] = open(fileName, O_RDWR | O_CREAT);

if (files[i] < 0) {

close(files[i]);

}

}

会发现,程序会自动退出或core,偶尔也有成功的情况,还有的情况是发送到的命令没回复,也就是没监听起来。

3.2 select 缺点

虽然select也支持了IO多路复用,但是存在以下问题:

每次select返回后,监视的集合需要重新设置,比较麻烦。

限制1024个连接,如果想在应用上突破连接,采用malloc等动态申请内存方式也是可以,但是最好采用poll或epoll。

每次都要将监视的文件描述符复制到内核空间,有事件的发生的时候,需要再从内核空间复制到用户空间,比较占用cpu资源, 几种机制的性能比较如下​

很赞哦!(7871)