㈠ epoll使用实例:TCP服务端处理多个客户端请求
epoll的全称是eventpoll,是linux内核实现IO多路复用的一种高效方式。相较于select和poll,epoll改进了工作方式,提高了效率。在本篇文章中,我们将基于上一篇文章中的Unix域socket通信实例,学习如何在TCP服务端使用epoll实现对多个客户端请求的处理。
在epoll中,服务端可以通过创建一个epoll实例,并将监听fd加入该实例,从而实现监听功能。事件设置时,通过epoll_event结构体,可以配置事件类型,如读、写或异常。监听事件由epoll_wait函数触发,该函数等待事件产生,并返回处理事件的数量。
下面是一个基于上篇Unix域socket通信代码修改的TCP服务端实例。原先的服务端仅处理单个客户端连接,现在修改为服务端能够接收并处理多个客户端的数据。
首先,服务端代码需要增加epoll监听功能。在listen之后,创建epoll实例,将服务端socket加入监听。这样服务端就可以监听多个客户端的连接请求。
为验证epoll功能,编写主程序以启动多个客户端线程,与服务端建立连接。此处使用了3个客户端进行测试。
在Ubuntu环境下编译运行程序,服务端将依次接受客户端的连接请求,并接收客户端发送的数据。测试结果表明,服务端成功处理了多个客户端请求。
总结,通过本篇的学习,了解了epoll在Linux软件开发中的应用,特别是其在TCP服务端实现多路复用功能的优越性。通过简单的代码修改,服务端能够高效地处理多个客户端的并发请求。
㈡ Handler消息机制(一):Linux的epoll机制
在linux 没有实现epoll事件驱动机制之前,我们一般选择用select或者poll等IO多路复用的方法来实现并发服务程序。在linux新的内核中,有了一种替换它的机制,就是epoll。
相比select模型, poll使用链表保存文件描述符,因此没有了监视文件数量的限制 ,但其他三个缺点依然存在。
假设我们的服务器需要支持100万的并发连接,则在__FD_SETSIZE 为1024的情况下,则我们至少需要开辟1k个进程才能实现100万的并发连接。除了进程间上下文切换的时间消耗外,从内核/用户空间大量的无脑内存拷贝、数组轮询等,是系统难以承受的。因此,基于select模型的服务器程序,要达到10万级别的并发访问,是一个很难完成的任务。
由于epoll的实现机制与select/poll机制完全不同,上面所说的 select的缺点在epoll上不复存在。
设想一下如下场景:有100万个客户端同时与一个服务器进程保持着TCP连接。而每一时刻,通常只有几百上千个TCP连接是活跃的(事实上大部分场景都是这种情况)。如何实现这样的高并发?
在select/poll时代,服务器进程每次都把这100万个连接告诉操作系统(从用户态复制句柄数据结构到内核态),让操作系统内核去查询这些套接字上是否有事件发生,轮询完后,再将句柄数据复制到用户态,让服务器应用程序轮询处理已发生的网络事件,这一过程资源消耗较大,因此,select/poll一般只能处理几千的并发连接。
epoll的设计和实现与select完全不同。epoll通过在Linux内核中申请一个简易的文件系统(文件系统一般用什么数据结构实现?B+树)。把原先的select/poll调用分成了3个部分:
1)调用epoll_create()建立一个epoll对象(在epoll文件系统中为这个句柄对象分配资源)
2)调用epoll_ctl向epoll对象中添加这100万个连接的套接字
3)调用epoll_wait收集发生的事件的连接
如此一来,要实现上面说是的场景,只需要在进程启动时建立一个epoll对象,然后在需要的时候向这个epoll对象中添加或者删除连接。同时,epoll_wait的效率也非常高,因为调用epoll_wait时,并没有一股脑的向操作系统复制这100万个连接的句柄数据,内核也不需要去遍历全部的连接。
当某一进程调用epoll_create方法时,Linux内核会创建一个eventpoll结构体,这个结构体中有两个成员与epoll的使用方式密切相关。eventpoll结构体如下所示:
每一个epoll对象都有一个独立的eventpoll结构体,用于存放通过epoll_ctl方法向epoll对象中添加进来的事件。这些事件都会挂载在红黑树中,如此,重复添加的事件就可以通过红黑树而高效的识别出来(红黑树的插入时间效率是lgn,其中n为树的高度)。
而所有 添加到epoll中的事件都会与设备(网卡)驱动程序建立回调关系,也就是说,当相应的事件发生时会调用这个回调方法 。这个回调方法在内核中叫ep_poll_callback,它会将发生的事件添加到rdlist双链表中。
在epoll中,对于每一个事件,都会建立一个epitem结构体,如下所示:
当调用epoll_wait检查是否有事件发生时,只需要检查eventpoll对象中的rdlist双链表中是否有epitem元素即可。如果rdlist不为空,则把发生的事件复制到用户态,同时将事件数量返回给用户。
epoll结构示意图
通过红黑树和双链表数据结构,并结合回调机制,造就了epoll的高效。
events可以是以下几个宏的集合:
EPOLLIN:触发该事件,表示对应的文件描述符上有可读数据。(包括对端SOCKET正常关闭);
EPOLLOUT:触发该事件,表示对应的文件描述符上可以写数据;
EPOLLPRI:表示对应的文件描述符有紧急的数据可读(这里应该表示有带外数据到来);
EPOLLERR:表示对应的文件描述符发生错误;
EPOLLHUP: 表示对应的文件描述符被挂断;
EPOLLET:将EPOLL设为边缘触发(EdgeTriggered)模式,这是相对于水平触发(Level Triggered)来说的。
EPOLLONESHOT: 只监听一次事件,当监听完这次事件之后,如果还需要继续监听这个socket的话,需要再次把这个socket加入到EPOLL队列里。
示例:
ET(EdgeTriggered) :高速工作模式,只支持no_block(非阻塞模式)。在此模式下,当描述符从未就绪变为就绪时,内核通过epoll告知。然后它会假设用户知道文件描述符已经就绪,并且不会再为那个文件描述符发送更多的就绪通知,直到某些操作导致那个文件描述符不再为就绪状态了。(触发模式只在数据就绪时通知一次,若数据没有读完,下一次不会通知,直到有新的就绪数据)
LT(LevelTriggered) :缺省工作方式,支持blocksocket和no_blocksocket。在LT模式下内核会告知一个文件描述符是否就绪了,然后可以对这个就绪的fd进行IO操作。如果不作任何操作,内核还是会继续通知!若数据没有读完,内核也会继续通知,直至设备数据为空为止!
1.我们已经把一个用来从管道中读取数据的文件句柄(RFD)添加到epoll描述符
2. 这个时候从管道的另一端被写入了2KB的数据
3. 调用epoll_wait(2),并且它会返回RFD,说明它已经准备好读取操作
4. 然后我们读取了1KB的数据
5. 调用epoll_wait(2)……
ET工作模式:
如果我们在第1步将RFD添加到epoll描述符的时候使用了EPOLLET标志,在第2步执行了一个写操作,第三步epoll_wait会返回同时通知的事件会销毁。因为第4步的读取操作没有读空文件输入缓冲区内的数据,因此我们在第5步调用epoll_wait(2)完成后,是否挂起是不确定的。epoll工作在ET模式的时候,必须使用非阻塞套接口,以避免由于一个文件句柄的阻塞读/阻塞写操作把处理多个文件描述符的任务饿死。
只有当read(2)或者write(2)返回EAGAIN时(认为读完)才需要挂起,等待。但这并不是说每次read()时都需要循环读,直到读到产生一个EAGAIN才认为此次事件处理完成,当read()返回的读到的数据长度小于请求的数据长度时(即小于sizeof(buf)),就可以确定此时缓冲中已没有数据了,也就可以认为此事读事件已处理完成。
LT工作模式:
LT方式调用epoll接口的时候,它就相当于一个速度比较快的poll(2),并且无论后面的数据是否被使用,因此他们具有同样的职能。
当调用 epoll_wait检查是否有发生事件的连接时,只是检查 eventpoll对象中的 rdllist双向链表是否有 epitem元素而已,如果 rdllist链表不为空,则把这里的事件复制到用户态内存中,同时将事件数量返回给用户。因此,epoll_wait的效率非常高。epoll_ctl在向 epoll对象中添加、修改、删除事件时,从 rbr红黑树中查找事件也非常快,也就是说,epoll是非常高效的,它可以轻易地处理百万级别的并发连接。
1.减少用户态和内核态之间的文件句柄拷贝;
2.减少对可读可写文件句柄的遍历。
https://cloud.tencent.com/developer/information/linux%20epoll%E6%9C%BA%E5%88%B6
https://blog.csdn.net/u010657219/article/details/44061629
https://jiahao..com/s?id=1609322251459722004&wfr=spider&for=pc
㈢ Linux内核源码解析---EPOLL实现3之epoll_wait水平触发与边缘触发
深入分析 Linux 内核源码中的 EPOLL 实现,本文聚焦于关键函数 epoll_wait。核心逻辑在 eventpoll.c 文件中实现。
EPOLL_WAIT 方法通过转移数据,具体步骤如下:首先,从准备好的链表中依次找到 epitem,并将其与新建的 txlink 连接起来,随后返回已准备的事件数量。
接着,将 txlist 链表中的已挂载事件集合转移到用户指定的 events 中。默认情况下,用户传入的事件通常会带上 POLLERR 和 POLLHUP 标志。
在完成事件转移后,对 epoll_wait 方法的分析转向 ep_send_events。此阶段,epoll 利用 txlist 链表进行操作,根据触发模式决定后续行为。在水平触发模式下,epitem 需要被重新加入 rdllist,此模式正是 Java 中的 selector 所采用的。
水平触发模式的优势在于,当用户未完全处理读或写事件时,epoll 会再次通知用户,便于持续监控。例如,netty 的 NIO 产品通常使用 remove 标记清除读/写状态,确保事件仅被处理一次。
综上所述,epoll_wait 的功能在于等待事件的发生,通过高效地管理事件并触发用户回调,确保系统在多任务环境下保持稳定运行。这一机制简化了并发编程的复杂性,提高了系统整体性能。
㈣ linux下 C++ 使用 epoll 实现高性能的tcpserver
实现高性能的TCP服务器时,Linux系统提供了多种多路复用技术,如select、poll、epoll等。虽然每种技术都有其特点和适用场景,但epoll在高并发场景下性能最优,这也使得它在众多服务器软件中被广泛应用,如著名的Nginx。本文将聚焦于如何使用epoll来构建一个高性能的TCP服务器,旨在提供一个易于理解的指南,帮助读者掌握epoll的使用方法,而无需深入探讨其底层原理。
首先,需要明确的是,epoll是Linux内核提供的系统调用功能,因此,它在Windows系统上不可用。如果读者对在Windows中实现类似功能感兴趣,欢迎分享相关经验。
为了实现TCP服务器,我们需要使用epoll提供的三个关键函数。同时,需要准备了解epoll的两种事件模型:Level Triggered (LT) 和 Edge Triggered (ET)。在设置socket为非阻塞模式时,可以通过以下步骤操作:
c
int flags = fcntl(fd, F_GETFL, 0);
fcntl(fd, F_SETFL, flags | O_NONBLOCK);
在编写代码前,请确保引入相应的头文件。
接着,我们需要简要了解epoll的工作原理。虽然本文不涉及过深的底层技术,但可以通过示意图来直观理解epoll的工作流程。epoll可以被视为操作系统提供的一个事件管理容器,通过将自定义的事件结构体(epoll_event)添加到容器中,用户可以指定要监听的事件类型。当容器检测到特定事件发生时,epoll会通过epoll_wait()函数通知用户。
对于简单的epoll实现,我们发现即使未注册可写事件,直接向socket中写入数据也是可行的。这表明在某些情况下,无需在epoll中进行复杂的事件注册。
为了验证这一行为,我们参考了相关资料,并对结果进行了总结。另外,我们还提供了一个面向对象封装的epoll tcpserver 示例代码,该代码已上传至GitHub和码云,供读者进一步研究和使用。
最后,为了简化文章的阅读体验,本文提供了一个简洁的示例代码,展示了如何使用epoll和C/C++语言实现一个简单的TCP服务器。代码示例包含基本的网络连接、事件监听以及数据处理逻辑,为读者提供了实际操作的参考。