前言
作者:小蜗牛向前冲
名言:我可以接受失败,但我不能接受放弃
如果觉的博主的文章还不错的话,还请点赞,收藏,关注👀支持博主。如果发现有问题的地方欢迎❀大家在评论区指正
目录
一、poll函数基础知识
1、poll函数接口
2、poll函数多路转接的实现
二、poll服务器的实现
三、epoll函数的基础知识
1、epoll的相关系统调用
2、epoll工作原理
四、epoll服务器
本期学习:poll函数的相关接口,poll函数是如何实现多路转接的,epoll函数的学习,epoll函数的工作原理,poll函数和epoll函数服务器的实现。
在学习poll和npoll之前,我们先来回顾一下select的特点:
1. select能同时等待的文件fd是有上限的,除非重新改内核,否则无法解决
2.必须借助第三方数组,来维护合法的fd
3. select的大部分参数是输入输出型的,调用select前,要重新设置所有的fd,调用之后,我们还有检查更新所有的fd.这带来的就是遍历的成本―--用户
4. select为什么第一个参数是最大fd+1呢?确定遍历范围--内核层面
5. select采用位图,用户->内核,内核->用户,来回的进行数据拷贝,拷贝成本的问题
更加详细的回顾:传送门
为了解决select在IO时会fd上限和每次调用都要重新设定关心fd,所以我们的poll函数就上亮登场了。
一、poll函数基础知识
1、poll函数接口
头文件
#include <poll.h>
函数接口
int poll(struct pollfd *fds, nfds_t nfds, int timeout);
参数说明
- fds是一个poll函数监听的结构列表. 每一个元素中, 包含了三部分内容: 文件描述符, 监听的事件集合, 返 回的事件集合.
- nfds表示fds数组的长度.
- timeout表示poll函数的超时时间, 单位是毫秒(ms)
pollfd
结构体的定义:
struct pollfd {
int fd; // 文件描述符
short events; // 要监视的事件(输入)
short revents; // 实际发生的事件(输出)
};
events
字段是要监视的事件。它是一个位掩码,可以包括以下常量之一或多个:
OLLIN
:文件描述符可读。POLLOUT
:文件描述符可写。POLLPRI
:文件描述符有紧急数据可读。POLLERR
:发生错误。POLLHUP
:文件描述符挂起(连接关闭)。POLLNVAL
:文件描述符不是一个打开的文件
revents
字段是实际发生的事件。它是 poll()
函数返回后被填充的字段,表示文件描述符上实际发生的事件。
返回结果
- 返回值小于0, 表示出错;
- 返回值等于0, 表示poll函数等待超时;
- 返回值大于0, 表示poll由于监听的文件描述符就绪而返回
2、poll函数多路转接的实现
多路转接的实现
- 使用
poll()
函数时,通常需要创建一个pollfd
数组,每个元素描述一个要监视的文件描述符及其关注的事件。- 然后,将该数组传递给
poll()
函数,并指定超时时间(或者设置为-1
表示永远等待),poll()
函数会阻塞直到有事件发生或超时。- 返回后,程序可以检查每个
pollfd
结构体的revents
字段来判断每个文件描述符上实际发生的事件。
poll的优点
不同与select使用三个位图来表示三个fdset的方式,poll使用一个pollfd的指针实现.
- pollfd结构包含了要监视的event和发生的event,不再使用select“参数-值”传递的方式. 接口使用比 select更方便.
- poll并没有最大数量限制 (但是数量过大后性能也是会下降).
poll的缺点
poll中监听的文件描述符数目增多时
- 和select函数一样,poll返回后,需要轮询pollfd来获取就绪的描述符.
- 每次调用poll都需要把大量的pollfd结构从用户态拷贝到内核中.
- 同时连接的大量客户端在一时刻可能只有很少的处于就绪状态, 因此随着监视的描述符数量的增长, 其效率也会线性下降.
二、poll服务器的实现
pollServer.hpp
#pragma once
#include <iostream>
#include <string>
#include <functional>
#include <poll.h>
#include "sock.hpp"
namespace poll_ns
{
static const int defaultport = 8081;
static const int num = 2048;
static const int defaultfd = -1;
using func_t = std::function<std::string(const std::string &)>;
class PollServer
{
public:
PollServer(func_t f, int port = defaultport) : _func(f), _port(port), _listensock(-1), _rfds(nullptr)
{
}
void ResetItem(int i)
{
_rfds[i].fd = defaultfd;
_rfds[i].events = 0;
_rfds[i].revents = 0;
}
void initServer()
{
_listensock = Sock::Socket();
Sock::Bind(_listensock, _port);
Sock::Listen(_listensock);
_rfds = new struct pollfd[num];
for (int i = 0; i < num; i++)
{
ResetItem(i);
}
_rfds[0].fd = _listensock;
_rfds[0].events = POLLIN;
}
void Print()
{
std::cout << "fd list: ";
for (int i = 0; i < num; i++)
{
if (_rfds[i].fd != defaultfd)
std::cout << _rfds[i].fd << " ";
}
std::cout << std::endl;
}
void Accepter(int listensock)
{
logMessage(DEBUG, "Accepter in");
// select 告诉我, listensock读事件就绪了
std::string clientip;
uint16_t clientport = 0;
int sock = Sock::Accept(listensock, &clientip, &clientport);
if (sock < 0)
return;
logMessage(NORMAL, "accept success [%s:%d]", clientip.c_str(), clientport);
// sock我们能直接recv/read 吗?不能,整个代码,只有poll有资格检测事件是否就绪
// 将新的sock 托管给poll!
// 将新的sock托管给poll本质,其实就是将sock,添加到fdarray数组中即可!
int i = 0;
// 找字符集中没有被占用的位置
for (; i < num; i++)
{
if (_rfds[i].fd != defaultfd)
continue;
else
break;
}
if (i == num)
{
logMessage(WARNING, "server if full, please wait");
close(sock);
}
else
{
_rfds[i].fd = sock;
_rfds[i].events = POLLIN;
_rfds[i].revents = 0;
}
Print();
logMessage(DEBUG, "Accepter out");
}
void Recver(int pos)
{
logMessage(DEBUG, "in Recver");
// 读取request
char buffer[1024];
ssize_t s = recv(_rfds[pos].fd, buffer, sizeof(buffer) - 1, 0);
if (s > 0)
{
buffer[s] = 0;
logMessage(NORMAL, "client# %s", buffer);
}
else if (s == 0)
{
close(_rfds[pos].fd);
ResetItem(pos);
logMessage(NORMAL, "client quit");
return;
}
else
{
close(_rfds[pos].fd);
ResetItem(pos);
logMessage(ERROR, "client quit: %s", strerror(errno));
return;
}
// 2. 处理request
std::string response = _func(buffer);
// 3. 返回response
// write bug
write(_rfds[pos].fd, response.c_str(), response.size());
logMessage(DEBUG, "out Recver");
}
// 1. handler event rfds 中,不仅仅是有一个fd是就绪的,可能存在多个
// 2. 我们的poll目前只处理了read事件
void HandlerReadEvent()
{
// 遍历fdarray数组
for (int i = 0; i < num; i++)
{
// 过滤非法的fd
if (_rfds[i].fd == defaultfd)
continue;
if (!(_rfds[i].events & POLLIN))
continue;
if (_rfds[i].fd == _listensock && (_rfds[i].revents & POLLIN))
Accepter(_listensock);
else if (_rfds[i].revents & POLLIN)
Recver(i);
else
{
}
}
}
void start()
{
int timeout = -1;
for (;;)
{
int n = poll(_rfds, num, timeout);
switch (n)
{
case 0:
logMessage(NORMAL, "timeout...");
break;
case -1:
logMessage(WARNING, "poll error, code: %d, err string: %s", errno, strerror(errno));
break;
default:
// 说明已经有事情就绪了
logMessage(NORMAL, "have event ready!");
HandlerReadEvent();
break;
}
}
}
~PollServer()
{
if (_listensock < 0)
close(_listensock);
if (_rfds)
delete[] _rfds;
}
private:
int _port;
int _listensock;
struct pollfd *_rfds;
func_t _func;
};
}
为了解决pool的缺点,程序员们又设计出了npoll
三、epoll函数的基础知识
按照man手册的说法: 是为处理大批量句柄而作了改进的poll. 它是在2.5.44内核中被引进的(epoll(4) is a new API introduced in Linux kernel 2.5.44) 它几乎具备了之前所说的一切优点,被公认为Linux2.6下性能最好的多路I/O就绪通知方法
1、epoll的相关系统调用
epoll 有3个相关的系统调用.
epoll_create 创建一个epoll的句柄(创建了epoll模型)
int epoll_create(int size);
- 自从linux2.6.8之后,size参数是被忽略的.
- 用完之后, 必须调用close()关闭
epoll_ct :epoll的事件注册函数
int epoll_ctl(int epfd, int op, int fd, struct epoll_event* event)
- 它不同于select()是在监听事件时告诉内核要监听什么类型的事件, 而是在这里先注册要监听的事件类型.
- 第一个参数是epoll_create()的返回值(epoll的句柄).
- 第二个参数表示动作,用三个宏来表示.
- 第三个参数是需要监听的fd.
- 第四个参数是告诉内核需要监听什么事件
第二个参数的取值:(增改删)
- EPOLL_CTL_ADD :注册新的fd到epfd中;
- EPOLL_CTL_MOD :修改已经注册的fd的监听事件;
- EPOLL_CTL_DEL :从epfd中删除一个fd;
struct epoll_event结构如下
typedef union epoll_data {
void *ptr;
int fd;
uint32_t u32;
uint64_t u64;
} epoll_data_t;
struct epoll_event {
uint32_t events; // 事件类型(输入)
epoll_data_t data; // 用户数据(输出)
};
poll_data_t
是一个联合体,用于在 struct epoll_event
中传递用户数据
events可以是以下几个宏的集合:
- EPOLLIN : 表示对应的文件描述符可以读 (包括对端SOCKET正常关闭);
- EPOLLOUT : 表示对应的文件描述符可以写;
- EPOLLPRI : 表示对应的文件描述符有紧急的数据可读 (这里应该表示有带外数据到来); EPOLLERR : 表示对应的文件描述符发生错误;
- EPOLLHUP : 表示对应的文件描述符被挂断;
- EPOLLET : 将EPOLL设为边缘触发(Edge Triggered)模式, 这是相对于水平触发(Level Triggered)来说的.
- EPOLLONESHOT:只监听一次事件, 当监听完这次事件之后, 如果还需要继续监听这个socket的话, 需要 再次把这个socket加入到EPOLL队列里.
epoll_wait:收集在epoll监控的事件中已经发送的事件
int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);
- 参数events是分配好的epoll_event结构体数组.
- epoll将会把发生的事件赋值到events数组中 (events不可以是空指针,内核只负责把数据复制到这个 events数组中,不会去帮助我们在用户态中分配内存).
- maxevents告之内核这个events有多大,这个 maxevents的值不能大于创建epoll_create()时的size.
- 参数timeout是超时时间 (毫秒,0会立即返回,-1是永久阻塞).
- 如果函数调用成功,返回对应I/O上已准备好的文件描述符数目,如返回0表示已超时,返回小于0表示函 数失败
2、epoll工作原理
当某一进程调用epoll_create方法时,Linux内核会创建一个eventpoll结构体,这个结构体中有两个成员与epoll的使用方式密切相关
- 每一个epoll对象都有一个独立的eventpoll结构体,用于存放通过epoll_ctl方法向epoll对象中添加进来的事件
- 这些事件都会挂载在红黑树中,如此,重复添加的事件就可以通过红黑树而高效的识别出来(红黑树的插入时间效率是lgn,其中n为树的高度)
- 而所有添加到epoll中的事件都会与设备(网卡)驱动程序建立回调关系,也就是说,当响应的事件发生时 会调用这个回调方法
- 这个回调方法在内核中叫ep_poll_callback,它会将发生的事件添加到rdlist双链表中
struct eventpoll{
....
/*红黑树的根节点,这颗树中存储着所有添加到epoll中的需要监控的事件*/
struct rb_root rbr;
/*双链表中则存放着将要通过epoll_wait返回给用户的满足条件的事件*/
struct list_head rdlist;
....
}
在epoll中,对于每一个事件,都会建立一个epitem结构体.
struct epitem{
struct rb_node rbn;//红黑树节点
struct list_head rdllink;//双向链表节点
struct epoll_filefd ffd; //事件句柄信息
struct eventpoll *ep; //指向其所属的eventpoll对象
struct epoll_event event; //期待发生的事件类型
}
- 当调用epoll_wait检查是否有事件发生时,只需要检查eventpoll对象中的rdlist双链表中是否有epitem 元素即可.
- 如果rdlist不为空,则把发生的事件复制到用户态,同时将事件数量返回给用户. 这个操作的时间复杂度 是O(1).
总结一下, epoll的使用过程就是三部曲:
- 调用epoll_create创建一个epoll句柄;
- 调用epoll_ctl, 将要监控的文件描述符进行注册;
- 调用epoll_wait, 等待文件描述符就绪
epoll的优点(和 select 的缺点对应)
- 接口使用方便: 虽然拆分成了三个函数, 但是反而使用起来更方便高效. 不需要每次循环都设置关注的文件描述符, 也做到了输入输出参数分离开
- 数据拷贝轻量: 只在合适的时候调用 EPOLL_CTL_ADD 将文件描述符结构拷贝到内核中, 这个操作并不频 繁(而select/poll都是每次循环都要进行拷贝)
- 事件回调机制: 避免使用遍历, 而是使用回调函数的方式, 将就绪的文件描述符结构加入到就绪队列中, epoll_wait 返回直接访问就绪队列就知道哪些文件描述符就绪. 这个操作时间复杂度O(1). 即使文件描述 符数目很多, 效率也不会受到影响.
- 没有数量限制: 文件描述符数目无上限
epoll工作方式
感性理解
你是一个网瘾少年, 天天就喜欢呆在自己的房间玩游戏,你妈饭做好了, 喊你吃饭的时候有两种方式:
- 1. 如果你妈喊你一次, 你没动, 那么你妈会继续喊你第二次, 第三次...,还有一种可能是,你吃了一口,又继续去玩,你妈过一会又会开始喊你吃饭,直到你下来把饭吃完( 水平触发)
- 2. 如果早上你妈喊你一次, 你没动你妈就不管你了,到了下午又吃饭了,你妈又会叫你一次,没来你妈也不管你,到了晚上...(边缘触发)
epoll有2种工作方式-水平触发(LT)和边缘触发(ET)
水平触发Level Triggered 工作模式
epoll默认状态下就是LT工作模式:
- 当epoll检测到socket上事件就绪的时候, 可以不立刻进行处理. 或者只处理一部分.
- 如上面的例子(你妈喊你吃饭类似), 由于只读了1K数据, 缓冲区中还剩1K数据, 在第二次调用 epoll_wait 时, epoll_wait 仍然会立刻返回并通知socket读事件就绪.
- 直到缓冲区上所有的数据都被处理完, epoll_wait 才会立刻返回.
- 支持阻塞读写和非阻塞读
简单点来说只要底层数据没有读完就,epoll就会一直通知用户要读取数据LT
边缘触发Edge Triggered工作模式
如果我们在第1步将socket添加到epoll描述符的时候使用了EPOLLET标志, epoll进入ET工作模式
- 当epoll检测到socket上事件就绪时, 必须立刻处理.
- 如上面的例子(你妈喊你吃饭类似), 虽然只读了1K的数据, 缓冲区还剩1K的数据, 在第二次调用 epoll_wait 的时候, epoll_wait 不会再返回了.
- 也就是说, ET模式下, 文件描述符上的事件就绪后, 只有一次处理机会.
- ET的性能比LT性能更高( epoll_wait 返回的次数少了很多). Nginx默认采用ET模式使用epoll.
- 只支持非阻塞的读写
ET就是底层数据没有读完,epoll也不会通知用户在去读取数据,除非底层数据变化的时候(增多),才会在通知用户一次。
对于ET模式的效率是非常高的,因为对于epoll在此模式下只有底层数据变化了才会通知用户去读数据,但是我们不知道数据读完了,所以就会倒逼着用户将本轮就绪的数据全部读取到上层(循环读取),所说,一般的fd是阻塞式的,但是在ET模式下的fd必须是非阻塞式的。
倒逼着用户将本轮就绪的数据全部读取到上层体现:
- 不仅仅在通知机制上,尽快让上层把数据都读走。
- 也让T CP可以给对方发生提供了一个更大的窗口大小,让对方更新出更大的滑动窗口
- 让底层的数据发送效率更好,其中TCP6位标志位中的PUH提示接收端应用程序立刻从TCP缓冲区把数据读走 。
select和poll其实也是工作在LT模式下. epoll既可以支持LT, 也可以支持ET。
四、epoll服务器
epollServer.hpp
#pragma once
#include <iostream>
#include <string>
#include <cstring>
#include <functional>
#include <sys/epoll.h>
#include "err.hpp"
#include "log.hpp"
#include "sock.hpp"
namespace epoll_ns
{
static const int defaultport = 8888;
static const int size = 128;
static const int defaultvalue = -1;
static const int defalultnum = 64;
using func_t = std::function<std::string(const std::string &)>;
class EpollServer
{
public:
EpollServer(func_t f, uint16_t port = defaultport, int num = defalultnum)
: func_(f), _num(num), _revs(nullptr), _port(port), _listensock(defaultvalue), _epfd(defaultvalue)
{
}
void initServer()
{
_listensock = Sock::Socket();
Sock::Bind(_listensock, _port);
Sock::Listen(_listensock);
// 1 创建epoll模型
_epfd = epoll_create(size);
if (_epfd < 0)
{
logMessage(FATAL, "epoll create error: %s", strerror(errno));
exit(EPOLL_CREATE_ERR);
}
// 2 添加listensocket到epoll中
struct epoll_event ev;
ev.events = EPOLLIN;
ev.data.fd = _listensock;
epoll_ctl(_epfd, EPOLL_CTL_ADD, _listensock, &ev);
// 3 申请就绪事情的空间
_revs = new struct epoll_event[_num];
logMessage(NORMAL, "init server success!");
}
void HandlerEvent(int readyNum)
{
logMessage(DEBUG, "HandlerEvent in");
for (int i = 0; i < readyNum; i++)
{
uint32_t events = _revs[i].events;
int sock = _revs[i].data.fd;
if (sock == _listensock && (events & EPOLLIN))
{
//_listensock读数据就绪,获取新连接
std::string clinetip;
uint16_t clinetport;
int fd = Sock::Accept(sock, &clinetip, &clinetport);
if (fd < 0)
{
logMessage(WARNING, "accept error");
continue;
}
// 获取fd成功,放入到epoll中等
struct epoll_event ev;
ev.events = EPOLLIN;
ev.data.fd = fd;
epoll_ctl(_epfd, EPOLL_CTL_ADD, fd, &ev);
}
else if (events & EPOLLIN)
{
// 普通事情准备好了
char buffer[1024];
// 这里是有BUG的这里不能保证读取是完整信息,这里先不解决
int n = recv(sock, buffer, sizeof(buffer) - 1, 0);
if (n > 0)
{
buffer[n] = 0;
logMessage(DEBUG, "client# %s", buffer);
// 应答
std::string respose = func_(buffer);
send(sock, respose.c_str(), respose.size(), 0);
}
else if (n == 0)
{
// 客户端退出了
epoll_ctl(_epfd, EPOLL_CTL_DEL, sock, nullptr);
close(sock);
logMessage(NORMAL, "client quit");
}
else
{
epoll_ctl(_epfd, EPOLL_CTL_DEL, sock, nullptr);
close(sock);
logMessage(ERROR, "recv error, code: %d, errstring: %s", errno, strerror(errno));
}
}
else
{
}
}
logMessage(DEBUG, "HandlerEvent out");
}
void start()
{
int timeout = -1;
for (;;)
{
int n = epoll_wait(_epfd, _revs, _num, timeout);
switch (n)
{
case 0:
logMessage(NORMAL, "timeout...");
case -1:
logMessage(WARNING, "epoll_wait failed,code:%d,errstring: %s", errno, strerror(errno));
// 到这里事件都就绪了
default:
logMessage(NORMAL, "have event ready");
HandlerEvent(n);
break;
}
}
}
~EpollServer()
{
if (_listensock != defaultvalue)
close(_listensock);
if (_epfd != defaultvalue)
close(_epfd);
if (_revs)
delete[] _revs;
}
private:
uint16_t _port;
int _listensock;
int _epfd;
struct epoll_event *_revs;
int _num;
func_t func_;
};
}
在使用 telnet
命令连接到服务器后,你可以通过几种方式来退出连接:
发送 Telnet 命令序列:
- 在 telnet 连接中,你可以发送一些特殊的 Telnet 命令来结束连接。
- 在连接中直接输入
Ctrl+]
,然后输入quit
或者exit
,然后按回车键。直接关闭 telnet 客户端:
- 如果你不介意强制终止连接,可以直接关闭或者终止 telnet 客户端。
- 在大多数系统中,你可以使用
Ctrl+C
或者Ctrl+D
来中断当前运行的命令或程序。在这种情况下,这将关闭 telnet 客户端并且终止连接。