Epoll服务器(ET工作模式)

news2024/10/5 18:32:40

目录

  • Epoll ET服务器
    • 设计思路
    • Connection类
    • TcpServer类
  • 回调函数
    • Accepter函数
    • Recever函数
    • Sender函数
    • Excepter函数
  • 事件处理
  • 套接字相关接口封装
  • 运行Epoll服务器

Epoll ET服务器

设计思路

在epoll ET服务器中,我们需要处理如下几种事件:

  • 读事件:如果是监听套接字的读事件就绪则调用accept函数获取底层的连接,如果是其他套接字的读事件就绪则调用recv函数读取客户端发来的数据。
  • 写事件:写事件就绪则将待发送的数据写入到发送缓冲区当中。
  • 异常事件:当某个套接字的异常事件就绪时我们不做过多处理,直接关闭该套接字。

当epoll ET服务器监测到某一事件就绪后,就会将该事件交给对应的服务处理程序进行处理。

Connection类

  • ET工作模式下,只有数据从无到有,从有到多的过程epoll才会通知用户,就意味着如果一次性并没有将数据读取完毕,剩下的数据就相当于丢失了,所以我们并不是简单的定义一个缓冲区就可以,我们要保证我们的每一个文件描述符都对应一个自己的输入和输出缓冲区;
  • 每一个文件描述符都对应一个自己的输入和输出缓冲区就保证了他们之间的就绪事件不会相互影响了,我们在循环读取过程中将数据保存在该文件描述符对应的inbuffer中,当inbuffer当中可以分离出一个完整的报文后再将其分离出来进行数据处理,这里的inbuffer本质就是用来解决粘包问题的。
  • 我们将响应数据发送给客户端也是一样,在数据发送过程中,并不能保证TCP底层有足够的发送缓冲区供我们发送数据,我们可以将要发送的数据保存在一个outbuffer中,当底层TCP有足够的发送缓冲区供我们发送数据时,就依次发送outbuffer中的数据;
  • 此之外我们还需要设置文件描述符以及对应的读回调、写回调和异常回调函数以及一个回指指针R。
class TcpServer;
class Connection;

using func_t = std::function<void(Connection *)>;

// 任意一个Sock都需要对应有自己的输入和输出缓冲区,保证数据没有被读取完成还能继续进行下一次读取
class Connection
{
public:
    Connection(int sock = -1) : _sock(sock), _svr(nullptr)
    {
    }

    void SetCallback(func_t recv_cb, func_t send_cb, func_t except_cb)
    {
        _recv_cb = recv_cb;
        _send_cb = send_cb;
        _except_cb = except_cb;
    }

    ~Connection()
    {
    }

public:
    int _sock; // 负责IO的文件描述符

    // 三个对应的回调方法
    func_t _recv_cb;
    func_t _send_cb;
    func_t _except_cb;

    // 接收缓冲区&&发送缓冲区
    std::string _inbuffer;
    std::string _outbuffer;

    // 设置对TcpServer回指指针
    TcpServer *_svr;
};

TcpServer类

我们的epoll ET服务器的工作流程如下:

  • 首先我们需要进行的是监听套接字的创建,绑定与监听;
  • 接着就需要我们创建一个多路转接对象了;
  • 我们需要将我们的监听套接字添加到epoll模型当中,并且建立监听套接字与Connection之间的映射关系;
  • 之后就可以不断调用TcpServer类中的事件分发函数进行事件派发。

在事件处理过程中,会不断向事件分发函数当中新增或删除事件,而每个事件就绪时都会自动调用其对应的回调函数进行处理,所以我们要做的就是不断调用事件分发函数函数进行事件派发即可。

在服务器工作的过程中,我们需要频繁的使用到epoll_ctl和epoll_wait函数,我们直接将其进行一下封装,然后设置为TcpServer类的成员变量即可。

Epoll.hpp

#pragma once
#include <iostream>
#include <sys/epoll.h>

class Epoll
{
    static const int gnum = 128;
    static const int gtimeout = 5000;

public:
    Epoll(int timeout = gtimeout) : _timeout(timeout)
    {
    }
    void CreateEpoll()
    {
        _epfd = epoll_create(gnum);
        if (_epfd <= 0)
            exit(5);
    }

    bool AddSockToEpoll(int sock, uint32_t events)
    {
        struct epoll_event ev;
        ev.data.fd = sock;
        ev.events = events;
        int n = epoll_ctl(_epfd, EPOLL_CTL_ADD, sock, &ev);

        return n == 0;
    }

    int WaitEpoll(struct epoll_event revs[], int num)
    {
        return epoll_wait(_epfd, revs, num, _timeout);
    }
    ~Epoll()
    {
    }

private:
    int _epfd; // 指定epoll模型
    int _timeout;
};

由于每一个文件描述符都对应一个Connection,服务器中就会存在大量的Connection,所以我们可以创建一个哈希表来映射文件描述符与对应Connection之间的关系,也就是“先描述,在组织”,完成对Connection管理工作。

所以此时我们就可以搭建一个简单的模型出来,我们TcpServer初始化阶段就完成4个工作:

  • 监听套接字创建;
  • 多路转接对象创建;
  • 添加listen套接字到epoll模型中;
  • 构建一个就绪事件缓冲区;
#pragma once

#include <iostream>
#include <functional>
#include <string>
#include <unordered_map>
#include "Sock.hpp"
#include "log.hpp"
#include "Epoll.hpp"

class TcpServer;
class Connection;

class TcpServer
{
    static const int gport = 8080;
    static const int gnum = 128;

public:
    TcpServer(int revs_num = gnum, int port = gport) : _port(port), _revs_num(revs_num)
    {
        // 1. 创建监听套接字
        _listensock = Sock::Socket();
        Sock::Bind(_listensock, _port);
        Sock::Listen(_listensock);

        // 2. 创建多路转接对象
        _poll.CreateEpoll();

        // 3. 添加listen套接字到服务器中
        AddConnection(_listensock, std::bind(&TcpServer::Accepter, this, std::placeholders::_1), nullptr, nullptr);

        // 4. 构建一个获取就绪事件的缓冲区
        _revs = new struct epoll_event[_revs_num];
    }

    // 就绪事件的派发
    void DisPather()
    {
        while (true)
        {
            //
        }
    }

    ~TcpServer()
    {
        if (_listensock >= 0)
            close(_listensock);
        if (_revs)
            delete[] _revs;
    }

private:
    int _listensock;                                    // 监听套接字
    int _port;                                          // 端口号
    Epoll _poll;                                        // Epoll三剑客封装
    std::unordered_map<int, Connection *> _connections; // sock:Connection的映射表

    struct epoll_event *_revs;
    int _revs_num;
};

AddConnection函数

未来我们除了要添加_listensock以外,还需要需要添加大量的sock,所以我们的AddConnection函数就需要就需要将读回调,写回调,异常回调全部考虑在内,在进行_listensock添加时将写回调,异常回调设置为空即可;

  • 我们再添加sock之间必须先将sock设置为非阻塞,在ET工作模式下,我们需要循环读取,在最后一次数据读取完毕以后,我们还需要进行下一次读取,判断数据是否读取完毕,所以sock必须是非阻塞的;
  • 接下来就需要构建conn对象,对sock进行封装;
  • 然后就是将sock添加到epoll中,这儿要注意的就是对于任何多路转接服务器,一般只会打开对默认读事件的关心,写入事件会按需进行打开;
  • 最后将对应的Connection* 指针添加进_connections映射表中。
void AddConnection(int sock, func_t recv_cb, func_t send_cb, func_t except_cb)
{
    // 将sock设置为非阻塞
    Sock::SetNoneBlock(sock);
    // 未来我们除了要添加_listensock以外,还需要添加大量的sock,而且每一个sock都必须被封装成一个Connection
    // 服务器就会出现大量的Connection,操作系统就需要对这些Connection进行管理:先描述,在组织

    // 1. 构建conn对象,封装sock
    Connection *conn = new Connection(sock);
    conn->SetCallback(recv_cb, send_cb, except_cb);
    conn->_svr = this;

    // 2. 将sock添加到epoll中
    _poll.AddSockToEpoll(sock, EPOLLIN | EPOLLET); // 任何多路转接的服务器,一般默认只会打开对读取事件的关心,写入事件会按需进行打开

    // 3. 将对应的Connection* 指针添加进_connections映射表中
    _connections.insert(std::make_pair(sock, conn));
}

SetNoneBlock

static bool SetNoneBlock(int sock)
{
    int fl = fcntl(sock, F_GETFL);
    if (fl < 0)
        return false;
    fcntl(sock, F_SETFL, fl | O_NONBLOCK);
    return true;
}

DisPather函数

DisPather函数就是对我们的就绪事件进行派发,本质就是调用epoll_wait函数将就绪队列中的就绪事件拷贝进我们的就绪事件缓冲区中,然后就绪事件的类型,调用对应的回调函数进行就绪事件处理。

void LoopOnce()
{
    int n = _poll.WaitEpoll(_revs, _revs_num);
    for (int i = 0; i < n; i++)
    {
        int sock = _revs[i].data.fd;
        uint32_t events = _revs[i].events;

        if (events | EPOLLIN)
        {
            if (IsConnectionExists(sock) && _connections[sock]->_recv_cb != nullptr)
                _connections[sock]->_recv_cb(_connections[sock]);
        }
        if (events | EPOLLOUT)
        {
            if (IsConnectionExists(sock) && _connections[sock]->_send_cb != nullptr)
                _connections[sock]->_send_cb(_connections[sock]);
        }
    }
}

// 就绪事件的派发
void DisPather()
{
    while (true)
    {
        LoopOnce();
    }
}

bool IsConnectionExists(int sock)
{
    auto iter = _connections.find(sock);
    if (iter == _connections.end())
        return false;
    else
        return true;
}

回调函数

Accepter函数

Accepter函数用于处理连接事件,工作流程如下:

  • 调用accept函数在底层建立好连接;
  • 建立连接完成以后,将客户端产生的sock添加到epoll模型中;
  • 将该套接字及其对应需要关心的事件注册到Dispatcher当中。
void Accepter(Connection *conn)
{
    // logMessage(DEBUG, "Accepter been called");
    while (true)
    {
        uint16_t client_port = 0;
        std::string client_ip;
        int accept_errno = 0;
        int sock = Sock::Accept(conn->_sock, &client_port, &client_ip, &accept_errno);

        if (sock < 0)
        {
            if (accept_errno == EAGAIN || accept_errno == EWOULDBLOCK) // 并没有读取出错,只是底层没有连接了
            {
                break;
            }
            else if (accept_errno == EINTR) // 读取的过程被信号中断了
            {
                continue;
            }
            else // 获取连接失败
            {
                logMessage(WARNING, "accept error, %d : %s", accept_errno, strerror(accept_errno));
                break;
            }
        }

        if (sock > 0)
        {
            // 将sock托管给Tcpserver
            AddConnection(sock, std::bind(&TcpServer::Recever, this, std::placeholders::_1),
                          std::bind(&TcpServer::Sender, this, std::placeholders::_1),
                          std::bind(&TcpServer::Excepter, this, std::placeholders::_1));
            logMessage(DEBUG, "accept client %s:%d success, add to epoll&&TcpServer success, sock: %d",
                       client_ip.c_str(), client_port, sock);
        }
    }
}

Recever函数

Recever函数用于处理读事件,其工作流程如下:

  • 循环调用Recever函数,将读取到的数据添加到Connection结构inbuffer中去;
  • 制定协议,保证在inbuffer中切割出来的是一个完整的报文;

报文切割

  • 我们以“X”为为一个标志符,对报文之间进行分割,每个报文的最后都会以一个“X”作为报文结束的标志。
  • 对inbuffer当中的字符串进行切割,将切割出来的一个个报文放到vector当中,对于最后无法切出完整报文的数据就留在inbuffer当中即可。
void SpliteMessage(std::string &buffer, std::vector<std::string> *out)
{
    // 100+
    // 100+19X1
    // 100+19X100+19
    while (true)
    {
        auto pos = buffer.find(SEP);
        if (std::string::npos == pos)
            break;
        std::string message = buffer.substr(0, pos);
        buffer.erase(0, pos + SEP_LEN);
        out->push_back(message);
    }
}

序列化和反序列化

  • 序列化是将对象的状态信息转换为可以存储或传输的形式(字节序列)的过程。
  • 反序列化是把字节序列恢复为对象的过程。

在网络传输时,序列化目的是为了方便网络数据的发送和接收,无论是何种类型的数据,经过序列化后都变成了二进制序列,此时底层在进行网络数据传输时看到的统一都是二进制序列。

序列化后的二进制序列只有在网络传输时能够被底层识别,上层应用是无法识别序列化后的二进制序列的,因此需要将从网络中获取到的数据进行反序列化,将二进制序列的数据转换成应用层能够识别的数据格式。

如果我们传输的单纯是一个字符串,直接发送到网络中就可以了,但是如果是一些结构化的数据,比如实现一个计算器,他会存在左操作数,右操作数,操作符等,如果一个一个进行发送,就需要一个一个进行接收,此时服务端还需要纠结这些数据如何组合,所以我们可以将这些结构化数据打包。我们可以将协议进行一下封装:

Protocal.hpp

#pragma once

#include <iostream>
#include <cstring>
#include <string>
#include <vector>

// 1. 报文和报文之间,我们采用特殊字符来进行解决粘报问题
// 2. 获取一个一个独立完整的报文,序列和反序列化 -- 自定义
// 100+19X100+19X100+19

std::string Encode(std::string &s)
{
    return s + SEP;
}

class Request
{
public:
    std::string Serialize()
    {
        std::string str;
        str = std::to_string(x_);
        str += SPACE;
        str += op_; // TODO
        str += SPACE;
        str += std::to_string(y_);
        return str;
    }
    bool Deserialized(const std::string &str) // 1 + 1
    {
        std::size_t left = str.find(SPACE);
        if (left == std::string::npos)
            return false;
        std::size_t right = str.rfind(SPACE);
        if (right == std::string::npos)
            return false;
        x_ = atoi(str.substr(0, left).c_str());
        y_ = atoi(str.substr(right + SPACE_LEN).c_str());
        if (left + SPACE_LEN > str.size())
            return false;
        else
            op_ = str[left + SPACE_LEN];
        return true;
    }

public:
    Request()
    {
    }
    Request(int x, int y, char op) : x_(x), y_(y), op_(op)
    {
    }
    ~Request() {}

public:
    int x_;   // 是什么?
    int y_;   // 是什么?
    char op_; // '+' '-' '*' '/' '%'
};

class Response
{
public:
    // "code_ result_"
    std::string Serialize()
    {

        std::string s;
        s = std::to_string(code_);
        s += SPACE;
        s += std::to_string(result_);

        return s;
    }
    // "111 100"
    bool Deserialized(const std::string &s)
    {
        std::size_t pos = s.find(SPACE);
        if (pos == std::string::npos)
            return false;
        code_ = atoi(s.substr(0, pos).c_str());
        result_ = atoi(s.substr(pos + SPACE_LEN).c_str());
        return true;
    }

public:
    Response()
    {
    }
    Response(int result, int code) : result_(result), code_(code)
    {
    }
    ~Response() {}

public:
    // 约定!
    // result_ code_
    int result_; // 计算结果
    int code_;   // 计算结果的状态码
};

业务处理

业务处理就是服务器拿到客户端发来的数据后,对数据进行数据分析,最终拿到客户端想要的资源。

  • 我们这里要做的业务处理非常简单,就是用反序列化后的数据进行数据计算,此时得到的计算结果就是客户端想要的。
void Recever(Connection *conn)
{
    const int num = 1024;
    bool err = false;

    while (true)
    {
        char buffer[num];
        ssize_t n = recv(conn->_sock, buffer, sizeof(buffer) - 1, 0);
        if (n < 0)
        {
            if (errno == EAGAIN || errno == EWOULDBLOCK)
            {
                break;
            }
            else if (errno == EINTR)
            {
                continue;
            }
            else
            {
                logMessage(ERROR, "recv error: %d, %s", errno, strerror(errno));
                conn->_except_cb(conn);
                err = true;
                break;
            }
        }
        else if (n == 0)
        {
            logMessage(DEBUG, "client[%d] quit, me too!!!", conn->_sock);
            conn->_except_cb(conn);
            err = true;
            break;
        }
        else // 读取成功
        {
            buffer[n] = 0;
            conn->_inbuffer += buffer;
        }
    }

    logMessage(DEBUG, "conn->inbuffer[sock:%d]: %s", conn->_sock, conn->_inbuffer.c_str());

    // 数据读取完毕以后进行业务处理
    if (!err)
    {
        std::vector<std::string> message;
        SpliteMessage(conn->_inbuffer, &message);
        for (auto &msg : message)
            _cb(conn, msg);
    }
}

注意:
在处理读事件时,会出现失败的情况,但是失败会存在多种情况,我们需要对应进行处理:

  • 当错误码被设置为EAGAINEWOULDBLOCK,说明接受缓冲区中的数据已经被读取完了,此时就直接break;
  • 当错误码设置为EINTR,说明读取过程被信号中断了,此时还需要继续调用recv函数进行发送;
  • 当以上两种情况都不是时,说明就是读取异常,此时调用_except_cb函数进行异常处理。

Sender函数

sender回调用于处理写事件,其工作流程如下:

  • 循环调用send函数发送数据,并将发送出去的数据从该套接字对应Connect结构的_outbuffer中删除;
  • 如果循环调用send函数后该套接字对应的_outbuffer当中的数据被全部发送,此时就需要将该套接字对应的写事件关闭,因为已经没有要发送的数据了,如果_outbuffer当中的数据还有剩余,那么该套接字对应的写事件就应该继续打开。
    void Sender(Connection *conn)
    {
        while(true)
        {
            ssize_t n = send(conn->_sock, conn->_outbuffer.c_str(), conn->_outbuffer.size(), 0);
            if(n > 0)
            {
                conn->_outbuffer.erase(0, n);
                if(conn->_outbuffer.empty()) break;
            }
            else
            {
                if(errno == EAGAIN || errno == EWOULDBLOCK)
                {
                    break;
                }
                else if(errno == EINTR)
                {
                    continue;
                }
                else
                {
                    logMessage(ERROR, "send error: %d, %s", errno, strerror(errno));
                    conn->_except_cb(conn);
                    break;
                }
            }
        }
        // 此时并不知道数据是否发完,发完就不写入数据了,没发完就下次发送
        if(conn->_outbuffer.empty()) EnableWriteRead(conn, true, false);
        else EnableWriteRead(conn, true, true);
    }

EnableWriteRead函数

EnableReadWrite函数,用于使能或使能某个文件描述符的读写事件:

  • 调用EnableReadWrite函数时需要传入一个文件描述符,表示需要设置的是哪个文件描述符对应的事件。
  • 还需要传入两个bool值,分别表示需要使能还是使能读写事件。
  • EnableReadWrite函数内部会调用epoll_ctl函数修改将该文件描述符的监听事件。
void EnableWriteRead(Connection* conn, bool readable, bool writeable)
{
    uint32_t events = (readable ? EPOLLIN : 0) | (writeable ? EPOLLOUT : 0);
    int res = _poll.CtlEpoll(conn->_sock, events);
    assert(res);
}
int CtlEpoll(int sock, uint32_t events)
{
    events |= EPOLLET;
    struct epoll_event ev;
    ev.events = events;
    ev.data.fd = sock;
    int n = epoll_ctl(_epfd, EPOLL_CTL_MOD, sock, &ev);

    return n == 0;
}

注意
在处理写事件时,都会出现失败的情况,但是失败会存在多种情况,我们需要对应进行处理:

  • 当错误码设置为EAGAINEWOULDBLOCK,说明发送缓冲区中数据已经被写满了,此时就需要将其中已经发送的数据删除在写入;
  • 当错误码设置为EINTR,说明发送过程被信号中断了,此时还需要继续调用send函数进行发送;
  • 当以上两种情况都不是时,就说明是真的发送出错了,此时我们就需要调用_except_cb函数进行相应异常操作。

Excepter函数

Excepter回调用于处理异常事件:

  • 对于异常的事件,我们只需要将其对应的文件描述符关闭即可;
  • 首先我们得将该文件描述符epoll模型中移除掉;
  • 然后再将该文件描述符从我们建立映射关系的哈希表中移除;
  • 最后在关闭文件描述符,delete我们对应的Connection对象。
void Excepter(Connection *conn)
{
    if (!IsConnectionExists(conn->_sock))
        return;

    // 将sock从epoll模型中删除
    _poll.DelFromEpoll(conn->_sock);

    // 将对应sock从映射表中移除
    _connections.erase(conn->_sock);

    // 关闭文件描述符sock
    close(conn->_sock);

    // ddelete 对应Connection对象
    delete conn;
}

DelFromEpoll函数

bool DelFromEpoll(int sock)
{
    int n = epoll_ctl(_epfd, EPOLL_CTL_DEL, sock, nullptr);
    return n == 0;
}

事件处理

我们在创建一个TcpServer类对象以后,就需要调用Dispather函数进行事件的处理,此时我们设计一个简单是计算任务,封装成一个NetCal函数,他所需要进行的步骤如下:

  • 将读取到的数据进行反序列化;
  • 进行业务处理;
  • 序列化数据,构建应答;
  • 将数据交给服务器;
  • 让底层的TcpServer开始发送数据;
#include "TcpServer.hpp"
#include "Protocol.hpp"
#include <memory>

static Response calculator(const Request &req)
{
    Response resp(0, 0);
    switch (req.op_)
    {
    case '+':
        resp.result_ = req.x_ + req.y_;
        break;
    case '-':
        resp.result_ = req.x_ - req.y_;
        break;
    case '*':
        resp.result_ = req.x_ * req.y_;
        break;
    case '/':
        if (0 == req.y_)
            resp.code_ = 1;
        else
            resp.result_ = req.x_ / req.y_;
        break;
    case '%':
        if (0 == req.y_)
            resp.code_ = 2;
        else
            resp.result_ = req.x_ % req.y_;
        break;
    default:
        resp.code_ = 3;
        break;
    }
    return resp;
}

void NetCal(Connection *conn, std::string &request)
{
    logMessage(DEBUG, "NetCal been called, get request: %s", request.c_str());
    // 1.反序列化
    Request req;
    if (!req.Deserialized(request))
        return;

    // 2. 业务处理
    Response resp = calculator(req);

    // 3. 序列化,构建应答
    std::string sendstr = resp.Serialize();
    sendstr = Encode(sendstr);

    // 4. 交给服务器
    conn->_outbuffer += sendstr;
    
	// 5. 让底层的TcpServer开始发送数据
    conn->_svr->EnableWriteRead(conn, true, true);
}
int main()
{
    std::unique_ptr<TcpServer> tcp_server(new TcpServer());
    tcp_server->DisPather(NetCal);

    return 0;
}

注意:

我们的回指指针作用就是在NetCal函数第5步体现出来的,因为我们从始至终都没有调用过Sender函数,一直都是在读取数据,所以我们此时就需要想办法调用一次Sender函数,我们触发发送的动作,一旦我们开启EPOLLOUT,epoll会自动立马触发一次发送事件就绪,如果后续保持发送的开启,epoll会一直发送。

所以我们在此就需要通过我们的回指指针_svr调用EnableWriteRead函数,将读写操作都打开,此时底层就会调用我们的Sender函数,从此以后写操作就会一直执行下去。

套接字相关接口封装

我们将需要用到的套接字接口封装成一个Sock类并设置为静态成员函数,方便后续的调用:

Sock.hpp

#pragma once

#include <iostream>
#include <string>
#include <cstring>
#include <cerrno>
#include <cassert>
#include <unistd.h>
#include <memory>
#include <fcntl.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <arpa/inet.h>
#include <netinet/in.h>
#include <ctype.h>
#include "log.hpp"

class Sock
{
private:
    const static int gbacklog = 10;

public:
    Sock()
    {
    }

    static int Socket()
    {
        int listensock = socket(AF_INET, SOCK_STREAM, 0);
        if (listensock < 0)
        {
            logMessage(ERROR, "create socket error:%d:%s", errno, strerror(errno));
            exit(0);
        }

        logMessage(NORMAL, "create socket success, listensock:%d", listensock);

        int opt = 1;
        setsockopt(listensock, SOL_SOCKET, SO_REUSEADDR | SO_REUSEPORT, &opt, sizeof(opt));

        return listensock;
    }

    static void Bind(int sock, uint16_t port, std::string ip = "0.0.0.0")
    {
        struct sockaddr_in local;
        memset(&local, 0, sizeof(local));
        local.sin_family = AF_INET;
        local.sin_port = htons(port);
        inet_pton(AF_INET, ip.c_str(), &local.sin_addr);

        if (bind(sock, (struct sockaddr *)&local, sizeof(local)) < 0)
        {
            logMessage(ERROR, "bind error:%d:%s", errno, strerror(errno));
            exit(1);
        }
    }

    static void Listen(int sock)
    {
        if (listen(sock, gbacklog) < 0)
        {
            logMessage(ERROR, "listen error:%d:%s", errno, strerror(errno));
            exit(2);
        }

        logMessage(NORMAL, "init server success...");
    }

    static int Accept(int listensock, uint16_t *port, std::string *ip, int *accept_errno)
    {
        struct sockaddr_in src;
        socklen_t len = sizeof(src);
        *accept_errno = 0;

        int servicesock = accept(listensock, (struct sockaddr *)&src, &len);
        if (servicesock < 0)
        {
            logMessage(ERROR, "accept error:%d:%s", errno, strerror);
            *accept_errno = errno;
            return -1;
        }

        if (port)
            *port = htons(src.sin_port);
        if (ip)
            *ip = inet_ntoa(src.sin_addr);

        return servicesock;
    }

    static bool SetNoneBlock(int sock)
    {
        int fl = fcntl(sock, F_GETFL);
        if (fl < 0)
            return false;
        fcntl(sock, F_SETFL, fl | O_NONBLOCK);
        return true;
    }

    ~Sock()
    {
    }
};

同样我们也可以将我们的日志文件引入进来:

log.hpp

#pragma once

#include <iostream>
#include <cstdio>
#include <cstdarg>
#include <ctime>
#include <string>

// 日志是有日志级别的
#define DEBUG   0
#define NORMAL  1
#define WARNING 2
#define ERROR   3
#define FATAL   4

const char *gLevelMap[] = {
    "DEBUG",
    "NORMAL",
    "WARNING",
    "ERROR",
    "FATAL"
};

#define LOGFILE "./threadpool.log"

// 完整的日志功能,至少: 日志等级 时间 支持用户自定义(日志内容, 文件行,文件名)
void logMessage(int level, const char *format, ...)
{
    char stdBuffer[1024]; //标准部分
    time_t timestamp = time(nullptr);
    snprintf(stdBuffer, sizeof stdBuffer, "[%s] [%ld] ", gLevelMap[level], timestamp);

    char logBuffer[1024]; //自定义部分
    va_list args;
    va_start(args, format);

    vsnprintf(logBuffer, sizeof logBuffer, format, args);
    va_end(args);

    printf("%s%s\n", stdBuffer, logBuffer);
}

运行Epoll服务器

行服务器后可以看到3号文件描述符被添加到了epoll模型中,这里的3号文件描述符其实就是监听套接字。

在这里插入图片描述

当客户端连接服务器后,在服务器端会显示5号文件描述符被添加到了epoll模型当中,因为4号文件描述符已经被epoll模型使用了。

在这里插入图片描述

此时客户端就可以向服务器发送一些简单计算任务,这些计算任务之间用“X”隔开,服务器收到计算请求并处理后就会将计算结果发送给客户端,这些计算结果之间也是用“X”隔开的。

在这里插入图片描述
此外,由于使用了多路转接技术,虽然当前的epoll服务器是一个单进程的服务器,但它却可以同时为多个客户端提供服务。

在这里插入图片描述
当客户端退出后服务器端也会将对应的文件描述符从epoll模型中删除。

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/1297504.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

如何恢复已删除的 JPG/JPEG 文件的方法深度解析!

您是否意外丢失或删除了 JPG 或 JPEG 照片&#xff1f;幸运的是&#xff0c;您可以使用照片恢复工具将它们恢复。立即获取适用于 PC 的 JPEG 恢复工具 - 照片恢复&#xff1a; 照片是捕捉和重温生活中特殊时刻的最佳方式。因此&#xff0c;当我们由于硬盘崩溃、意外格式化磁盘…

WordPress限制搜索关键词实现搜索黑名单

昨天有位站长问我能不能限制WordPress的搜索关键词&#xff0c;因为有人利用他的网站搜索色情词汇&#xff0c;本来正常搜索没有影响的&#xff0c;但是在部分网站中&#xff0c;搜索关键词产生的搜索页会被搜索引擎收录&#xff0c;实现推广功能。 WordPress的关键词搜索限制实…

kubesphere安装后启用DevOps

官方文档&#xff1a;KubeSphere DevOps 系统 1、集群管理---定制资源定义 进入目录&#xff1a;集群管理---定制资源定义搜索&#xff1a;clusterconfiguration 点击 ks-installer 右侧的 &#xff0c;选择编辑 YAML 在该 YAML 文件中&#xff0c;搜索 devops&#xff0c;…

k8s上安装KubeSphere

安装KubeSphere 前置环境安装nfs-server文件系统配置nfs-client配置默认存储创建了一个存储类metrics-server集群指标监控组件 安装KubeSphere执行安装查看安装进度 前置环境 下载配置我都是以CentOS 7.9 安装 k8s(详细教程)文章的服务器作为示例&#xff0c;请自行修改为自己的…

uniapp实战 —— 骨架屏

1. 自动生成骨架屏代码 在微信开发者工具中&#xff0c;预览界面点击生成骨架屏 确定后&#xff0c;会自动打开骨架屏代码文件 pages\index\index.skeleton.wxml 2. 将骨架屏代码转换为vue文件 在项目中新建文件 src\pages\index\components\skeleton.vue 将pages\index\index…

centos 7.9 二进制部署 kubernetes v1.27.7

文章目录 1. 预备条件2. 基础配置2.1 配置root远程登录2.2 配置主机名2.3 安装 ansible2.4 配置互信2.5 配置hosts文件2.6 关闭防firewalld火墙2.7 关闭 selinux2.8 关闭交换分区swap2.9 修改内核参数2.10 安装iptables2.11 开启ipvs2.12 配置limits参数2.13 配置 yum2.14 配置…

Python接口自动化浅析登录接口测试实战

以下主要介绍接口概念、接口用例设计及登录接口测试实战。 1、什么是接口&#xff1f; 接口&#xff1a;检测外部系统与系统之间以及内部各个子系统之间的交互点。 通俗来说&#xff0c;接口就是连接前后端的桥梁&#xff0c;接口测试可以简单理解为脱离了前端的功能测试。 …

Java数据结构之《哈夫曼编码大全》(难度系数100)

一、前言&#xff1a; 这是怀化学院的&#xff1a;Java数据结构中的一道难度偏难(偏难理解)的一道编程题(此方法为博主自己研究与学习一名叫qing影的博主&#xff0c;问题基本解决&#xff0c;若有bug欢迎下方评论提出意见&#xff0c;我会第一时间改进代码&#xff0c;谢谢&am…

poe与chatgpt那个功能更强大

在当前的人工智能领域&#xff0c;Poe Al Chat以其卓越的聊天能力和实用的功能&#xff0c;受到了大家的广泛关注和喜爱。本文好为您个绍Poe Al Chat的功能&#xff0c;以及我们国内用户如何进行充值订阅。Poe Al Chat是一个基于OpenAl的GPT模型开发的人工智能聊天工具。它能够…

前端使用视频作为背景图的方法

实现思路 通过 video source 引入视频&#xff0c;并对视频播放属性进行设置&#xff0c;再通过 css 使视频覆盖背景即可。 代码 <!DOCTYPE html> <html> <head> <meta charset"utf-8"> <title>有开发问题可联系作者</title>…

MarsEdit 5 for Mac(博客编辑软件) - 博客创作的完美拍档!

您是一位热爱写作和分享的博主吗&#xff1f;如果是的话&#xff0c;那么MarsEdit 5 for Mac将成为您创作之旅中的完美拍档&#xff01;这款博客编辑软件为Mac用户提供了无与伦比的便捷和灵活性。 MarsEdit 5具有直观的界面和强大的功能&#xff0c;让您轻松管理和编辑多个博客…

酷开科技以创新为动力用大数据提升品牌认知

在21世纪的今天&#xff0c;我们生活在一个被互联网深深改变的世界。互联网不仅改变了我们的生活方式&#xff0c;也正在改变我们的思维方式和工作方式。而互联网作为一种新的发展趋势&#xff0c;更是为我们提供了无数的机会和无限可能性&#xff0c;从电子商务时代到社交网络…

基于Maven构建OSGI应用(Maven和OSGI结合)

基于Maven构建OSGI应用。 使用Maven来构建项目&#xff0c;包括项目的创建、子模块buldle的创建等。使用OSGI来实现动态模块化管理&#xff0c;实现模块的热插拔效果&#xff08;即插即用&#xff09;。 创建一个Maven项目&#xff1a;helloworld&#xff0c;并在该项目下创建…

[ROS2] --- service

1 service介绍 1.1 service概念 话题通信是基于订阅/发布机制的&#xff0c;无论有没有订阅者&#xff0c;发布者都会周期发布数据&#xff0c;这种模式适合持续数据的收发&#xff0c;比如传感器数据。机器人系统中还有另外一些配置性质的数据&#xff0c;并不需要周期处理&…

迅为3588开发板 sudo: 无法解析主机:/DNS配置

环境申明 RK3588 ubuntu 22.04 jammy 迅为开发板 hostname 看是否有Host .&#xff0c;如果没有&#xff0c; sudo vim /etc/hostname在里面加一行&#xff0c;我这就这一个 iTOP-RK3588hosts 修改本地hosts sudo vim /etc/hosts127.0.0.1 localhost localhost iTOP-RK3…

ai人工智能洗稿软件免费有哪些好用?【最新AI洗稿软件盘点】

在当今信息时代&#xff0c;内容创作已成为人们工作和生活中不可或缺的一部分。为了提高创作效率&#xff0c;越来越多的人转向人工智能洗稿软件。本文将专心分享一些优质的免费AI洗稿软件。 免费AI洗稿软件的崛起 免费AI洗稿软件的崛起为许多创作者带来了便利&#xff0c;使他…

贪心算法背包问题c

在背包问题中&#xff0c;贪心算法通常用来解决0-1背包问题&#xff0c;也就是每种物品都有固定数量&#xff0c;你可以选择拿或者不拿&#xff0c;但不可以拿走部分。以下是一个用C语言实现的贪心算法的例子&#xff1a; #include <stdio.h>#define MAX_N 1000#define …

卷王开启验证码后无法登陆问题解决

问题描述 使用 docker 部署&#xff0c;后台设置开启验证&#xff0c;重启服务器之后&#xff0c;docker重启&#xff0c;再次访问系统&#xff0c;验证码获取失败&#xff0c;导致无法进行验证&#xff0c;也就无法登陆系统。 如果不了解卷王的&#xff0c;可以去官网看下。…

从零开始搭建企业管理系统(三):集成 Spring Data Jpa

集成 Spring Data Jpa 什么是 Jpa什么是 Spring Data Jpa什么是 HibernateJPA、Spring Data Jpa、Hibernate 之间的关系集成 Spring Data JpaPOM 依赖配置文件UserEntity启动程序Jpa 配置Jpa 注解UserRepositoryUserServiceUserServiceImplUserControllerBaseEntity 什么是 Jpa…