linux asio网络编程理论及实现

        最近在B站看了恋恋风辰大佬的asio网络编程,质量非常高。在本章中将对ASIO异步网络编程的整体及一些实现细节进行完整的梳理,用于复习与分享。大佬的博客:恋恋风辰官方博客

Preactor/Reactor模式

        在网络编程中,通常根据事件处理的触发时机处理逻辑的分工可以分为reactor模式和preactor模式。reator是非阻塞同步网络模式,preactor是异步网络模式。

        阻塞I/O我们知道read分为两个步骤一个是检测IO和操作IO.第一个是检测recv buffer也就是通过fd找到对应的接收缓冲区里面是否有数据,也就是io是否就绪,如果有数据拷贝到设置的buffer,并返回数据长度。如果没有就绪他就是阻塞的。但是如果设置类非阻塞I/O也就O_NONBLOCK,他就会立即返回,此时应用程序不断轮询内核,直到数据准备好,内核将数据拷贝到应用程序缓冲区,read 调用才可以获取到结果。

        但是真正的异步IO,是询问数据是否准备好和把数据从接受缓冲区拷贝到指定buffer,都是不用等待的。我们发起read之后,就不用管了,内核会自动把他写到指定缓冲区中。应用程序并不需要主动发起拷贝动作。就像我去吃饭,我点完菜我就不用管了,剩下的就交给饭店了(内核),做好了告诉我。

        Reactor 可以理解为「来了事件操作系统通知应用进程,让应用进程来处理」,而 Proactor 可以理解为「来了事件操作系统来处理,处理完再通知应用进程」

  

IO多路复用

        我们在实际观看代码的时候还需要了解多路IO复用的知识。前面有提到,Read是分为两步的,一个用来检测是否有数据,一个用来操作数据。IO多路复用不能去操作IO但是可以检测IO并且可以同时检测多路IO,他们都是同步IO。常见的多路IO选择有epoll,select以及poll。但是epoll基本可以完成select以及poll的功能。

        select需要三个集合即:读事件,写事件,异常事件。且select会线性扫描所有文件描述符,即使只有少数文件描述符状态发生了变化,select也要遍历整个文件描述符集。而且select受fd_size影响通常是1024。poll只需要一个集合,异常用event标识就好了,返回的时候用revent,也就是事件就绪的话我们会去修改revent。

        我们再来看看epoll,相比于轮询机制,epoll使用事件通知机制:将感兴趣的文件描述符及其事件类型添加到 epoll 实例中,由内核自动监视这些描述符的状态,并在状态变化时通知用户进程。Epoll在通过epoll_creat之后会返回一个描述符。这个描述符对着用的epoll的实体,其内部是由红黑树创建成的。为什么用红黑树而不是平衡搜索树,是因为平衡搜索树平衡要求比较严苛,每次插入删除都需要保持平衡从而左右选转树。性能要求较高,但是红黑树是按照黑节点来算平衡的。所以要求没那么高的同时,也能保证一些性能。epoll可以通过epoll_ctl将fd挂上树进行监听,他有四个参数,第一个就是本体对应的fd,也就是之前epoll_creat创建的fd,第二个是要干嘛,第三个个是目标fd,第四个是epoll_event结构体,这个epoll_event包含信息,epollin/out/rr 挂上去放下来,其中还有一个data联合体,里面还有一个对应监听事件的fd,以及void* ptr这个指针可以让我们携带更多信息用来判断。后面我再分享一个reactor模式的就是用了void* ptr。epoll_wait也就是阻塞监听的函数了,他会返回数据准备好的fd个数,然后把对应的epoll_event放到epoll_event数组里,遍历这个数组就可以进行操作IO了。

boost.asio库

        我们知道在linux上其实天生支持的是reactor模式,而windows上支持的是preactor模式。但是asio库可以跨平台实现异步网络编程,而且比自己造轮子方便多了。下面将介绍一些大概的api。

 io_context

    这个asioPreactor的核心部分,它代表了一个事件循环的上下文,所有的异步操作都需要关联到一个io_context对象。io_context 负责分发事件并驱动异步操作的完成。它内部其实封装的是一个epoll。在内部,他会调用epoll_creat先创建一个实例。然后async_read/write会注册fd到这个epoll实例上面去。io_context.run()其实调用的就是epoll_wait.一旦有事件触发,他就触发回调处理了。不知道大家注意到没有,其实在linux上,他这个还是reactor的,不是真正的操作系统级别支持的,而是在用户空间模拟出来的异步,由于网络编程中的 socket 是不支持的,这也使得基于 Linux 的高性能网络程序都是使用 Reactor 方案。比较方便的就是不用自己造造轮子设计封装了,不然又要设计回调又要设计channel这些层很麻烦。但是你同样的代码你写正在Windows就是真Preactor,因为高贵的Windows有IOCP接口。他有四个常用的API:

  • io_context.run():启动事件循环,直到没有待处理的异步操作。
  • io_context.stop():停止事件循环(标志位)。
  • io_context.poll():检查并处理所有已经完成的异步操作,但不会阻塞,适用于非阻塞事件调度。
  • io_context.restart():重启 io_context,使其可以重新执行 run()。

async_read/write

        这两个也就是异步读写了,他们一般第一个传,socket,第二个数据缓冲区buffer。第三个传回调函数。

strand

        在并发过程中,一般有几种方案,我常用的两种是多个线程跑多个io_context。以及一个io_context被多个线程使用。我一般用第一种多一点,第二种也就是一个io_context的话,存在一个问题就是io_context被多个线程调用从而异步回调函数在多个线程被并发调用,共享资源竞争激烈。竞争吗,easy,那我用锁+条件变量就完事了对吧。但是strand更简单粗暴,他是无锁的。像我们设计无锁用条件变量,还要考虑先行关系吧,还有release,aquire吧,还要考虑数据结构吧。他是io_context的一个 执行器(executor),它通过任务队列的方式串行化任务执行,避免了多个线程同时访问共享资源。你仅仅只需要把传回调函数的场景,换成用它封装一下就好了。就像这样:

void write(std::size_t length) {auto self = shared_from_this();boost::asio::async_write(socket_,boost::asio::buffer(data_, length),boost::asio::bind_executor(strand_,  // 绑定到 strand[this, self](boost::system::error_code ec, std::size_t) {if (!ec) {std::cout << "Write complete" << std::endl;read();  // 继续读取}}));}

Endpoint

        这个就类似于socket里面的Socketaddr_in,用于绑定IP地址和端口。一般测试我就用boost::asio::ip::tcp::v4(),他是自动绑定到所有 IPv4 地址,一般是0.0.0.0。当然也可以手动设置boost::asio::ip::make_address("127.0.0.1").

acceptor

        他是监听并接受客户端连接 的类。它是 TCP 服务器的核心组件。负责:绑定到指定的 IP 地址和端口(由endpoint提供)。监听来自客户端的连接请求。接受连接并生成一个新的 socket。他接受两个参数。boost::asio::ip::tcp::acceptor acceptor(io_context, endpoint);他就相当于承担你监听lfd的功能了,在io_context执行run之后他也开始会监听了。其中的async_accept就相当于EPOLL_CTL_ADD,他的作用是等待一个新的客户端连接,一旦有新连接到达,将连接信息(如文件描述符、客户端 IP 和端口)写入socket,然后挂到io_context内部的epoll红黑树上去。close或销毁对应 EPOLL_CTL_DEL在创建的时候就相当于执行了以下代码:

    int server_fd = socket(AF_INET, SOCK_STREAM, 0);sockaddr_in server_addr{};server_addr.sin_family = AF_INET;server_addr.sin_port = htons(8080);server_addr.sin_addr.s_addr = INADDR_ANY;bind(server_fd, (sockaddr*)&server_addr, sizeof(server_addr));listen(server_fd, 10);

signal_set

        他是一个异步信号处理器,用于捕获操作系统信号,用来实现优雅退出的。在后面的代码中我们会看到他的用法。

Socket

      Socket是数据通信的核心,它表示一个具体的网络连接。每个 Socket对应一个客户端连接,负责与客户端之间的数据收发。当他被io_context创建时,他也和io_context绑定了。它包含客户端的 IP 地址、端口号,以及底层网络通信所需的所有信息。当有新的客户端连接时,acceptor会生成一个新的Socket,用于与客户端通信。所以他需要使用和acceptor同样的io_context上下文信息。Socket 包含哪些信息?

  1. 底层的文件描述符(fd

    • Socket的核心是一个文件描述符,表示操作系统分配给这个网络连接的资源。
  2. 连接的状态信息

    • 客户端的 IP 地址。
    • 客户端的端口号。
    • 本地绑定的 IP 地址和端口号。
  3. 用于通信的缓冲区

    • 内部有读写缓冲区,用于存储从网络接收到的数据或待发送的数据。
  4. 通信参数

    • 如超时设置、是否启用 Nagle 算法等。
  5. 与 Boost.Asio 的集成

    • 支持异步操作(如 async_readasync_write)。
    • 可以通过事件循环(io_context)管理其 I/O 操作。

代码详解

        

设计结构

        恋恋风辰大佬的设计结构如下图所示:

  多线程IOServicePoll

IOServicePool多线程模式特点

1   每一个io_context跑在不同的线程里,所以同一个socket会被注册在同一个io_context里,它的回调函数也会被单独的一个线程回调,那么对于同一个socket,他的回调函数每次触发都是在同一个线程里,就不会有线程安全问题,网络io层面上的并发是线程安全的。

2   但是对于不同的socket,回调函数的触发可能是同一个线程(两个socket被分配到同一个io_context),也可能不是同一个线程(两个socket被分配到不同的io_context里)。所以如果两个socket对应的上层逻辑处理,如果有交互或者访问共享区,会存在线程安全问题。比如socket1代表玩家1,socket2代表玩家2,玩家1和玩家2在逻辑层存在交互,比如两个玩家都在做工会任务,他们属于同一个工会,工会积分的增加就是共享区的数据,需要保证线程安全。可以通过加锁或者逻辑队列的方式解决安全问题,我们目前采取了后者。

3   多线程相比单线程,极大的提高了并发能力,因为单线程仅有一个io_context服务用来监听读写事件,就绪后回调函数在一个线程里串行调用, 如果一个回调函数的调用时间较长肯定会影响后续的函数调用,毕竟是穿行调用。而采用多线程方式,可以在一定程度上减少前一个逻辑调用影响下一个调用的情况,比如两个socket被部署到不同的iocontext上,但是当两个socket部署到同一个iocontext上时仍然存在调用时间影响的问题。不过我们已经通过逻辑队列的方式将网络线程和逻辑线程解耦合了,不会出现前一个调用时间影响下一个回调触发的问题。

        以上就是整个架构的大概的流程,其中将session与logic层分离,session层负责处理读写 IO、解析网络协议,并将收到的数据通过任务队列(线程安全)交给逻辑线程处理从任务队列中取出解析后的数据,执行业务逻辑处理(如数据库操作、计算、文件操作等)。将需要响应的结果再通过任务队列交给会话线程,由会话线程将数据发送给客户端。后面我们梳理完整体代码之后会再次作出总结。首先我们把需要使用的一些类介绍一下。

 Singleton(单例)

        

#pragma once
#include <memory>
#include <mutex>
#include <iostream>
using namespace std;
template <typename T>
class Singleton {
protected:Singleton() = default;Singleton(const Singleton<T>&) = delete;Singleton& operator=(const Singleton<T>& st) = delete;static std::shared_ptr<T> _instance;
public:static std::shared_ptr<T> GetInstance() {static std::once_flag s_flag;std::call_once(s_flag, [&]() {_instance = shared_ptr<T>(new T);});return _instance;}void PrintAddress() {std::cout << _instance.get() << endl;}~Singleton() {std::cout << "this is singleton destruct" << std::endl;}
};template <typename T>
std::shared_ptr<T> Singleton<T>::_instance = nullptr;

        这个其实在之前的博客中有介绍,需要实现单例的类直接继承这个就好了。有兴趣的读者可以移步以下链接:单例及线程池的实现及感悟分享-CSDN博客

MsgNode

#pragma once
#include <string>
#include "const.h"
#include <iostream>
#include <boost/asio.hpp>
using namespace std;
using boost::asio::ip::tcp;
class LogicSystem;
class MsgNode
{
public:MsgNode(short max_len) :_total_len(max_len), _cur_len(0) {_data = new char[_total_len + 1]();_data[_total_len] = '\0';}~MsgNode() {std::cout << "destruct MsgNode" << endl;delete[] _data;}void Clear() {::memset(_data, 0, _total_len);_cur_len = 0;}short _cur_len;short _total_len;char* _data;
};class RecvNode :public MsgNode {friend class LogicSystem;
public:RecvNode(short max_len, short msg_id);
private:short _msg_id;
};class SendNode:public MsgNode {friend class LogicSystem;
public:SendNode(const char* msg,short max_len, short msg_id);
private:short _msg_id;
};RecvNode::RecvNode(short max_len, short msg_id):MsgNode(max_len),
_msg_id(msg_id){}SendNode::SendNode(const char* msg, short max_len, short msg_id):MsgNode(max_len + HEAD_TOTAL_LEN)
, _msg_id(msg_id){//先发送id, 转为网络字节序short msg_id_host = boost::asio::detail::socket_ops::host_to_network_short(msg_id);memcpy(_data, &msg_id_host, HEAD_ID_LEN);//转为网络字节序short max_len_host = boost::asio::detail::socket_ops::host_to_network_short(max_len);memcpy(_data + HEAD_ID_LEN, &max_len_host, HEAD_DATA_LEN);memcpy(_data + HEAD_ID_LEN + HEAD_DATA_LEN, msg, max_len);
}

        MSG也就是消息的载体,为了方便切包粘包必须有cur_len和max_len.后面的RecvNode和SendNode其实是为了逻辑层设计的,如果不用逻辑层,session处理数据逻辑,写个demo的话,这个可以不写。RecvNode 主要用于存储接收到的数据,Session处理之后把自己和数据丢给逻辑层,SendNode就是处理过的数据,丢给session让他去发。SendNode记得要转换大端序和小端序,网络中是大端序,计算机本地一般用小端序。大端序也就像我们写数字一样,大的在前面,小端序则相反,最低位在前。

Const

#pragma once
#define MAX_LENGTH  1024*2
//头部总长度
#define HEAD_TOTAL_LEN 4
//头部id长度
#define HEAD_ID_LEN 2
//头部数据长度
#define HEAD_DATA_LEN 2
#define MAX_RECVQUE  10000
#define MAX_SENDQUE 1000enum MSG_IDS {MSG_HELLO_WORD = 1001
};

                这里没什么好说的,就是定义了一些长度相关的信息。我们发现上面其实用的是宏定义,下面是enum。我看effective C++是这么解释的,条款2尽量以const,enum,inline替代#define。这是因为在编译的时候会直接替代成对应的定义,他不会被编译器看见。一旦出现报错,那么错误可能指向定义比如1.6。由于使用了宏,代码中可能出现多个1.6的副本无法定位问题所在。枚举可以完美替代宏。但是这里上面依然使用了宏定义,我认为应该是宏适用于简单的数值常量(如缓冲区大小、头部长度等),这类值通常只表示尺寸或范围,不需要逻辑关联或类型检查。枚举适用于有逻辑关联的一组常量(如消息 ID),这类值需要与程序逻辑配合,并具备扩展性和类型安全性。

AsioIOServicePool

#pragma once
#include <vector>
#include <boost/asio.hpp>
#include "Singleton.h"
class AsioIOServicePool:public Singleton<AsioIOServicePool>
{friend Singleton<AsioIOServicePool>;
public:using IOService = boost::asio::io_context;using Work = boost::asio::io_context::work;using WorkPtr = std::unique_ptr<Work>;~AsioIOServicePool();AsioIOServicePool(const AsioIOServicePool&) = delete;AsioIOServicePool& operator=(const AsioIOServicePool&) = delete;// 使用 round-robin 的方式返回一个 io_serviceboost::asio::io_context& GetIOService();void Stop();
private:AsioIOServicePool(std::size_t size = std::thread::hardware_concurrency());std::vector<IOService> _ioServices;std::vector<WorkPtr> _works;std::vector<std::thread> _threads;std::size_t _nextIOService;
};#include <iostream>
using namespace std;
AsioIOServicePool::AsioIOServicePool(std::size_t size):_ioServices(size),
_works(size), _nextIOService(0){for (std::size_t i = 0; i < size; ++i) {_works[i] = std::unique_ptr<Work>(new Work(_ioServices[i]));}//遍历多个ioservice,创建多个线程,每个线程内部启动ioservicefor (std::size_t i = 0; i < _ioServices.size(); ++i) {_threads.emplace_back([this, i]() {_ioServices[i].run();});}
}AsioIOServicePool::~AsioIOServicePool() {std::cout << "AsioIOServicePool destruct" << endl;
}boost::asio::io_context& AsioIOServicePool::GetIOService() {auto& service = _ioServices[_nextIOService++];if (_nextIOService == _ioServices.size()) {_nextIOService = 0;}return service;
}void AsioIOServicePool::Stop(){//因为仅仅执行work.reset并不能让iocontext从run的状态中退出//当iocontext已经绑定了读或写的监听事件后,还需要手动stop该服务。for (auto& work : _works) {//把服务先停止work->get_io_context().stop();work.reset();}for (auto& t : _threads) {t.join();}
}

        在这个并发场景下,我们是多个线程中跑多个io_context,所以需要一个io池来创建和管理io_context。之前的场景中我们是在Accept回调里面结束再挂一个Accept上去,如果触发又触发回调又挂上去,所以io_context.run()会阻塞,但是实际上如果不这么设计的话,io_context就会停止工作,导致所有正在进行的异步操作都被取消。这时,我们需要使用work对象来防止io_context停止工作。

        work作用是持有一个指向io_context的引用,并通过创建一个“工作”项来保证io_context不会停止工作,直到work对象被销毁或者调用reset()方法为止。当所有异步操作完成后,程序可以使用work.reset()方法来释放io_context,从而让其正常退出。需要说明的是这unique_ptr的操作,所以需要用unique_ptr去包装.一般就是析构的时候先用get_io_context().stop()先让他停了再reset()。

       _nextIOService是一个轮询索引,用最简单的轮询算法为每个新创建的连接分配io_context.

        初始化,也就是io_context的创建过程。他先按根据CPU核心数来分配线程数,在单例那节我们说过,这样做能减少线程竞争导致的时间片损耗,进程也可以按这个来分。然后线程存进去的推荐使用emplace_back,一个是减少拷贝的开销,如果是push_back如果设计不当容器造成两个线程,一个线程被放进去了,一个就没人管理了,也回收不了。

        GetIOService()就是去取io_context,如果取满了就从0开始。

Main

        

#include <iostream>
#include "CServer.h"
#include "Singleton.h"
#include "LogicSystem.h"
#include <csignal>
#include <thread>
#include <mutex>
#include "AsioIOServicePool.h"
using namespace std;
bool bstop = false;
std::condition_variable cond_quit;
std::mutex mutex_quit;int main()
{try {auto pool = AsioIOServicePool::GetInstance();boost::asio::io_context  io_context;boost::asio::signal_set signals(io_context, SIGINT, SIGTERM);signals.async_wait([&io_context,pool](auto, auto) {io_context.stop();pool->Stop();});CServer s(io_context, 10086);io_context.run();}catch (std::exception& e) {std::cerr << "Exception: " << e.what() << endl;}}

        这里实现的是优雅退出。那两个wait是因为async_wait要求必须写两个参数,一个是EC,异步,一个是signal_num,捕获的是什么什么信号。为什么pool那里不用&而是用值捕获走拷贝?因为pool是一个shared_ptr,可以传递,内部引用计数会加1,shared_ptr只会在被普通指针创建的时候,引用计数不会增加,且普通指针的生命周期管理不受shared_ptr控制,这也是我们说的不用智能指针和普通指针混用,容易出问题。这里将io_context传递给了Server,用于监听新连接fd.

CServer

#pragma once
#include <boost/asio.hpp>
#include "CSession.h"
#include <memory.h>
#include <map>
#include <mutex>
using namespace std;
using boost::asio::ip::tcp;
class CServer
{
public:CServer(boost::asio::io_context& io_context, short port);~CServer();void ClearSession(std::string);
private:void HandleAccept(shared_ptr<CSession>, const boost::system::error_code & error);void StartAccept();boost::asio::io_context &_io_context;short _port;tcp::acceptor _acceptor;std::map<std::string, shared_ptr<CSession>> _sessions;std::mutex _mutex;
};#include "CServer.h"
#include <iostream>
#include "AsioIOServicePool.h"
CServer::CServer(boost::asio::io_context& io_context, short port):_io_context(io_context), _port(port),
_acceptor(io_context, tcp::endpoint(tcp::v4(),port))
{cout << "Server start success, listen on port : " << _port << endl;StartAccept();
}CServer::~CServer() {cout << "Server destruct listen on port : " << _port << endl;
}void CServer::HandleAccept(shared_ptr<CSession> new_session, const boost::system::error_code& error){if (!error) {new_session->Start();lock_guard<mutex> lock(_mutex);_sessions.insert(make_pair(new_session->GetUuid(), new_session));}else {cout << "session accept failed, error is " << error.what() << endl;}StartAccept();
}void CServer::StartAccept() {auto &io_context = AsioIOServicePool::GetInstance()->GetIOService();shared_ptr<CSession> new_session = make_shared<CSession>(io_context, this);_acceptor.async_accept(new_session->GetSocket(), std::bind(&CServer::HandleAccept, this, new_session, placeholders::_1));
}void CServer::ClearSession(std::string uuid) {lock_guard<mutex> lock(_mutex);_sessions.erase(uuid);
}

        server类为服务器接收连接的管理类。他先创建了一个Acceptor_,然后调用了StartAccept()。也就是启动了Accept,也就是我上文说的挂了一个Accept上去,结束的时候又挂一个Accept上去。单线程的话是传递同一io_context,但是这个多线程就是从Pool取io_context.放进去,从而并发。这是什么意思呢?以前单线程的时候,就相当于是监听新的连接然后挂到自己身上,现在是挂到池子里的io_context里面的红黑树上。

        还有一个问题,他在创建Session的时候,把this指针传过去了,以及在创建session的时候,是通过bind绑定的。说后面这个问题,这是因为async_accept只接受一个ec参数,那不接受另外的参数我们就只能bind了。把指针传递过去,是因为server还管理着session节点,每创建一个session,就会把他投递进去,错误/析构的时候会clear.所以会传进去。

伪闭包

        在看session代码之前,我们要知道官方给的案例有什么隐患。当服务器即将发送数据前(调用async_write前),此刻客户端中断,服务器此时调用async_write会触发发送回调函数,判断ec为非0进而执行delete this逻辑回收session。但要注意的是客户端关闭后,在tcp层面会触发读就绪事件(四次挥手,客户端发的FIN包),服务器会触发读事件回调函数。在读事件回调函数中判断错误码ec为非0,进而再次执行delete操作,从而造成二次析构,这是极度危险的。

        我们知道GO有一个闭包,闭包(Closure) 是指 一个函数可以捕获并引用其外部作用域中的变量,即使该变量的生命周期已经超过了其原本的作用域核心机制是延长外部变量的生命周期,使其与闭包的生命周期一致。也就是在异步操作中,通过智能指针增加引用计数,使得对象不会在异步回调执行前被销毁,从而避免悬挂指针和二次析构问题。本来我们是通过map管理的session节点,但是他被移除了之后不会立马释放,而是在处理完回调之后再回收内存。但是C++本身并不支持闭包操作,所以我们就要通过设计来实现一个伪闭包的效果。也就是只要我函数还在用这个变量他就不会被释放,智能指针的shared_ptr非常适合实现伪闭包。

        也就是说,无论是回调读还是写,我们都把自身节点传递给对方,我也不需要这个指针做什么,只要我还有一个函数没有处理完,那么shared_ptr的引用计数最多就是加减,全部处理完才会结束析构。但是传递自身需要传递自身需要继承std::enable_shared_from_this<CSession>,别傻傻的去传this指针,this指针又不是智能指针,不会增加引用计数的,而且也别混用普通指针和智能指针。最方便的还是直接继承然后用shared_from_this()就好了。

Session/read

          

#pragma once
#include <boost/asio.hpp>
#include <boost/uuid/uuid_io.hpp>
#include <boost/uuid/uuid_generators.hpp>
#include <queue>
#include <mutex>
#include <memory>
#include "const.h"
#include "MsgNode.h"
using namespace std;using boost::asio::ip::tcp;
class CServer;
class LogicSystem;class CSession: public std::enable_shared_from_this<CSession>
{
public:CSession(boost::asio::io_context& io_context, CServer* server);~CSession();tcp::socket& GetSocket();std::string& GetUuid();void Start();void Send(char* msg,  short max_length, short msgid);void Send(std::string msg, short msgid);void Close();std::shared_ptr<CSession> SharedSelf();
private:void HandleRead(const boost::system::error_code& error, size_t  bytes_transferred, std::shared_ptr<CSession> shared_self);void HandleWrite(const boost::system::error_code& error, std::shared_ptr<CSession> shared_self);tcp::socket _socket;std::string _uuid;char _data[MAX_LENGTH];CServer* _server;bool _b_close;std::queue<shared_ptr<SendNode> > _send_que;std::mutex _send_lock;//收到的消息结构std::shared_ptr<RecvNode> _recv_msg_node;bool _b_head_parse;//收到的头部结构std::shared_ptr<MsgNode> _recv_head_node;
};class LogicNode {friend class LogicSystem;
public:LogicNode(shared_ptr<CSession>, shared_ptr<RecvNode>);
private:shared_ptr<CSession> _session;shared_ptr<RecvNode> _recvnode;
};
#include "CSession.h"
#include "CServer.h"
#include <iostream>
#include <sstream>
#include <json/json.h>
#include <json/value.h>
#include <json/reader.h>
#include "LogicSystem.h"CSession::CSession(boost::asio::io_context& io_context, CServer* server):_socket(io_context), _server(server), _b_close(false),_b_head_parse(false){boost::uuids::uuid  a_uuid = boost::uuids::random_generator()();_uuid = boost::uuids::to_string(a_uuid);_recv_head_node = make_shared<MsgNode>(HEAD_TOTAL_LEN);
}
CSession::~CSession() {std::cout << "~CSession destruct" << endl;
}tcp::socket& CSession::GetSocket() {return _socket;
}std::string& CSession::GetUuid() {return _uuid;
}void CSession::Start(){::memset(_data, 0, MAX_LENGTH);_socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH), std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, SharedSelf()));
}void CSession::Send(std::string msg, short msgid) {std::lock_guard<std::mutex> lock(_send_lock);int send_que_size = _send_que.size();if (send_que_size > MAX_SENDQUE) {std::cout << "session: " << _uuid << " send que fulled, size is " << MAX_SENDQUE << endl;return;}_send_que.push(make_shared<SendNode>(msg.c_str(), msg.length(), msgid));if (send_que_size > 0) {return;}auto& msgnode = _send_que.front();boost::asio::async_write(_socket, boost::asio::buffer(msgnode->_data, msgnode->_total_len),std::bind(&CSession::HandleWrite, this, std::placeholders::_1, SharedSelf()));
}void CSession::Send(char* msg, short max_length, short msgid) {std::lock_guard<std::mutex> lock(_send_lock);int send_que_size = _send_que.size();if (send_que_size > MAX_SENDQUE) {std::cout << "session: " << _uuid << " send que fulled, size is " << MAX_SENDQUE << endl;return;}_send_que.push(make_shared<SendNode>(msg, max_length, msgid));if (send_que_size>0) {return;}auto& msgnode = _send_que.front();boost::asio::async_write(_socket, boost::asio::buffer(msgnode->_data, msgnode->_total_len), std::bind(&CSession::HandleWrite, this, std::placeholders::_1, SharedSelf()));
}void CSession::Close() {_socket.close();_b_close = true;
}std::shared_ptr<CSession>CSession::SharedSelf() {return shared_from_this();
}void CSession::HandleWrite(const boost::system::error_code& error, std::shared_ptr<CSession> shared_self) {//增加异常处理try {if (!error) {std::lock_guard<std::mutex> lock(_send_lock);//cout << "send data " << _send_que.front()->_data+HEAD_LENGTH << endl;_send_que.pop();if (!_send_que.empty()) {auto& msgnode = _send_que.front();boost::asio::async_write(_socket, boost::asio::buffer(msgnode->_data, msgnode->_total_len),std::bind(&CSession::HandleWrite, this, std::placeholders::_1, shared_self));}}else {std::cout << "handle write failed, error is " << error.what() << endl;Close();_server->ClearSession(_uuid);}}catch (std::exception& e) {std::cerr << "Exception code : " << e.what() << endl;}}void CSession::HandleRead(const boost::system::error_code& error, size_t  bytes_transferred, std::shared_ptr<CSession> shared_self){try {if (!error) {//已经移动的字符数int copy_len = 0;while (bytes_transferred > 0) {if (!_b_head_parse) {//收到的数据不足头部大小if (bytes_transferred + _recv_head_node->_cur_len < HEAD_TOTAL_LEN) {memcpy(_recv_head_node->_data + _recv_head_node->_cur_len, _data + copy_len, bytes_transferred);_recv_head_node->_cur_len += bytes_transferred;::memset(_data, 0, MAX_LENGTH);_socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));return;}//收到的数据比头部多//头部剩余未复制的长度int head_remain = HEAD_TOTAL_LEN - _recv_head_node->_cur_len;memcpy(_recv_head_node->_data + _recv_head_node->_cur_len, _data + copy_len, head_remain);//更新已处理的data长度和剩余未处理的长度copy_len += head_remain;bytes_transferred -= head_remain;//获取头部MSGID数据short msg_id = 0;memcpy(&msg_id, _recv_head_node->_data, HEAD_ID_LEN);//网络字节序转化为本地字节序msg_id = boost::asio::detail::socket_ops::network_to_host_short(msg_id);std::cout << "msg_id is " << msg_id << endl;//id非法if (msg_id > MAX_LENGTH) {std::cout << "invalid msg_id is " << msg_id << endl;_server->ClearSession(_uuid);return;}short msg_len = 0;memcpy(&msg_len, _recv_head_node->_data+HEAD_ID_LEN, HEAD_DATA_LEN);//网络字节序转化为本地字节序msg_len = boost::asio::detail::socket_ops::network_to_host_short(msg_len);std::cout << "msg_len is " << msg_len << endl;//id非法if (msg_len > MAX_LENGTH) {std::cout << "invalid data length is " << msg_len << endl;_server->ClearSession(_uuid);return;}_recv_msg_node = make_shared<RecvNode>(msg_len, msg_id);//消息的长度小于头部规定的长度,说明数据未收全,则先将部分消息放到接收节点里if (bytes_transferred < msg_len) {memcpy(_recv_msg_node->_data + _recv_msg_node->_cur_len, _data + copy_len, bytes_transferred);_recv_msg_node->_cur_len += bytes_transferred;::memset(_data, 0, MAX_LENGTH);_socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));//头部处理完成_b_head_parse = true;return;}memcpy(_recv_msg_node->_data + _recv_msg_node->_cur_len, _data + copy_len, msg_len);_recv_msg_node->_cur_len += msg_len;copy_len += msg_len;bytes_transferred -= msg_len;_recv_msg_node->_data[_recv_msg_node->_total_len] = '\0';//cout << "receive data is " << _recv_msg_node->_data << endl;//此处将消息投递到逻辑队列中LogicSystem::GetInstance()->PostMsgToQue(make_shared<LogicNode>(shared_from_this(), _recv_msg_node));//继续轮询剩余未处理数据_b_head_parse = false;_recv_head_node->Clear();if (bytes_transferred <= 0) {::memset(_data, 0, MAX_LENGTH);_socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));return;}continue;}//已经处理完头部,处理上次未接受完的消息数据//接收的数据仍不足剩余未处理的int remain_msg = _recv_msg_node->_total_len - _recv_msg_node->_cur_len;if (bytes_transferred < remain_msg) {memcpy(_recv_msg_node->_data + _recv_msg_node->_cur_len, _data + copy_len, bytes_transferred);_recv_msg_node->_cur_len += bytes_transferred;::memset(_data, 0, MAX_LENGTH);_socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));return;}memcpy(_recv_msg_node->_data + _recv_msg_node->_cur_len, _data + copy_len, remain_msg);_recv_msg_node->_cur_len += remain_msg;bytes_transferred -= remain_msg;copy_len += remain_msg;_recv_msg_node->_data[_recv_msg_node->_total_len] = '\0';//cout << "receive data is " << _recv_msg_node->_data << endl;//此处将消息投递到逻辑队列中LogicSystem::GetInstance()->PostMsgToQue(make_shared<LogicNode>(shared_from_this(), _recv_msg_node));//继续轮询剩余未处理数据_b_head_parse = false;_recv_head_node->Clear();if (bytes_transferred <= 0) {::memset(_data, 0, MAX_LENGTH);_socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));return;}continue;}}else {std::cout << "handle read failed, error is " << error.what() << endl;Close();_server->ClearSession(_uuid);}}catch (std::exception& e) {std::cout << "Exception code is " << e.what() << endl;}
}LogicNode::LogicNode(shared_ptr<CSession>  session, shared_ptr<RecvNode> recvnode):_session(session),_recvnode(recvnode) {}

         Session也就是会话层的主要功能是处理IO。这个比较长,我们分开梳理。

       构造函数 

        

CSession::CSession(boost::asio::io_context& io_context, CServer* server):_socket(io_context), _server(server), _b_close(false),_b_head_parse(false){boost::uuids::uuid  a_uuid = boost::uuids::random_generator()();_uuid = boost::uuids::to_string(a_uuid);_recv_head_node = make_shared<MsgNode>(HEAD_TOTAL_LEN);
}

        我们可以看到他主要就是用io_context生成了socket,同时也把socket和io_context绑定了,详情可以看前面写的socket.然后用雪花算法生成一个uuid,在server层会把他取出来,放进map里面管理。

        最后,把接收头消息node给初始化了。一般情况下,我们为了粘包问题,以及数据完整性,投递任务队列等问题。会把数据分为3部分,第一部分消息id,也就是逻辑层先注册函数,然后放进map,消息id也就对应着处理的函数,第二个是长度,看看有没有收发完整,第三个就是负载数据了。为什么只初始化头部的node?这是因为一般来说消息是分开收的,先收头部,根据头部解析出后面的消息后再收后面的消息。

start

        

void CSession::Start(){::memset(_data, 0, MAX_LENGTH);_socket.async_read_some(boost::asio::buffer
(_data, MAX_LENGTH), std::bind(&CSession::HandleRead, this, std::placeholders::_1,std::placeholders::_2, SharedSelf()));
}

        在server接到新连接之后会把socket挂到树上然后触发回调,在回调中就调用了Start函数。我们来看一下他干了什么,首先刚触发,肯定需要把缓冲区_data清空一下,然后调用socket的async_read_some,asio接受的缓冲区都是buffer,它包含缓冲区首地址和长度两个信息,后面的Bind就是老方子,伪闭包。这里需要说明一下读写有async_read_some,async_read,async_write,async_write_some四种api.它们的区别主要体现在 行为模式数据量控制 上.

        async_read_some是尽可能多读,它是一个“非阻塞”读取操作,会立即返回并等待数据到达。不会等到缓冲区完全填满,只要有数据到达,就会尽量多地读取并触发回调,适合需要尽快处理部分数据的场景,例如流式传输。我们也能看到这种很像水平触发不是边缘触发。

        async_read,功能是,尝试完全读取指定长度的数据,只有在数据完全到达时才会调用回调函数。如果指定的数据尚未全部到达,操作会挂起,直到完成或发生错误。

特点:更高级别,提供“完整性保证”,确保读取到指定长度的数据。

        写也是如此,尽量多写和全部发送。一般来说多线程读用async_read_some,因为可以切包,保证数据的完整。并且由于是非阻塞,他的性能更高。发送书一般用async_write发送完整数据。

HandleRead

        由于这个函数太大,他主要是切包,直接放不好看,分几部分梳理。

头部处理1
if (!error) {int copy_len = 0;while (bytes_transferred > 0) {if (!_b_head_parse) {//收到的数据不足头部大小if (bytes_transferred + _recv_head_node->_cur_len < HEAD_TOTAL_LEN) {memcpy(_recv_head_node->_data + _recv_head_node->_cur_len, _data + copy_len, bytes_transferred);_recv_head_node->_cur_len += bytes_transferred;::memset(_data, 0, MAX_LENGTH);_socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));return;}//收到的数据比头部多//头部剩余未复制的长度int head_remain = HEAD_TOTAL_LEN - _recv_head_node->_cur_len;memcpy(_recv_head_node->_data + _recv_head_node->_cur_len, _data + copy_len, head_remain);//更新已处理的data长度和剩余未处理的长度copy_len += head_remain;bytes_transferred -= head_remain;//获取头部MSGID数据short msg_id = 0;memcpy(&msg_id, _recv_head_node->_data, HEAD_ID_LEN);//网络字节序转化为本地字节序msg_id = boost::asio::detail::socket_ops::network_to_host_short(msg_id);std::cout << "msg_id is " << msg_id << endl;

        这框有点小,async_read_some一般会传递给回调函数ec以及数据长度bytetransfer,那么我们就需要自定义一个int copy_len 代表已经处理了的数据长度。因为是局部变量,每次回调他都会初始化为0.接下来就是切包了,当数据长度大于0,_b_head_parse代表头部是否处理了,初始化的时候设定为false.这里分两种情况,一种数据总大小小于头部大小,这时候就直接收完,然后把数据节点的cur_len设置一下返回就行了,然后再挂一个读。基本都是这么设计,读完继续挂回调读,写完继续挂回调监听写,接受新连接继续完了继续挂async_accept。别忘了读清空_data.

        如果比头部大,就先接完头部的消息,然后获取msg_id,别忘了把msg_id从大端序转成小端序。

头部处理2
//id非法if (msg_id > MAX_LENGTH) {std::cout << "invalid msg_id is " << msg_id << endl;_server->ClearSession(_uuid);return;}short msg_len = 0;memcpy(&msg_len, _recv_head_node->_data+HEAD_ID_LEN, HEAD_DATA_LEN);//网络字节序转化为本地字节序msg_len = boost::asio::detail::socket_ops::network_to_host_short(msg_len);std::cout << "msg_len is " << msg_len << endl;//id非法if (msg_len > MAX_LENGTH) {std::cout << "invalid data length is " << msg_len << endl;_server->ClearSession(_uuid);return;}_recv_msg_node = make_shared<RecvNode>(msg_len, msg_id);//消息的长度小于头部规定的长度,说明数据未收全,则先将部分消息放到接收节点里if (bytes_transferred < msg_len) {memcpy(_recv_msg_node->_data + _recv_msg_node->_cur_len, _data + copy_len, bytes_transferred);_recv_msg_node->_cur_len += bytes_transferred;::memset(_data, 0, MAX_LENGTH);_socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));//头部处理完成_b_head_parse = true;return;}

        后面是长度去出来,如果ID或者长度非法则把本节点从_server里面移除,不要这个连接了。我们来看一下移除了之后会发生什么,首先先关闭连接然后调用了server_把他从map里面移除了,这时候不会立马析构回收,由于我们有伪闭包,他会把回调处理完之后return出了作用域之后再触发析构。接下来有两种选择。

        1.接受消息长度小于头部消息里的小心长度,那么就把他放到_recv_msg_node,设置_b_head_parse为true返回即可挂一个读上去,下次就不用走头部处理了。

close函数如下:

void CSession::Close() {_socket.close();_b_close = true;
}
主要数据处理
				int remain_msg = _recv_msg_node->_total_len - _recv_msg_node->_cur_len;if (bytes_transferred < remain_msg) {memcpy(_recv_msg_node->_data + _recv_msg_node->_cur_len, _data + copy_len, bytes_transferred);_recv_msg_node->_cur_len += bytes_transferred;::memset(_data, 0, MAX_LENGTH);_socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));return;}memcpy(_recv_msg_node->_data + _recv_msg_node->_cur_len, _data + copy_len, remain_msg);_recv_msg_node->_cur_len += remain_msg;bytes_transferred -= remain_msg;copy_len += remain_msg;_recv_msg_node->_data[_recv_msg_node->_total_len] = '\0';//cout << "receive data is " << _recv_msg_node->_data << endl;//此处将消息投递到逻辑队列中LogicSystem::GetInstance()->PostMsgToQue(make_shared<LogicNode>(shared_from_this(), _recv_msg_node));//继续轮询剩余未处理数据_b_head_parse = false;_recv_head_node->Clear();if (bytes_transferred <= 0) {::memset(_data, 0, MAX_LENGTH);_socket.async_read_some(boost::asio::buffer(_data, MAX_LENGTH),std::bind(&CSession::HandleRead, this, std::placeholders::_1, std::placeholders::_2, shared_self));return;}continue;}

他这个也有两种情况,一种是还是不够,那么老操作之后返回就完事了。还有一种就是够了,我们封装完最后一个字节为'\0'.然后通过逻辑系统把他投递到逻辑队列里就行了。后面我们看到逻辑层的时候我们再细说。往后就是设置    _b_head_parse = false;_recv_head_node->Clear();如果收完了就老操作,没收完就continue下一次轮回。

        后面的函数我们也不讲了,先将逻辑层,这样连贯一点。

LogicSystem/Node

#pragma once
#include "Singleton.h"
#include <queue>
#include <thread>
#include "CSession.h"
#include <queue>
#include <map>
#include <functional>
#include "const.h"
#include <json/json.h>
#include <json/value.h>
#include <json/reader.h>typedef  function<void(shared_ptr<CSession>, const short &msg_id, const string &msg_data)> FunCallBack;
class LogicSystem:public Singleton<LogicSystem>
{friend class Singleton<LogicSystem>;
public:~LogicSystem();void PostMsgToQue(shared_ptr < LogicNode> msg);
private:LogicSystem();void DealMsg();void RegisterCallBacks();void HelloWordCallBack(shared_ptr<CSession>, const short &msg_id, const string &msg_data);std::thread _worker_thread;std::queue<shared_ptr<LogicNode>> _msg_que;std::mutex _mutex;std::condition_variable _consume;bool _b_stop;std::map<short, FunCallBack> _fun_callbacks;
};
#include "LogicSystem.h"using namespace std;LogicSystem::LogicSystem():_b_stop(false){RegisterCallBacks();_worker_thread = std::thread (&LogicSystem::DealMsg, this);
}LogicSystem::~LogicSystem(){_b_stop = true;_consume.notify_one();_worker_thread.join();
}void LogicSystem::PostMsgToQue(shared_ptr < LogicNode> msg) {std::unique_lock<std::mutex> unique_lk(_mutex);_msg_que.push(msg);//由0变为1则发送通知信号if (_msg_que.size() == 1) {unique_lk.unlock();_consume.notify_one();}
}void LogicSystem::DealMsg() {for (;;) {std::unique_lock<std::mutex> unique_lk(_mutex);//判断队列为空则用条件变量阻塞等待,并释放锁while (_msg_que.empty() && !_b_stop) {_consume.wait(unique_lk);}//判断是否为关闭状态,把所有逻辑执行完后则退出循环if (_b_stop ) {while (!_msg_que.empty()) {auto msg_node = _msg_que.front();cout << "recv_msg id  is " << msg_node->_recvnode->_msg_id << endl;auto call_back_iter = _fun_callbacks.find(msg_node->_recvnode->_msg_id);if (call_back_iter == _fun_callbacks.end()) {_msg_que.pop();continue;}call_back_iter->second(msg_node->_session, msg_node->_recvnode->_msg_id,std::string(msg_node->_recvnode->_data, msg_node->_recvnode->_cur_len));_msg_que.pop();}break;}//如果没有停服,且说明队列中有数据auto msg_node = _msg_que.front();cout << "recv_msg id  is " << msg_node->_recvnode->_msg_id << endl;auto call_back_iter = _fun_callbacks.find(msg_node->_recvnode->_msg_id);if (call_back_iter == _fun_callbacks.end()) {_msg_que.pop();continue;}call_back_iter->second(msg_node->_session, msg_node->_recvnode->_msg_id, std::string(msg_node->_recvnode->_data, msg_node->_recvnode->_cur_len));_msg_que.pop();}
}void LogicSystem::RegisterCallBacks() {_fun_callbacks[MSG_HELLO_WORD] = std::bind(&LogicSystem::HelloWordCallBack, this,placeholders::_1, placeholders::_2, placeholders::_3);
}void LogicSystem::HelloWordCallBack(shared_ptr<CSession> session, const short &msg_id, const string &msg_data) {Json::Reader reader;Json::Value root;reader.parse(msg_data, root);std::cout << "recevie msg id  is " << root["id"].asInt() << " msg data is "<< root["data"].asString() << endl;root["data"] = "server has received msg, msg data is " + root["data"].asString();std::string return_str = root.toStyledString();session->Send(return_str, root["id"].asInt());
}

我们先来看看构造函数

构造函数

LogicSystem::LogicSystem():_b_stop(false){RegisterCallBacks();_worker_thread = std::thread (&LogicSystem::DealMsg, this);
}

他首先会调用注册函数,也就是我们前面说的,根据要处理的消息id来调用对应的函数。这个应该算csp模式吧,所有任务共用一个缓冲区。然后单独开一个线程,去处理数据。

RegisterCallBacks

       

typedef  function<void(shared_ptr<CSession>
, const short &msg_id, const string &msg_data)> FunCallBack;std::map<short, FunCallBack> _fun_callbacks;void LogicSystem::RegisterCallBacks() {_fun_callbacks[MSG_HELLO_WORD] = std::bind(&LogicSystem::HelloWordCallBack, this,placeholders::_1, placeholders::_2, placeholders::_3);
}

为了方便观看,把前面两个参数也写了一下,之前线程池commit是用完美转发+task_package+future来实现不同函数的多线程并发。但是设置回调函数不用这么麻烦,直接用std::function就行了,同样他也是接收三个参数无返回值,不对那个commit是用lambda封装过的,不用参数。这个自己逻辑系统内回调可以不用那么写。这就相当于注册回调函数了。

HelloWorldCallback

void LogicSystem::HelloWordCallBack(shared_ptr<CSession> session, const short &msg_id, const string &msg_data) {Json::Reader reader;Json::Value root;reader.parse(msg_data, root);std::cout << "recevie msg id  is " << root["id"].asInt() << " msg data is "<< root["data"].asString() << endl;root["data"] = "server has received msg, msg data is " + root["data"].asString();std::string return_str = root.toStyledString();session->Send(return_str, root["id"].asInt());
}

这里面就是具体的处理逻辑。我们先介绍一下大概的函数然后连起来梳理一下这个过程。

DealMsg

void LogicSystem::DealMsg() {for (;;) {std::unique_lock<std::mutex> unique_lk(_mutex);//判断队列为空则用条件变量阻塞等待,并释放锁while (_msg_que.empty() && !_b_stop) {_consume.wait(unique_lk);}//判断是否为关闭状态,把所有逻辑执行完后则退出循环if (_b_stop ) {while (!_msg_que.empty()) {auto msg_node = _msg_que.front();cout << "recv_msg id  is " << msg_node->_recvnode->_msg_id << endl;auto call_back_iter = _fun_callbacks.find(msg_node->_recvnode->_msg_id);if (call_back_iter == _fun_callbacks.end()) {_msg_que.pop();continue;}call_back_iter->second(msg_node->_session, msg_node->_recvnode->_msg_id,std::string(msg_node->_recvnode->_data, msg_node->_recvnode->_cur_len));_msg_que.pop();}break;}//如果没有停服,且说明队列中有数据auto msg_node = _msg_que.front();cout << "recv_msg id  is " << msg_node->_recvnode->_msg_id << endl;auto call_back_iter = _fun_callbacks.find(msg_node->_recvnode->_msg_id);if (call_back_iter == _fun_callbacks.end()) {_msg_que.pop();continue;}call_back_iter->second(msg_node->_session, msg_node->_recvnode->_msg_id, std::string(msg_node->_recvnode->_data, msg_node->_recvnode->_cur_len));_msg_que.pop();}
}

这个就是一直处理任务的函数,他有两种情况,一种是要关了,俺么他就会把所有的任务处理完然后break.没有就一直处理。没有数据就挂起等待。首先他会从消息队列里面拿一个logicnode

我们先看一下Logicnode的结构

class LogicNode {friend class LogicSystem;
public:LogicNode(shared_ptr<CSession>, shared_ptr<RecvNode>);
private:shared_ptr<CSession> _session;shared_ptr<RecvNode> _recvnode;
};

它里面包含一个_session一个消息,RecvNode包含数据长度 id 以及_data数据。拿到id之后就通过注册函数调用,再把msg_node(logicnode)弹出就好了。

数据经过逻辑层到IO的过程

        之前我们看到了,数据被投递到了msg队列中。然后由dealmsg处理,处理的时候会使用传递对应session与数据给对应的注册函数,注册函数处理完数据之后。就会调用对应session的send

Session/write

        这里主要讲的是session的发送io

send

void CSession::Send(std::string msg, short msgid) {std::lock_guard<std::mutex> lock(_send_lock);int send_que_size = _send_que.size();if (send_que_size > MAX_SENDQUE) {std::cout << "session: " << _uuid << " send que fulled, size is " << MAX_SENDQUE << endl;return;}_send_que.push(make_shared<SendNode>(msg.c_str(), msg.length(), msgid));if (send_que_size > 0) {return;}auto& msgnode = _send_que.front();boost::asio::async_write(_socket, boost::asio::buffer(msgnode->_data, msgnode->_total_len),std::bind(&CSession::HandleWrite, this, std::placeholders::_1, SharedSelf()));
}

他这个的意思是,最开始获取一个长度,如果长度大于max就说明队列满了,数据不要了直接丢了。要是没满就把他放到发送队列里。他这个if判断的其实是队列里面有刚进来的时候没有数据,没有数据就说明async_write停了或者说第一次进入就需要重新挂一个写,不然就让他自己一直回调慢慢处理数据就好了。

HandleWrite

void CSession::HandleWrite(const boost::system::error_code& error, std::shared_ptr<CSession> shared_self) {//增加异常处理try {if (!error) {std::lock_guard<std::mutex> lock(_send_lock);//cout << "send data " << _send_que.front()->_data+HEAD_LENGTH << endl;_send_que.pop();if (!_send_que.empty()) {auto& msgnode = _send_que.front();boost::asio::async_write(_socket, boost::asio::buffer(msgnode->_data, msgnode->_total_len),std::bind(&CSession::HandleWrite, this, std::placeholders::_1, shared_self));}}else {std::cout << "handle write failed, error is " << error.what() << endl;Close();_server->ClearSession(_uuid);}}catch (std::exception& e) {std::cerr << "Exception code : " << e.what() << endl;}}

我们看这个回调也确实是这么做的,有消息就一直发。

结语及总结

疑问

        在本篇博文中,主要梳理了asio多线程网络编程其中一种方案的实现及理论。在写的时候发现了一点问题,就是说server管理了session节点,但是我看析构的时候,并没有将所有节点删除。而是在main函数捕获信号,然后通过io_context池子来stop了所有的io_context,让io_context.run()立即返回,并且回收了所有的线程.但是io_context.run()返回了也就是内部的epoll不在epolll_wait了是否就可可以使管理的session是否不用移除,回头再看一下代码吧。

流程总结

        最后我们来梳理一下他的大致流程。首先main函数中创建了一个上下文io_context,然后把他传递给了server.server主要用来管理session(会话)节点,当新连接来的时候并且接受新的连接把他挂到对应的io_context上,接着触发回调运行session的start函数并且把这个session放到map里面管理起来延长生命周期,并且挂一个accept上去。start之后就会走async_read_some,然后是切包,把切好的包通过逻辑系统放到队列里。由逻辑系统里的注册函数对他处理之后,使用session的send,把他发出去。send有两个部分组成,首先如果消息队列不满,那么直接投递到队列里面去,如果满了,就扔了。如果没有消息就挂一个async_write让他自己一直发直到消息队列没消息了。

结语

        总而言之asio虽然在Linux上走的会是reactor而不是preactor性能会差一些,但是给你造了轮子总比自己设计accept,channel来的好。总要方便一些,以后分享一下reactor不用asio手搓是怎么手搓的吧。不过可能要一些时间了,下一步的计划是把dds,someip,以及车载网络协议更新完。每次手写博客都是对自己知识的梳理,感谢各位看到这里,内容可能有错,批判的看待即可。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mzph.cn/bicheng/69790.shtml

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

【思维导图】并发编程

学习计划&#xff1a;将目前已经学的知识点串成一个思维导图。在往后的学习过程中&#xff0c;不断往思维导图里补充&#xff0c;形成自己整个知识体系。对于思维导图里的每个技术知识&#xff0c;自己用简洁的话概括出来&#xff0c; 训练自己的表达能力。 并发和并行的区别 并…

【B站保姆级视频教程:Jetson配置YOLOv11环境(四)cuda cudnn tensorrt配置】

Jetson配置YOLOv11环境&#xff08;4&#xff09;cuda cudnn tensorrt配置 文章目录 0. 简介1. cuda配置&#xff1a;添加cuda环境变量2. cudnn配置3. TensorRT Python环境配置3.1 系统自带Python环境中的TensorRT配置3.2 Conda 虚拟Python环境中的TensorRT配置 0. 简介 官方镜…

【深度分析】DeepSeek 遭暴力破解,攻击 IP 均来自美国,造成影响有多大?有哪些好的防御措施?

技术铁幕下的暗战&#xff1a;当算力博弈演变为代码战争 一场针对中国AI独角兽的全球首例国家级密码爆破&#xff0c;揭开了数字时代技术博弈的残酷真相。DeepSeek服务器日志中持续跳动的美国IP地址&#xff0c;不仅是网络攻击的地理坐标&#xff0c;更是技术霸权对新兴挑战者的…

如何在数据湖中有效治理和管理“数据沼泽”问题,提高数据的可发现性和利用率?

在数据湖中有效治理和管理“数据沼泽”问题&#xff0c;提高数据的可发现性和利用率&#xff0c;需要从多个方面入手&#xff0c;包括数据治理、元数据管理、数据质量控制、安全性保障以及生命周期管理等。以下是具体的策略和方法&#xff1a; 1. 构建强大的数据治理框架 数据…

【4Day创客实践入门教程】Day3 实战演练——桌面迷你番茄钟

Day3 实战演练——桌面迷你番茄钟 目录 Day3 实战演练——桌面迷你番茄钟1. 选择、准备元件、收集资料2. 硬件搭建3.编写代码 Day0 创想启程——课程与项目预览Day1 工具箱构建——开发环境的构建Day2 探秘微控制器——单片机与MicroPython初步Day3 实战演练——桌面迷你番茄钟…

Oracle Primavera P6自动进行进度计算

前言 在P6 Professional 有一个自动计划计算的选项&#xff0c;很多人不了解该设置如何使用&#xff0c;以及什么时候该启动这项配置。 详情 P6 Professional 默认为非自动进度计算。启用自动选项后&#xff0c;可以快速查看调度更改的效果。 ​ ​ 如图所示&#xff0c;当你…

DeepSeek-R1 论文解读 —— 强化学习大语言模型新时代来临?

近年来&#xff0c;人工智能&#xff08;AI&#xff09;领域发展迅猛&#xff0c;大语言模型&#xff08;LLMs&#xff09;为通用人工智能&#xff08;AGI&#xff09;的发展开辟了道路。OpenAI 的 o1 模型表现非凡&#xff0c;它引入的创新性推理时缩放技术显著提升了推理能力…

大模型GUI系列论文阅读 DAY4续:《Large Language Model Agent for Fake News Detection》

摘要 在当前的数字时代&#xff0c;在线平台上虚假信息的迅速传播对社会福祉、公众信任和民主进程构成了重大挑战&#xff0c;并影响着关键决策和公众舆论。为应对这些挑战&#xff0c;自动化假新闻检测机制的需求日益增长。 预训练的大型语言模型&#xff08;LLMs&#xff0…

LevelDB 源码阅读:写入键值的工程实现和优化细节

读、写键值是 KV 数据库中最重要的两个操作&#xff0c;LevelDB 中提供了一个 Put 接口&#xff0c;用于写入键值对。使用方法很简单&#xff1a; leveldb::Status status leveldb::DB::Open(options, "./db", &db); status db->Put(leveldb::WriteOptions…

【Proteus仿真】【51单片机】多功能计算器系统设计

目录 一、主要功能 二、使用步骤 三、硬件资源 四、软件设计 五、实验现象 联系作者 一、主要功能 1、LCD1602液晶显示 2、矩阵按键​ 3、加减乘除&#xff0c;开方运算 4、带符号运算 5、最大 999*999 二、使用步骤 基于51单片机多功能计算器 包含&#xff1a;程序&…

origin调整图像的坐标轴,修改坐标轴起始点,增量

接上一篇帖子&#xff0c;如果再修改数据之后或者当前的数据之间差距较小&#xff0c;怎么通过调整坐标轴来使数据之间的差距更明显&#xff0c;举个例子&#xff0c; 像下面这个图的entropy指标&#xff0c;都是介于6到9之间&#xff0c;如果y轴坐标都从0开始&#xff0c;使用…

Redis_Redission的入门案例、多主案例搭建、分布式锁进行加锁、解锁底层源码解析

目录 ①. Redis为什么选择单线程&#xff1f; ②. 既然单线程这么好,为什么逐渐又加入了多线程特性&#xff1f; ③. redis6的多线程和IO多路复用入门篇 ④. Redis6.0默认是否开启了多线程&#xff1f; ⑤. REDIS多线程引入总结 ①. Redis为什么选择单线程&#xff1f; ①…

ARM嵌入式学习--第十一天(中断处理 , ADC)

--中断的概念 中断是指计算机运行过程中&#xff0c;出现某些意外情况需主机干预时&#xff0c;机器能自动停止正在运行的程序并转入处理新情况的程序&#xff0c;处理完毕后又返回被暂停的程序继续运行 --CPU处理事情的方式 -轮询方式 不断查询是否有事情需要处理&#xff0c…

vue2项目(一)

项目介绍 电商前台项目 技术架构&#xff1a;vuewebpackvuexvue-routeraxiosless.. 封装通用组件登录注册token购物车支付项目性能优化 一、项目初始化 使用vue create projrct_vue2在命令行窗口创建项目 1.1、脚手架目录介绍 ├── node_modules:放置项目的依赖 ├──…

[ACTF2020 新生赛]BackupFile1

题目 翻译&#xff0c;尝试找出源文件&#xff01; 扫目录使用参数-e * python dirsearch.py -u http://0c3b21c0-d360-4baa-8b97-aa244f4c4825.node5.buuoj.cn:81/ -e * 最终扫描到一个文件名为&#xff1a;/index.php.bak的文件&#xff0c;把备份文件下载下来 源码 <?…

OPENPPP2 —— VMUX_NET 多路复用原理剖析

在阅读本文之前&#xff0c;必先了解以下几个概念&#xff1a; 1、MUX&#xff08;Multiplexer&#xff09;&#xff1a;合并多个信号到单一通道。 2、DEMUX&#xff08;Demultiplexer&#xff09;&#xff1a;从单一通道分离出多个信号。 3、单一通道&#xff0c;可汇聚多个…

DeepSeek-R1大模型本地部署及简单测试

目录 DeepSeek-R1大模型本地部署及简单测试背景我的测试环境模型参数选择适用场景参数规模 本地部署安装 DeepSeek-R1大模型本地部署及简单测试 背景 最近deepseek非常火, 要说2025年震惊科技圈的事件要数DeepSeek这个国产AI的横空出世&#xff0c;这是一款免费、开源且隐私优…

强化学习笔记(3)——基于值函数的方法和策略梯度方法

分为两大类方法&#xff1a; 基于值函数的方法&#xff08;Temporal Difference Methods, TD Methods&#xff09; 策略梯度方法&#xff08;Policy Gradient Methods&#xff09;。 二者不同之处&#xff1a; 通过值函数来间接表达隐式的策略&#xff0c;一个是直接迭代优化策…

Excel 技巧23 - 在Excel中用切片器做出查询效果(★★★)

本文讲如何在Excel中用切片器做出查询效果。 目录 1&#xff0c;在Excel中用切片器做出查询效果 1-1&#xff0c;Excel 中的切片器是什么&#xff1f; 1-2&#xff0c;用切片器做出查询效果 1&#xff09;&#xff0c;点击任一表格内单元格&#xff0c;按下CtrlA&#xff0…

leetcode——排序链表(java)

给你链表的头结点 head &#xff0c;请将其按 升序 排列并返回 排序后的链表 。 示例 1&#xff1a; 输入&#xff1a;head [4,2,1,3] 输出&#xff1a;[1,2,3,4] 示例 2&#xff1a; 输入&#xff1a;head [-1,5,3,4,0] 输出&#xff1a;[-1,0,3,4,5] 示例 3&#xff1a; …