一.序言
在上一章中,我们已经实现了用udp来实现网络编程,这一节我们用tcp来实现网络编程,通过对比两者编写过程的区别,来加深对udp,tcp的理解!
(两者其实差别不大!有了udp的基础,学习起来tcp会相对轻松很多)
同样的,用户端可以接收来自服务器端的消息,也可以向服务器端发消息
服务器端可以接收用户端的消息,也可以向用户端发消息
在编写tcp代码之前,我们首先讲一个小故事
话说我们有时路过一些饭店/服装店,可能会遇到一个揽客的人,会非常"热情好客"地向你推销服务,向你安利饭菜有多好吃(衣服有多精美便宜)等等,吸引你进去商铺里面
假如你感兴趣的话,就会走进店铺里面看看,然后揽客的人会叫店员(服务员)来招待你,然后负责揽客的人,会继续去招揽下一批顾客
假如不感兴趣,你在犹豫几次后,就决定去找一家更好吃的餐厅(更精美的服装店等等),而这并没有什么大不了,揽客的人不会强迫你必须进入商店里面进行消费
tcp对比udp的差别也正是在这,tcp在整个过程中,存在两个套接字
一个我们可以称之为_listensock监听套接字,它就相当于揽客的人
另一个我们可以称之为_sock服务套接字,它就相当于实际为我们提供服务的店员
tcp不是"强买强卖",服务器端和用户端两者需要相互"沟通",也就是我们上节提到的tcp是一个基于连接的流式服务
揽客的人,需要出去外面吆喝揽客(listen),随时准备接收(accept)新顾客,而路过的人,要看是否被打动(connect),走进店里面,成为顾客
更具体的,我们通过编写代码来加深理解!
二.简单tcp服务器端编写
tcp服务器和udp服务器端两者编写过程中,有很多相似之处,或者说整体大框架大差不差,不过会多了几个系统接口需要调用.
2.1服务器server端
2.1.1初始化服务器
1.创建套接字
首先还是调用socket系统接口,创建套接字
不过和udp不同,创建套接字时所需的服务类型应该是SOCK_STREAM(流式服务),而不是SOCK_DGRAM(数据报)
并且,我们此时创建的对应套接字,是监听套接字,而不是服务套接字!还没有到需要提供服务的那一步,现在还在完成准备工作而已.
// 1.创建socket接口,创建对应的网络文件
_listensock = socket(AF_INET, SOCK_STREAM, 0);
// 假如创建失败,
if (_listensock < 0)
{std::cerr << "create socket err: " << strerror(errno) << std::endl;exit(SOCKET_ERR);
}
std::cout << "create socket success: " << _listensock << std::endl;
2.绑定
同样的,套接字创建完毕后我们实际只是在系统层面上打开了一个文件,该文件还没有与网络关联起来,因此创建完套接字后我们还需要调用bind系统接口进行绑定,与网络关联起来,这和udp,是一样的操作!
同样的,在构建sockaddr_in结构体的时候,我们的ip地址是随意指定的,而不是将服务器server的ip固定赋值
原因,我们在上一节也提到过,一个进程可以关联多个端口号
一台服务器底层可能装有多张网卡,此时这台服务器就可能会有多个IP地址,这台服务器在接收数据时,这里的多张网卡在底层实际都收到了数据,但假如绑定某一个特定的IP地址,那只能从绑定IP对应的网卡接收数据;
但假如随机绑定(INADDR_ANY),那就能从随机一张对应IP的网卡接收数据,可以提高服务器的负载均衡能力,并避免单个网卡成为瓶颈
并且INADDR_ANY本质就是宏定义的0,因此在设置时不需要进行网络字节序的转换
// 2.绑定
struct sockaddr_in local;
bzero(&local, sizeof(local)); // 将结构体清零
local.sin_family = AF_INET; // 确定协议家族
local.sin_port = htons(_port); // 将端口号转成大端(网络)字节序// 云服务器,或者一款服务器,一般不要指明某一个确定的IP;本地安装的虚拟机,或者物理机器是允许的
local.sin_addr.s_addr = INADDR_ANY; // 随机指定任意一个ip
if (bind(_listensock, (struct sockaddr *)&local, sizeof(local)))
{std::cerr << "bind socket err: " << strerror(errno) << std::endl;exit(BIND_ERR);
}
std::cout << "bind socket success: " << _listensock << std::endl;
3.监听listen
udp服务器可没有监听这一步,而tcp需要监听这一步,原因我们也在序言说了,这是它基于连接这一特性所决定的!
tcp服务器需要时刻注意是否有客户端发来连接请求,此时就需要将tcp服务器创建的套接字设置为监听状态
对应我们的小故事,也就是商铺(服务器端),要派出我们的吆喝工作人员,在门店前,大街上到处乱逛,招揽顾客,与顾客(用户端)进行"连接"
设置套接字为监听状态的系统接口叫做listen,该函数的函数原型如下:
int listen(int sockfd, int backlog);
总共有两个参数
第一个参数就是我们刚刚创建好的监听套接字,或者说网络文件描述符
sockfd:需要设置为监听状态的套接字对应的文件描述符
第二个参数是全队列的最大长度.
一般设置为2的倍数,16,32,64等等,一般不要设置的太大.
返回值也是老套路,成功返回0,不成功,返回-1,并设置对应的错误码
具体代码如下:
// 3.监听
if (listen(_listensock, backlog) < 0)
{std::cerr << "listen socket err: " << strerror(errno) << std::endl;exit(LISTEN_ERR);
}
std::cout << "listen socket success: " << _listensock << std::endl;
4.整体代码展示
void InitServer()
{// 1.创建socket接口,创建对应的网络文件_listensock = socket(AF_INET, SOCK_STREAM, 0);// 假如创建失败,if (_listensock < 0){std::cerr << "create socket err: " << strerror(errno) << std::endl;exit(SOCKET_ERR);}std::cout << "create socket success: " << _listensock << std::endl;// 2.绑定struct sockaddr_in local;bzero(&local, sizeof(local)); // 将结构体清零local.sin_family = AF_INET; // 确定协议家族local.sin_port = htons(_port); // 将端口号转成大端字节序// 云服务器,或者一款服务器,一般不要指明某一个确定的IP;本地安装的虚拟机,或者物理机器是允许的local.sin_addr.s_addr = INADDR_ANY; // 随机指定任意一个ipif (bind(_listensock, (struct sockaddr *)&local, sizeof(local))){std::cerr << "bind socket err: " << strerror(errno) << std::endl;exit(BIND_ERR);}std::cout << "bind socket success: " << _listensock << std::endl;// 3.监听if (listen(_listensock, backlog) < 0){std::cerr << "listen socket err: " << strerror(errno) << std::endl;exit(LISTEN_ERR);}std::cout << "listen socket success: " << _listensock << std::endl;
}
2.1.2实现start函数
1.获取连接accept
tcp服务器初始化后就可以开始运行了,但tcp服务器在与客户端进行网络通信之前,服务器还需要先获取到客户端的连接请求
对应到我们的小故事中,就是吆喝的工作人员,在那吆喝(设置为了监听模式),但是这并不代表着路过的人就会被吸引进入店铺!
路过对商铺感兴趣的人向吆喝的工作人员发出有入店的意愿,吆喝的人员接收到了,路过的人才会真正成为顾客!这是一个双向选择的过程.
获取连接的函数叫做accept,该函数的函数原型如下:
int accept(int sockfd, struct sockaddr *address, socklen_t *address_len);
该系统接口总共有三个参数
第一个参数是socket,也就是传入我们设置为监听状态的套接字对应的文件描述符,表示从该监听套接字中获取连接
第二个参数是address,传入的是用户端结构体sockaddr_in的地址
第三个参数是address_len,传入的是用户端结构体sockaddr_in的大小
和我们在udp编程中recvfrom函数参数非常类似(当然参数个数不同),后两者其实都是输入输出型参数,成功获取连接后,结构体sockaddr_in会成功填入对应连接的用户端的ip,port等等信息
在逻辑上也很好理解?
成功连接后,客户端也必须获取对应用户端ip,port等等信息
这样才能有后续的服务(发消息等等),不然网络中两个唯一的进程如何进行交流呢?
不管连接是否成功,其实影响不大,并不会需要报错,终止程序
揽客的人不一定每一次出击都能招揽到客人
假如连接失败,就不断循环,重新尝试和用户端进行连接
返回参数是我们的服务套接字,监听套接字的任务只是不断获取新连接,而真正为这些连接提供服务的套接字是现在返回的参数套接字(服务套接字)
在我们故事中,对应的就是揽客的人和实际为顾客提供的人,并不是同一个员工,两者具有不同的任务.
struct sockaddr_in client;
socklen_t len = sizeof(client);
// 4.获取连接
int sock = accept(_listensock, (struct sockaddr *)&client, &len);
if (sock < 0)
{std::cerr << "accept socket err: " << std::endl;continue; //并不会有任何报错,只是会不断循环,尝试与用户端进行连接
}
//提取client信息
std::string clientip = inet_ntoa(client.sin_addr); //将网络ip转成点分十进制字符串
uint16_t clientport = ntohs(client.sin_port); //网络字节序转成小端
printf("获取新连接成功: %d from %d, who: %s - %d",sock,_listensock,clientip.c_str(),clientport);
2.收/发数据(接收用户端发来的数据/向用户端发数据)
在udp服务器时,我们调用recvfrom系统接口,sendto系统接口,来对网络文件进行读写操作
但tcp套接字,我们提到过,它还有一个特点是流式服务
我们提到过流这个概念,是在对普通文件进行读写操作的时候
tcp套接字创建的"网络文件"也不例外,对它进行读写操作的系统接口函数,直接就是我们熟悉的read,write系统接口函数
read系统接口函数
ssize_t read(int fd, void *buf, size_t count);
第一个参数就是我们要读取的文件所对应的文件描述符,传入的是我们获取到的服务套接字
第二个,第三个参数就是我们的缓冲区地址以及对应的大小,也很好理解,读出来的数据总应该找一个地方存起来吧!
需要值得注意的是返回参数,调用该函数后,会返回成功读取到的字节数
如果返回值大于0,则表示本次实际读取到的字节个数
(假如读取到的字节数比我们预期要小,是正常的,在手册中,列举了几种可能会出现这样的情况,比如在读取时,被发信号终止等等,此时会返回-1,并设置对应的错误码)
如果返回值等于0,则表示对端已经把连接关闭了。
如果返回值小于0,则表示读取时遇到了错误
wrtie接口函数
ssize_t write(int fd, const void *buf, size_t count);
第一个参数就是我们要读取的文件所对应的文件描述符,传入的是我们获取到的服务套接字
第二个,第三个参数就是我们的缓冲区地址以及对应的大小,也很好理解,我们要往文件里面写数据,那要写的数据是什么呢?也需要一个缓冲区存起来吧!
返回的参数则是成功写入的字节数,假如为0,则什么都没写入;发生错误的话,-1被返回,错误码errno被设置.
将对网络文件读写的操作封装为一个类方法,则代码如下:
void service(int sock,const std::string &clientip,const uint16_t &clientport)
{std::string who = clientip + ":" + std::to_string(clientport);char buffer[1024]; //创建一个缓冲区,用来存储数据while(true){ssize_t n = read(sock,buffer,sizeof(buffer) - 1); //最后一个字符在C中默认为/0,预留一个位置if(n > 0) //假如成功读取到数据{buffer[n] = 0;//缓冲区最后一个字符,填充/0std::string message = _func(buffer); //对收到的数据进行处理std::cout << who << " >> " << message << std::endl; //说明是谁发出的数据write(sock,message.c_str(),message.size()); //往里面写数据}else if(n == 0){// 对方将连接关闭了std::cout << who << " quit, me too" << std::endl;break;}else{std::cerr << "read error: " << strerror(errno) << std::endl;break;}}
}
其中,_func是我们的类内成员,相当于c中的函数指针
using func_t = std::function<std::string(const std::string &)>;
通过这样的方式,则只需要在上层编写相应的服务代码,初始化构造server对象时,直接传入即可,完美将服务内容与提供服务的服务器进行解耦.
2.1.3 整体代码展示
//server.hpp
#include <iostream>
#include <cstring>
#include <cstdlib>
#include <unistd.h>
#include <functional>
#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include "err.hpp"namespace ns_server
{const static uint16_t default_port = 8080;static const int backlog = 32;using func_t = std::function<std::string(const std::string &)>;class tcp_Server{public:tcp_Server(func_t func,uint16_t port = default_port): _func(func),_port(port), _quit(true){std::cout << "server addrs: " << _port << std::endl;}void InitServer(){// 1.创建socket接口,创建对应的网络文件_listensock = socket(AF_INET, SOCK_STREAM, 0);// 假如创建失败,if (_listensock < 0){std::cerr << "create socket err: " << strerror(errno) << std::endl;exit(SOCKET_ERR);}std::cout << "create socket success: " << _listensock << std::endl;// 2.绑定struct sockaddr_in local;bzero(&local, sizeof(local)); // 将结构体清零local.sin_family = AF_INET; // 确定协议家族local.sin_port = htons(_port); // 将端口号转成大端字节序// 云服务器,或者一款服务器,一般不要指明某一个确定的IP;本地安装的虚拟机,或者物理机器是允许的local.sin_addr.s_addr = INADDR_ANY; // 随机指定任意一个ipif (bind(_listensock, (struct sockaddr *)&local, sizeof(local))){std::cerr << "bind socket err: " << strerror(errno) << std::endl;exit(BIND_ERR);}std::cout << "bind socket success: " << _listensock << std::endl;// 3.监听if (listen(_listensock, backlog) < 0){std::cerr << "listen socket err: " << strerror(errno) << std::endl;exit(LISTEN_ERR);}std::cout << "listen socket success: " << _listensock << std::endl;}void Start(){_quit = false; // 不需要退出// 服务器一旦启动,就一直死循环的进行下去while (!_quit){struct sockaddr_in client;socklen_t len = sizeof(client);// 4.获取连接int sock = accept(_listensock, (struct sockaddr *)&client, &len);if (sock < 0){std::cerr << "accept socket err: " << std::endl;continue; //并不会有任何报错,只是会不断循环,尝试与用户端进行连接}//提取client信息std::string clientip = inet_ntoa(client.sin_addr); //将网络ip转成点分十进制字符串uint16_t clientport = ntohs(client.sin_port); //网络字节序转成小端printf("获取新连接成功: %d from %d, who: %s - %d",sock,_listensock,clientip.c_str(),clientport);service(sock,clientip,clientport);}}void service(int sock,const std::string &clientip,const uint16_t &clientport){std::string who = clientip + ":" + std::to_string(clientport);char buffer[1024]; //创建一个缓冲区,用来存储数据while(true){ssize_t n = read(sock,buffer,sizeof(buffer) - 1); //最后一个字符在C中默认为/0,预留一个位置if(n > 0) //假如成功读取到数据{buffer[n] = 0;//缓冲区最后一个字符,填充/0std::string message = _func(buffer);std::cout << who << " >> " << message << std::endl; //说明是谁发出的数据write(sock,message.c_str(),message.size()); //往里面写数据}else if(n == 0){// 对方将连接关闭了std::cout << who << " quit, me too" << std::endl;break;}else{std::cerr << "read error: " << strerror(errno) << std::endl;break;}}}~tcp_Server(){}private:int _listensock;uint16_t _port; // 端口号bool _quit; // 是否要运行func_t _func; // 处理信息函数};
}
//server.cc
#include "tcp_server.hpp"
#include <memory>
#include <cstdio>
using namespace ns_server;
using namespace std;//用户使用手册
static void Usage(string proc)
{std::cout << "Usage:\n\t" << proc << " serverport\n" << std::endl;
}//上层的业务处理
std::string echo(std::string request)
{return request;
}// ./udp_server port
int main(int argc,char* argv[])
{ //假如传入的参数不是两个,而不是指定了对应的端口号,则打出对应的使用列表,并退出if(argc != 2){Usage(argv[0]);exit(USAGE_ERR);}uint16_t port = atoi(argv[1]);unique_ptr<tcp_Server> tsrv(new tcp_Server(echo,port));tsrv->InitServer();tsrv->Start();return 0;
}
2.2 用户client端
client用户端的编写,和server服务器端也是相类似的,仅仅在初始用户端有一点点差别而已.
2.2.1 初始化用户端
用户端不需要进行绑定,也不需要进行监听!
不需要绑定的原因,我们在udp一节已经解释过,简单而言,如果固定绑定某个端口号,就有可能一个端口号重复使用,进而一个进程可以执行,而另一个进程无法执行,所以一般都是OS随机进行分配
不需要监听的原因就更好理解了,顾客并不是揽客的人,服务端需要通过监听来获取新连接,但是用户端并不需要,所以也就不需要监听操作.
初始化用户端,只需要创建套接字(没有监听套接字,服务套接字这一说法)
// 创建套接字
int sock = socket(AF_INET, SOCK_STREAM, 0);
if (sock < 0)
{std::cerr << "create socket fail:" << strerror(errno) << std::endl;exit(SOCKET_ERR);
}
// 不需要自己bind,也不需要accept,只需要考虑连接服务器即可
2.2.2 运行用户端
1.连接服务器端connect
假如路过的人对吆喝的人所讲的内容感兴趣,则可以询问具体内容,然后进一步决定要不要进去商铺里面.
服务器端不断accept,获取连接;对应用户端则是不断尝试connect,连接服务器端,这也是tcp基于连接特点的体现!
发起连接请求的函数叫做connect,该函数的函数原型如下:
int connect(int sockfd, const struct sockaddr *addr, socklen_t addrlen);
第一个参数就是我们要读取的文件所对应的文件描述符,传入的是我们获创建的套接字
第二个,第三个参数就是我们服务器端的sockaddr_in结构体的地址以及对应的大小
假如成功连接,则返回0;否则返回-1,错误码被设置
同样的,和udp程序类似
我们在编写服务器端的时候,服务器端要做的,只是需要在accept的时候自己设定一个sockaddr_in结构体,便可以获取对应与之相连的用户端ip和port号,两个进程就可以建立起联系!
但是用户端不同,用户是没有对应服务器端的ip和端口号的!
你不能说调用accept系统接口,来获取服务器端的ip和端口号,用户是访问者,而不是被访问者
所以用户端进程获取服务器端的ip和端口号,不是用输入输出型参数的方法,而是我们自己给!
连接代码如下:
//创建服务器端的套接字
struct sockaddr_in server;
memset(&server, 0, sizeof(server)); // 清空对应结构体的内容
server.sin_family = AF_INET;
server.sin_port = htons(serverport); //存储对应的端口号
inet_aton(serverip.c_str(),&server.sin_addr); //存储对应的ipint connect_cnt = 5; //连接次数
while(connect(sock,(struct sockaddr*)&server,sizeof(server)) < 0)
{sleep(1);std::cout << "正在给你尝试重连,重连次数还有: " << connect_cnt-- << std::endl;if(connect_cnt < 0) break;
}
//从循环出来,有两种情况,一是连接成功;二是连接次数用完
if(connect_cnt <= 0) //连接次数用完
{std::cerr << "连接失败...,code:" << errno << " code string: " << strerror(errno) << std::endl;exit(CONNECT_ERR);
}
std::cout << "connect success" << std::endl;
2.收/发数据(接收服务器端数据/向服务器端发送数据)
和服务器端一样,同样是直接调用read,write系统接口就好,没有什么新的知识需要补充.
char buffer[1024];
//连接成功,则可以收发数据
while (true)
{// 用户输入std::string message;std::cout << "Please input your message# ";std::getline(std::cin,message);//发数据write(sock,message.c_str(),message.size());//收数据ssize_t n = read(sock,buffer,sizeof(buffer));if (n > 0){buffer[n] = 0;std::cout << "server echo>>> " << buffer << std::endl;}else if(n == 0){std::cerr << "server quit" << std::endl;break;}else{std::cerr << "read error:" << strerror(errno) << std::endl;break;}
}//关闭文件
close(sock);
2.2.3 整体代码展示
//client.hpp
#pragma once#include <iostream>
#include <cstring>
#include <cstdlib>
#include <unistd.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include "err.hpp"
//client.cc
#include "tcp_client.hpp"// 127.0.0.1 本地环回 lo(loop) 进行测试客户端,服务器代码//./文件.cpp serverip serverport
// 用户使用手册
static void Usage(std::string proc)
{std::cout << "Usage:\n\t" << proc << " serverip serverport\n"<< std::endl;
}int main(int argc, char *argv[])
{if (argc != 3){Usage(argv[1]);exit(USAGE_ERR);}// 获取到服务器端的ip和portstd::string serverip = argv[1];u_int16_t serverport = atoi(argv[2]);// 创建套接字int sock = socket(AF_INET, SOCK_STREAM, 0);if (sock < 0){std::cerr << "create socket fail:" << strerror(errno) << std::endl;exit(SOCKET_ERR);}// 不需要自己bind,也不需要accept,只需要考虑连接服务器即可//创建服务器端的套接字struct sockaddr_in server;memset(&server, 0, sizeof(server)); // 清空对应结构体的内容server.sin_family = AF_INET;server.sin_port = htons(serverport); //存储对应的端口号inet_aton(serverip.c_str(),&server.sin_addr); //存储对应的ipint connect_cnt = 5; //连接次数while(connect(sock,(struct sockaddr*)&server,sizeof(server)) < 0){sleep(1);std::cout << "正在给你尝试重连,重连次数还有: " << connect_cnt-- << std::endl;if(connect_cnt < 0) break; }//从循环出来,有两种情况,一是连接成功;二是连接次数用完if(connect_cnt <= 0) //连接次数用完{std::cerr << "连接失败...,code:" << errno << " code string: " << strerror(errno) << std::endl;exit(CONNECT_ERR);}std::cout << "connect success" << std::endl;char buffer[1024];//连接成功,则可以收发数据while (true){// 用户输入std::string message;std::cout << "Please input your message# ";std::getline(std::cin,message);//发数据write(sock,message.c_str(),message.size());//收数据ssize_t n = read(sock,buffer,sizeof(buffer));if (n > 0){buffer[n] = 0;std::cout << "server echo>>> " << buffer << std::endl;}else if(n == 0){std::cerr << "server quit" << std::endl;break;}else{std::cerr << "read error:" << strerror(errno) << std::endl;break;}}//关闭文件close(sock);return 0;
}
多进程版本改造
但是聪明的你可能已经发现了,上述代码有一个巨大的漏洞!
while循环不断运行,尝试和用户连接,这并没有问题!
但是连接成功之后呢?
服务器端就为用户端不断提供服务了
在service函数里面,又是一个新的循环
这就会导致,服务器端和某一个用户端进行连接后,其它用户端都没办法成功连接,获取相应的服务!
这显然不合理,这意味着,我们使用QQ的时候,只有一个用户可以登录,一旦有人登上QQ,其他人都没办法登上QQ,那还沟通什么呢?
当然,假如你使用上述代码,尝试用多个用户端进行连接的时候,是会显示成功连接的,只不过没有对应的服务提供!
原理:
实际在底层OS会为我们维护一个连接队列,服务端没有accept的新连接就会放到这个连接队列当中(连接队列的最大长度就是通过listen函数的第二个参数来指定的)
因此服务端虽然没有获取(accept)其它客户端发来的连接请求,但是依旧是显示连接成功的
于是我们考虑将它修改为多进程版本,父进程不断accept,获取连接;然后子进程提供对应服务
但是父进程不断运行,又怎么回收子进程呢?
一个简单的做法,就是父进程直接捕捉SIGCHID信号,并将该信号的处理动作设置为忽略,此时父进程就只需专心处理自己的工作,不必关心子进程了
这也是最为推荐的一种做法
void Start()
{_quit = false; // 不需要退出signal(SIGCHLD,SIG_IGN);// 服务器一旦启动,就一直死循环的进行下去while (!_quit){struct sockaddr_in client;socklen_t len = sizeof(client);// 4.获取连接int sock = accept(_listensock, (struct sockaddr *)&client, &len);if (sock < 0){std::cerr << "accept socket err: " << std::endl;continue; //并不会有任何报错,只是会不断循环,尝试与用户端进行连接}//提取client信息std::string clientip = inet_ntoa(client.sin_addr); //将网络ip转成点分十进制字符串uint16_t clientport = ntohs(client.sin_port); //网络字节序转成小端printf("获取新连接成功: %d from %d, who: %s - %d",sock,_listensock,clientip.c_str(),clientport);pid_t id = fork(); //创建进程if(id == 0){//child processclose(_listensock); //关闭监听套接字service(sock,clientip,clientport);exit(0); //完成任务后,退出}}
}
还有一种做法,是创建孙子进程
成功创建出子进程后,再立马创建孙子进程,并退出子进程,这样孙子进程就会成为孤儿进程,而被OS系统领养,此时父进程专心accept获取连接即可,孙子进程完成任务后,会被OS回收,父进程不需要关注孙子进程!
void Start()
{_quit = false; // 不需要退出// 服务器一旦启动,就一直死循环的进行下去while (!_quit){struct sockaddr_in client;socklen_t len = sizeof(client);// 4.获取连接int sock = accept(_listensock, (struct sockaddr *)&client, &len);if (sock < 0){std::cerr << "accept socket err: " << std::endl;continue; //并不会有任何报错,只是会不断循环,尝试与用户端进行连接}//提取client信息std::string clientip = inet_ntoa(client.sin_addr); //将网络ip转成点分十进制字符串uint16_t clientport = ntohs(client.sin_port); //网络字节序转成小端printf("获取新连接成功: %d from %d, who: %s - %d",sock,_listensock,clientip.c_str(),clientport);pid_t id = fork(); //创建进程if(id < 0){//创建进程失败close(sock);continue;}else if(id == 0){//child processclose(_listensock); //关闭监听套接字if(fork() > 0) exit(0); //创建孙子进程来提供服务,同时原来的子进程直接退出service(sock,clientip,clientport); //孙子进程进行任务处理exit(0); //完成任务后,退出}//parent process//一定关闭掉不需要的fd, 不关闭,会导致fd泄漏close(sock);pid_t ret = waitpid(id, nullptr, 0); //回收子进程if(ret == id) std::cout << "wait child " << id << " success" << std::endl;}
}
细节:
对于进程来说,什么套接字不再使用,就直接关闭对应的"网络文件"!
不然来一个用户,就占据一个sock服务套接字,那对于父进程来说,可用的套接字数目就会越来越少,直接用完了,那孙子进程也不用干活了,工作套接字都没了,还干什么活(文件描述符表会直接继承)
多线程版本改造
申请一个进程,其实消耗还是蛮大的(创建进程意味着需要创建对应的进程控制块(task_struct)、进程地址空间(mm_struct)、页表等数据结构)
一两个进程看不出什么区别,但假如到了QQ,微信,抖音等等几十亿用户的层次,这个消耗(空间,时间资源)将会非常恐怖
所以将单执行流修改为多执行,除了多进程,还有一种相对消耗小很多的方式——多线程(每个线程共享进程的大部分资源)
创建多线程,无法避免需要讨论的一个问题,就是pthread_create传入的参数问题
每个线程运行,都要调用service方法,但是service方法,需要client用户的ip,port号等等,不然怎么知道为哪个用户端提供服务呢?(两个进程之间的唯一通信)
因此,args参数传入的必定是一个结构体,包含连接的用户端的ip,port等等
还有什么需要传进去呢?
看起来结构体里面还需要包含sock服务套接字
还有一点最重要的,不能忘记,这是类内函数!实际还有一个默认参数this对象指针,想要调用该方法,结构体就必须还含有this指针!
所以我们设计结构体如下:
class Thread_Data
{
public:Thread_Data(int fd,const std::string &ip,const int16_t &port,tcp_Server *ts):_sock(fd),_clientip(ip),_clientport(port),_ts(ts){}
public:int _sock;std::string _clientip;int16_t _clientport;tcp_Server* _ts;
};
然后设计Thread_Routine函数如下:
1.记住,pthread_create函数第三个参数,传入参数只有一个,所以要将它设置为static
2.记住线程分离,一旦调用方法,马上detach,这样就不用考虑父线程回收问题
//线程要执行的方法
static void* ThreadRoutine(void* args)
{pthread_detach(pthread_self()); //子线程完成任务后,系统自动回收,父线程不用阻塞等待Thread_Data* td = static_cast<Thread_Data*>(args);td->_ts->service(td->_sock,td->_clientip,td->_clientport);delete td;return nullptr;
}
这样我们就可以调用pthread_create函数创建线程,并自己运行了!
pthread_t pid;
Thread_Data* ts = new Thread_Data(sock,clientip,clientport,this);
pthread_create(&pid,nullptr,ThreadRoutine,ts); //创建子线程,并完成对应的service任务
整体代码如下:
void Start(){_quit = false; // 不需要退出//signal(SIGCHLD,SIG_IGN);// 服务器一旦启动,就一直死循环的进行下去while (!_quit){struct sockaddr_in client;socklen_t len = sizeof(client);// 4.获取连接int sock = accept(_listensock, (struct sockaddr *)&client, &len);if (sock < 0){std::cerr << "accept socket err: " << std::endl;continue; //并不会有任何报错,只是会不断循环,尝试与用户端进行连接}//提取client信息std::string clientip = inet_ntoa(client.sin_addr); //将网络ip转成点分十进制字符串uint16_t clientport = ntohs(client.sin_port); //网络字节序转成小端printf("获取新连接成功: %d from %d, who: %s - %d",sock,_listensock,clientip.c_str(),clientport);pthread_t pid;Thread_Data* ts = new Thread_Data(sock,clientip,clientport,this);pthread_create(&pid,nullptr,ThreadRoutine,ts); //创建子线程,并完成对应的service任务}}//线程要执行的方法static void* ThreadRoutine(void* args){pthread_detach(pthread_self()); //子线程完成任务后,系统自动回收,父线程不用阻塞等待Thread_Data* td = static_cast<Thread_Data*>(args);td->_ts->service(td->_sock,td->_clientip,td->_clientport);delete td;return nullptr;}
编译时需要携带上-pthread选项
.PHONY:all
all: tcp_client tcp_servertcp_client:tcp_client.ccg++ -o $@ $^ -std=c++11 -lpthread
tcp_server:tcp_server.ccg++ -o $@ $^ -std=c++11 -lpthread
.PHONY:clean
clean:rm -f tcp_client tcp_server
线程池改造
但是,我们说线程创建消耗比进程小,并不是没有消耗![1]
如果有大量的客户端连接请求,此时服务端要为每一个客户端创建对应的服务线程。线程越多,CPU的压力就越大,因为CPU要不断在这些线程之间来回切换,此时CPU在调度线程的时候,线程和线程之间切换的成本就会变得很高.[2]
此时,引入我们之前介绍过的线程池,预先创建一批线程为我们服务(解决问题【1】),并且服务完后,并不直接销毁线程,而是继续完成提供下一个服务,假如没有下一个任务,则进入休眠状态,等待被唤醒(解决问题【2】)
线程池代码如下:(具体参照以前编写的线程池代码)
设计为单例模式,默认线程个数我们设置为20个
也就是一旦有用户连入服务器端,立马就会创建出20个线程提供服务
#pragma once
#include <iostream>
#include <vector>
#include <queue>
#include "Task.hpp"
#include <pthread.h>
#include "Thread.hpp"
#include "mymutex.hpp"const static int N = 20; //默认线程数量
template <class T>
class ThreadPool
{
private:ThreadPool(int num = N):_num(num){pthread_mutex_init(&_mutex,nullptr);pthread_cond_init(&_cond,nullptr);}ThreadPool(const ThreadPool<T>& tp) = delete; //删除构造函数void operator=(const ThreadPool<T>& tp) = delete; //删除赋值函数public:static ThreadPool<T>* GetInstance(){if(instance == nullptr) //假如instance指针为空{LockGuard lockguard(&instance_lock); if(nullptr == instance){instance = new ThreadPool<T>();instance->Init();instance->start();}}return instance;}~ThreadPool(){for(auto &t:_threads){t.Join();}pthread_mutex_destroy(&_mutex);pthread_cond_destroy(&_cond);}pthread_mutex_t* Getlock(){return &_mutex;}void ThreadWait(){pthread_cond_wait(&_cond,&_mutex); //没有任务,线程自动进入等待}void ThreadWakeUp(){pthread_cond_signal(&_cond); //唤醒任务队列里面的线程}//判断任务队列是否为空bool Isempty(){return _tasks.empty();}T popTask(){T t = _tasks.front();_tasks.pop();return t;}void PushTask(const T&t){LockGuard lockguard(&_mutex);_tasks.push(t); //任务入列ThreadWakeUp(); //唤醒线程进行工作}static void* ThreadRoutine(void* args){//将传进来的this指针,转成我们的对象,这样即可访问里面的方法和成员变量ThreadPool<Task>* tp = static_cast<ThreadPool<Task> *>(args);while (true){T t;//任务队列不为空{LockGuard lockguard(tp->Getlock());while(tp->Isempty()){tp->ThreadWait(); //假如没有任务,则等待}//有任务,取出对应的任务t = tp->popTask();}t(); //执行任务}}void Init(){for(int i = 0;i < _num;i++){_threads.push_back(Thread(i,ThreadRoutine,(void*)this));} }void start(){for (auto &t:_threads){ t.Run(); //调用自定义线程里面的Run函数,创建相应的线程,并完成对应的任务}}private:std::vector<Thread> _threads; //线程编号向量int _num; //线程数量std::queue<T> _tasks; //任务数量pthread_mutex_t _mutex; //锁pthread_cond_t _cond; //条件变量static ThreadPool<T>* instance; //类对象指针static pthread_mutex_t instance_lock; //类对象锁
};//对对象指针进行初始化
template <class T>
ThreadPool<T>* ThreadPool<T>::instance = nullptr;//对类对象锁进行初始化
template <class T>
pthread_mutex_t ThreadPool<T>::instance_lock = PTHREAD_MUTEX_INITIALIZER;
锁和线程都用我们自己封装过后的版本
#pragma once#include <iostream>
#include <pthread.h>class Mutex
{
public:Mutex(pthread_mutex_t* mutex):pmutex(mutex){}~Mutex(){}void Lock(){pthread_mutex_lock(pmutex);}void Unlock(){pthread_mutex_unlock(pmutex);}
private:pthread_mutex_t* pmutex;
};class LockGuard
{
public:LockGuard(pthread_mutex_t* mutex):_mutex(mutex){//在创建的时候,就自动上锁_mutex.Lock();}~LockGuard(){//销毁的时候,自动解锁_mutex.Unlock();}private:Mutex _mutex;
};
#include <iostream>
#include <stdlib.h>
#include <pthread.h>
#include <cstring>
#include <string>
class Thread{
public:typedef enum{NEW = 0,RUNNING,EXITED}ThreadStatus;typedef void* (*func_t)(void*);
public:Thread(int num,func_t func,void* args):_tid(0),_status(NEW),_func(func),_args(args){//名字由于还要接收用户给的编号,因此在构造函数内进行初始化char buffer[128];snprintf(buffer,sizeof(buffer),"thread-%d",num);_name = buffer;}~Thread(){}//返回线程的状态int status() {return _status;}//返回线程的名字std::string name() {return _name;}//返回线程的id//只有线程在运行的时候,才会有对应的线程idpthread_t GetTid(){if (_status == RUNNING){return _tid;}else{return 0;}}//类成员函数具有默认参数this//将其变为static静态函数,但是会有新的问题static void * ThreadRun(void* args){Thread* ts = (Thread*)args; //此时就获取到我们对象的指针// _func(args); //此时就无法回调相应的方法(成员函数无法直接被访问)(*ts)();return nullptr;}void operator()() //仿函数{//假如传进来的线程函数不为空,则调用相应的函数if(_func != nullptr) _func(_args);}//线程运行void Run(){//线程创建的参数有四个//int n = pthread_create(&_tid,nullptr,_func,_args);int n = pthread_create(&_tid,nullptr,ThreadRun,this);if(n != 0) exit(0);_status = RUNNING;}//线程等待void Join(){int n = pthread_join(_tid,nullptr);if (n != 0){std::cerr << "main thread join error :" << _name << std::endl;return;}_status = EXITED;}
private:pthread_t _tid; //线程idstd::string _name; //线程的名字func_t _func; //未来要回调的函数void*_args;ThreadStatus _status; //目前该线程的状态
};
现在需要编写的是Task.hpp这个文件,也就是我们创建的任务是什么
需要将对应的任务压入任务队列当中,并由我们创建的一批线程去自动执行
那Task类应该包含什么方法和成员呢?
设计的关键其实是搭配我们的线程池代码所使用,在线程池代码中,每个线程创建的时候,其实底层依旧是要调用我们的pthread_create函数,不管再怎么进行封装,只不过是需要上层传入相应的Thread_Routine方法而已.
一句话简单概括,线程创建的时候,依旧是用pthread_create函数进行创建,并需要我们传入相应的ThreadRoutine方法.
而我们的方法,就设置为取出任务队列里面的任务对象,让任务对象自己调用重载()运算符完成任务
它的本质其实就相当于我们多进程版本时编写的service函数,只不过当时是只有一个类,而现在是类与类之间进行交互
明白了这点后,其实Task类需要的成员和方法都非常明了
//Task.hpp
#pragma once
#include <iostream>
#include <string>
#include <unistd.h>
#include <functional>using cb_t = std::function<void(int, const std::string &, const uint16_t &)>;
class Task
{
public:// 无参构造Task(){}Task(int sock, const std::string &clientip, const uint16_t &clientport,cb_t sv): _sock(sock), _ip(clientip), _port(clientport), _sv(sv){}void operator()(){_sv(_sock, _ip, _port);}~Task(){}private:int _sock;std::string _ip;uint16_t _port;cb_t _sv;
};
然后Server.hpp的代码就可以修改为下面多线程的版本
#pragma once
#include <iostream>
#include <cstring>
#include <cstdlib>
#include <unistd.h>
#include <functional>
#include <signal.h>
#include <pthread.h>
#include <sys/wait.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include "err.hpp"
#include "ThreadPool.hpp"
#include "Log.hpp"
#include "daemon.hpp"// 线程池版本
namespace ns_server
{const static uint16_t default_port = 8080;static const int backlog = 32;using func_t = std::function<std::string(const std::string &)>;class tcp_Server;class Thread_Data{public:Thread_Data(int fd, const std::string &ip, const int16_t &port, tcp_Server *ts): _sock(fd), _clientip(ip), _clientport(port), _ts(ts){}public:int _sock;std::string _clientip;int16_t _clientport;tcp_Server *_ts;};class tcp_Server{public:tcp_Server(func_t func, uint16_t port = default_port): _func(func), _port(port), _quit(true){std::cout << "server addrs: " << _port << std::endl;}void InitServer(){// 1.创建socket接口,创建对应的网络文件_listensock = socket(AF_INET, SOCK_STREAM, 0);// 假如创建失败,if (_listensock < 0){std::cerr << "create socket err: " << strerror(errno) << std::endl;exit(SOCKET_ERR);}std::cout << "create socket success: " << _listensock << std::endl;// 2.绑定struct sockaddr_in local;bzero(&local, sizeof(local)); // 将结构体清零local.sin_family = AF_INET; // 确定协议家族local.sin_port = htons(_port); // 将端口号转成大端字节序// 云服务器,或者一款服务器,一般不要指明某一个确定的IP;本地安装的虚拟机,或者物理机器是允许的local.sin_addr.s_addr = INADDR_ANY; // 随机指定任意一个ipif (bind(_listensock, (struct sockaddr *)&local, sizeof(local))){std::cerr << "bind socket err: " << strerror(errno) << std::endl;exit(BIND_ERR);}std::cout << "bind socket success: " << _listensock << std::endl;// 3.监听if (listen(_listensock, backlog) < 0){std::cerr << "listen socket err: " << strerror(errno) << std::endl;exit(LISTEN_ERR);}std::cout << "listen socket success: " << _listensock << std::endl;}void Start(){_quit = false; // 不需要退出signal(SIGCHLD,SIG_IGN);// 服务器一旦启动,就一直死循环的进行下去while (!_quit){struct sockaddr_in client;socklen_t len = sizeof(client);// 4.获取连接int sock = accept(_listensock, (struct sockaddr *)&client, &len);if (sock < 0){std::cerr << "accept socket err: " << std::endl;continue; // 并不会有任何报错,只是会不断循环,尝试与用户端进行连接}// 提取client信息std::string clientip = inet_ntoa(client.sin_addr); // 将网络ip转成点分十进制字符串uint16_t clientport = ntohs(client.sin_port); // 网络字节序转成小端printf("获取新连接成功: %d from %d, who: %s - %d",sock,_listensock,clientip.c_str(),clientport);// 创建任务,并将任务压入任务队列Task t(sock, clientip, clientport, std::bind(&tcp_Server::service, this, std::placeholders::_1, std::placeholders::_2, std::placeholders::_3));ThreadPool<Task>::GetInstance()->PushTask(t); // 将任务压入任务队列当中}}// 线程要执行的方法static void *ThreadRoutine(void *args){pthread_detach(pthread_self()); // 子线程完成任务后,系统自动回收,父线程不用阻塞等待Thread_Data *td = static_cast<Thread_Data *>(args);td->_ts->service(td->_sock, td->_clientip, td->_clientport);delete td;return nullptr;}void service(int sock, const std::string &clientip, const uint16_t &clientport){std::string who = clientip + ":" + std::to_string(clientport);char buffer[1024]; // 创建一个缓冲区,用来存储数据while (true){ssize_t n = read(sock, buffer, sizeof(buffer) - 1); // 最后一个字符在C中默认为/0,预留一个位置if (n > 0) // 假如成功读取到数据{buffer[n] = 0; // 缓冲区最后一个字符,填充/0std::string message = _func(buffer);std::cout << who << ">> " << message << std::endl; //说明是谁发出的数据write(sock, message.c_str(), message.size()); // 往里面写数据}else if (n == 0){// 对方将连接关闭了std::cout << who << " quit, me too" << std::endl;break;}else{std::cerr << "read error: " << strerror(errno) << std::endl;break;}close(sock);}}~tcp_Server(){}private:int _listensock;uint16_t _port; // 端口号bool _quit; // 是否要运行func_t _func; // 处理信息函数};
}
日志组件添加
完成多线程版本改造后,还有没有地方可以进一步修改呢?
有的,就是我们的报错
在实际服务器端的报错,输出打印的内容,并不是我们现在打印的这么简单,而且要全部记录起来
从打印的内容角度看,除了要打印相应的内容,还需要对消息进行相应的分级(Lg.DEBUG 0 INFO 1 WARNING 2(告警,需要程序员注意一下) ERROR 3(一般错误,但不足以影响服务器继续运行) FATAL 4(不注意,会引发很严重的问题)等等),还有输出对应的时间,报错的地点在哪,输出该消息的时间等等
整体的输出格式应该是统一规整的,并有等级划分
日志等级 时间 文件 行 pid 消息提示
从记录的角度看,报错并不是直接打印到显示屏上这么简单,况且这么多任务,一下子全部打印到屏幕上,根本起不到调试的作用
报错记录,需要我们记录到对应的文件当中
对此,我们编写Log.hpp小组件,简单模拟日志组件,实际在工作中,日志组件会复杂的多,有几千行代码不等
#pragma once
#include <cstdio>
#include <iostream>
#include <cstring>
#include <unistd.h>
#include <ctime>
#include <stdarg.h>const std::string filename = "Log/tcp_server.log";
enum
{Debug = 0,Info,Warning,Error,Fatal,Uknown
};
std::string ConvertStrinig(int level)
{switch (level){case Debug:return "Debug";case Info:return "Info";case Warning:return "Warning";case Error:return "Error";case Fatal:return "Fatal";default:return "Uknown";}
}static std::string GetTime()
{time_t curr = time(nullptr);struct tm *ts = localtime(&curr);char buffer[1024];snprintf(buffer,sizeof(buffer),"%d-%d-%d %d-%d-%d",ts->tm_year + 1900, ts->tm_mon+1, ts->tm_mday,ts->tm_hour, ts->tm_min, ts->tm_sec);return buffer;
}// 日志格式: 日志等级 时间 pid 消息体
// logMessage(DEBUG, "hello: %d, %s", 12, s.c_str()); // DEBUG hello:12, world
void LogMessage(int level, const char *format, ...)
{char LogLeft[1024];std::string level_string = ConvertStrinig(level);std::string current_time = GetTime();snprintf(LogLeft,sizeof(LogLeft),"[%s] [%s] [%d]",level_string.c_str(),current_time.c_str(),getpid());char LogRight[1024];va_list p;va_start(p,format);vsnprintf(LogRight,sizeof(LogRight),format,p);va_end(p);//对应日志存储到文件当中FILE* fp = fopen(filename.c_str(),"a");if(fp == nullptr) return;fprintf(fp,"%s-%s\n",LogLeft,LogRight);fflush(fp); fclose(fp);
}
线程池版server.hpp就可以修改为如下形式
#pragma once
#include <iostream>
#include <cstring>
#include <cstdlib>
#include <unistd.h>
#include <functional>
#include <signal.h>
#include <pthread.h>
#include <sys/wait.h>
#include <sys/types.h>
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include "err.hpp"
#include "ThreadPool.hpp"
#include "Log.hpp"
#include "daemon.hpp"// 线程池版本
namespace ns_server
{const static uint16_t default_port = 8080;static const int backlog = 32;using func_t = std::function<std::string(const std::string &)>;class tcp_Server;class Thread_Data{public:Thread_Data(int fd, const std::string &ip, const int16_t &port, tcp_Server *ts): _sock(fd), _clientip(ip), _clientport(port), _ts(ts){}public:int _sock;std::string _clientip;int16_t _clientport;tcp_Server *_ts;};class tcp_Server{public:tcp_Server(func_t func, uint16_t port = default_port): _func(func), _port(port), _quit(true){std::cout << "server addrs: " << _port << std::endl;}void InitServer(){// 1.创建socket接口,创建对应的网络文件_listensock = socket(AF_INET, SOCK_STREAM, 0);// 假如创建失败,if (_listensock < 0){LogMessage(Fatal, "create socket err, code: %d,error string: %S", errno, strerror(errno));exit(SOCKET_ERR);}LogMessage(Info, "create socket success, code: %d,error string: %S", errno, strerror(errno));// 2.绑定struct sockaddr_in local;bzero(&local, sizeof(local)); // 将结构体清零local.sin_family = AF_INET; // 确定协议家族local.sin_port = htons(_port); // 将端口号转成大端字节序// 云服务器,或者一款服务器,一般不要指明某一个确定的IP;本地安装的虚拟机,或者物理机器是允许的local.sin_addr.s_addr = INADDR_ANY; // 随机指定任意一个ipif (bind(_listensock, (struct sockaddr *)&local, sizeof(local))){LogMessage(Fatal, "bind socket err, code: %d,error string: %S", errno, strerror(errno));exit(BIND_ERR);}std::cout << "bind socket success: " << _listensock << std::endl;// 3.监听if (listen(_listensock, backlog) < 0){LogMessage(Fatal, "listen socket err, code: %d,error string: %S", errno, strerror(errno));exit(LISTEN_ERR);}LogMessage(Info, "listen socket success, code: %d,error string: %S", errno, strerror(errno));}void Start(){_quit = false; // 不需要退出// signal(SIGCHLD,SIG_IGN);// 服务器一旦启动,就一直死循环的进行下去while (!_quit){struct sockaddr_in client;socklen_t len = sizeof(client);// 4.获取连接int sock = accept(_listensock, (struct sockaddr *)&client, &len);if (sock < 0){LogMessage(Warning, "accept socket err, code: %d,error string: %S", errno, strerror(errno));continue; // 并不会有任何报错,只是会不断循环,尝试与用户端进行连接}// 提取client信息std::string clientip = inet_ntoa(client.sin_addr); // 将网络ip转成点分十进制字符串uint16_t clientport = ntohs(client.sin_port); // 网络字节序转成小端LogMessage(Info, "获取新连接成功: %d from %d, who: %s - %d", sock, _listensock, clientip.c_str(), clientport);// 创建任务,并将任务压入任务队列Task t(sock, clientip, clientport, std::bind(&tcp_Server::service, this, std::placeholders::_1, std::placeholders::_2, std::placeholders::_3));ThreadPool<Task>::GetInstance()->PushTask(t); // 将任务压入任务队列当中}}// 线程要执行的方法static void *ThreadRoutine(void *args){pthread_detach(pthread_self()); // 子线程完成任务后,系统自动回收,父线程不用阻塞等待Thread_Data *td = static_cast<Thread_Data *>(args);td->_ts->service(td->_sock, td->_clientip, td->_clientport);delete td;return nullptr;}void service(int sock, const std::string &clientip, const uint16_t &clientport){std::string who = clientip + ":" + std::to_string(clientport);char buffer[1024]; // 创建一个缓冲区,用来存储数据while (true){ssize_t n = read(sock, buffer, sizeof(buffer) - 1); // 最后一个字符在C中默认为/0,预留一个位置if (n > 0) // 假如成功读取到数据{buffer[n] = 0; // 缓冲区最后一个字符,填充/0std::string message = _func(buffer);//说明是谁发出的数据LogMessage(Debug, "%s#%s", who.c_str(), message.c_str());write(sock, message.c_str(), message.size()); // 往里面写数据}else if (n == 0){// 对方将连接关闭了LogMessage(Debug, "%s quit, me too", who.c_str());break;}else{LogMessage(Error, "read error, %d:%s", errno, strerror(errno));break;}close(sock);}}~tcp_Server(){}private:int _listensock;uint16_t _port; // 端口号bool _quit; // 是否要运行func_t _func; // 处理信息函数};
}
守护进程
每个进程都有自己的进程PID,类似于我们工作时每个人都有自己的工作牌号
而除了PID外,每个进程还有自己的PGID(组ID),和SID(会话ID)
类比于我们在生活中实际还分属于不同的组,与不同的公司
从范围上来讲,会话>=进程组>=进程
会话(SID) ,与终端直接相关联,每在Xshell中打开一个新的终端,进程所属的SID都是不同的
组ID(PGID),一个任务,可能由有个进程来完成,PGID由创建出的多个进程中的第一个被创建的进程PID来确定!
控制进程组的指令
Jobs 查看后台任务
Fg(front ground)+任务编号 把后台任务拎到前台,进行执行
后台任务不能用Ctrl+c来终止,要输入Ctrl+z,此时就会将它放到后台任务中,但状态是停止
Bg+任务编号 把前台任务拎到后台,进行执行
站在用户角度,可以把一个进程组看作一个任务,这个任务可以由多个进程来完成
而对于一个进程组(任务)来说,我们可以把它看作前台进程(任务)与后台进程(任务)
在会话中只能有一个前台任务在跑,假如后台任务提到前台,则老的前台任务就无法运行
这就解释了为什么我们打开一个终端(新的会话),死循环打印某个语句(一个前台任务),此时bash是无法解释命令行(bash也是一个前台任务)
如果登录就是创建一个会话,对于bash而言,PID = SID = PGID
而启动我们的进程,就是在当前会话中创建新的前后台任务,那么如果我们退出呢?
销毁会话,很可能会影响会话内部的所有任务
所以一般网络服务器,为了不受到用户的登录注销的影响,网络服务器----都是以守护进程的方式进行运行!
通俗点讲,其实就是网络服务器程序自成一个会话
在系统接口函数中,也有将一个进程(任务),单独设置为一个任务的函数Setsid
pid_t setsid(void);
守护进程有四大任务需要完成
A.卸任公司的组长,保证自己不是公司的组长
B.忽略异常信号
C.文件描述符0,1,2要做特殊处理
D.进程的工作路径可能要更改
#pragma once#include <iostream>
#include <unistd.h>
#include <signal.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include "Log.hpp"
#include "err.hpp"void Daemon()
{// 忽略信号signal(SIGCHLD, SIG_IGN);signal(SIGPIPE, SIG_IGN);// 不要成为组长,以子进程方式向下运行if (fork() > 0){exit(0);}// child processpid_t ret = setsid();if (ret < 0){LogMessage(Fatal, "deamon error, code: %d, string: %s", errno, strerror(errno));exit(SETSID_ERR);}// 更改目录路径chdir("/");// 文件描述符0,1,2要做特殊处理,重定向至/dev/null文件中int fd = open("/dev/null", O_RDWR);if(fd < 0){LogMessage(Fatal, "open error, code: %d, string: %s", errno, strerror(errno));exit(OPEN_ERR);}dup2(fd,0);dup2(fd,1);dup2(fd,2);close(fd);
}
服务器初始化后,调用对应的Daemon函数,进行守护进程化即可.
//server.cc
#include "tcp_server.hpp"
#include <memory>
#include <cstdio>
using namespace ns_server;
using namespace std;//用户使用手册
static void Usage(string proc)
{std::cout << "Usage:\n\t" << proc << " serverport\n" << std::endl;
}//上层的业务处理
std::string echo(std::string request)
{return request;
}// ./udp_server port
int main(int argc,char* argv[])
{ //假如传入的参数不是两个,而不是指定了对应的端口号,则打出对应的使用列表,并退出if(argc != 2){Usage(argv[0]);exit(USAGE_ERR);}uint16_t port = atoi(argv[1]);unique_ptr<tcp_Server> tsrv(new tcp_Server(echo,port));tsrv->InitServer();Daemon(); //守护进程tsrv->Start();return 0;
}
此时,即便用户退出,服务器也会继续运行,并且提供的服务不会受到影响,一直会运行下去!
这就是为什么我们还能在半夜继续使用抖音,微博,微信等等各种软件,而不受影响的原因.