目录
一、TCP网络程序
1.1 服务端初始化
1.1.1 创建套接字
1.1.2 服务端绑定
1.1.3 服务端监听
1.2 服务端启动
1.2.1 服务端获取连接
1.2.2 服务端处理请求
1.3 客户端初始化
1.4 客户端启动
1.4.1 发起连接
1.4.2 发起请求
1.5 网络测试
1.6 单执行流服务端的弊端
二、多进程版TCP网络程序
2.1 存在问题
2.2 捕捉SIGCHLD信号
2.3 孙子进程提供服务
三、多线程版TCP网络程序
四、线程池版TCP网络程序
TCP服务器在调用socket函数创建套接字时,参数设置如下:
若创建套接字后获得的文件描述符是小于0,则套接字创建失败,此时就没必要进行后续操作,直接终止程序即可
class TcpServer
{
public:
void InitSrever();
~TcpServer();
private:
int _socket_fd;
};
void TcpServer::InitSrever()
{
//创建套接字
_socket_fd = socket(AF_INET, SOCK_STREAM, 0);
if(_socket_fd < 0) {
cerr << "socket fail" << endl;
exit(1);
}
cout << "socket success" << endl;
}
TcpServer::~TcpServer() { if(_socket_fd >= 0) close(_socket_fd); }
套接字创建完毕后只是在系统层面上打开了一个文件,该文件并没有与网络关联,因此创建完套接字后还需要调用bind函数进行绑定操作
绑定的步骤如下:
TCP服务器初始化时需要服务器的端口号,因此在服务器类中需要引入端口号,当实例化服务器对象时就需传入一个端口号。而由于当前使用的是云服务器,因此在绑定TCP服务器的IP地址时不绑定公网IP地址,直接绑定INADDR_ANY即可,因此下面代码中没有在服务器类中引入IP地址
class TcpServer
{
public:
TcpServer(uint16_t port):_socket_fd(-1),_server_port(port) {}
void InitSrever();
~TcpServer();
private:
int _socket_fd;
uint16_t _server_port;
};
void TcpServer::InitSrever()
{
//创建套接字
_socket_fd = socket(AF_INET, SOCK_STREAM, 0);
if(_socket_fd < 0) {
cerr << "socket fail" << endl;
exit(1);
}
cout << "socket success" << endl;
//绑定
struct sockaddr_in local;
memset(&local, '\0', sizeof local);
local.sin_family = AF_INET;
local.sin_port = htons(_server_port);
local.sin_addr.s_addr = INADDR_ANY;
if(bind(_socket_fd, (struct sockaddr*)&local, sizeof local) < 0) {
cerr << "bind fail" << endl;
exit(2);
}
cout << "bind success" << endl;
}
UDP服务器的初始化操作只有两步,创建套接字和绑定。而TCP服务器是面向连接的,客户端在正式向TCP服务器发送数据之前,需要先与TCP服务器建立连接,然后才能与服务器进行通信
因此TCP服务器需要时刻注意是否有客户端发来连接请求,此时就需要将TCP服务器创建的套接字设置为监听状态
int listen(int sockfd, int backlog);
返回值:监听成功返回0,监听失败返回-1,同时errno被设置
服务器监听代码实现
若监听失败没必要进行后续操作,因为监听失败意味着TCP服务器无法接收客户端发来的连接请求,直接终止程序即可
void TcpServer::InitSrever()
{
//创建套接字
_socket_fd = socket(AF_INET, SOCK_STREAM, 0);
if(_socket_fd < 0) {
cerr << "socket fail" << endl;
exit(1);
}
cout << "socket success" << endl;
//绑定
struct sockaddr_in local;
memset(&local, '\0', sizeof local);
local.sin_family = AF_INET;
local.sin_port = htons(_server_port);
local.sin_addr.s_addr = INADDR_ANY;
if(bind(_socket_fd, (struct sockaddr*)&local, sizeof local) < 0) {
cerr << "bind fail" << endl;
exit(2);
}
cout << "bind success" << endl;
//设置服务器监听状态
if(listen(_socket_fd, BACKLOG) < 0) {
cerr << "listen fail" << endl;
exit(3);
}
cout << "listen success" << endl;
}
class TcpServer
{
public:
TcpServer(uint16_t port):_socket_listen_fd(-1),_server_port(port) {}
void InitSrever();
~TcpServer();
private:
int _socket_listen_fd;
uint16_t _server_port;
};
TCP服务器初始化后即可开始运行,但TCP服务端在与客户端网络通信前,服务端需先获取到客户端的连接请求
int accept(int sockfd, struct sockaddr *addr, socklen_t *addrlen);
返回值:获取连接成功则返回接收到的套接字的文件描述符,失败返回-1,同时错误码被设置
accept函数返回的套接字是什么?
调用accept函数获取连接时,是从监听套接字中获取的。若accept函数获取连接成功,此时会返回接收到的套接字对应的文件描述符
监听套接字与accept函数返回的套接字的作用:
服务端获取连接代码实现
void TcpServer::StartUp()
{
//获取连接
while(true)
{
struct sockaddr_in foreign;
memset(&foreign, '\0', sizeof foreign);
socklen_t length = sizeof foreign;
int server_socket_fd = accept(_socket_listen_fd, (struct sockaddr*)&foreign, &length);
if(server_socket_fd < 0) {
cerr << "accept fail" << endl;
continue;
}
string client_ip = inet_ntoa(foreign.sin_addr);
uint16_t client_port = ntohs(foreign.sin_port);
cout << "New Link: [" << server_socket_fd << "] [" << client_ip << "] [" << client_port << "]" << endl;
}
}
TCP服务器已能够获取连接请求,接下来要对获取到的连接进行处理。为客户端提供服务的不是监听套接字,因为监听套接字获取到一个连接后会继续获取下一个请求连接,为对应客户端提供服务的套接字实际是accept函数返回的套接字,下面就将其称为"服务套接字"
为了让通信双方都能看到对应的现象,下面实现一个回声TCP服务器,服务端在为客户端提供服务时将客户端发来的数据进行输出,并且将客户端发来的数据重新发回给客户端即可。当客户端拿到服务端的响应数据后将该数据进行打印输出,此时就能确保服务端和客户端能够正常通信了
read函数
ssize_t read(int fd, void *buf, size_t count);
若客户端将连接关闭了,那么此时服务端将套接字中的信息读完后就会读取到0,因此若服务端调用read函数后的返回值为0,此时服务端就不必再为该客户端提供服务了
write函数
ssize_t write(int fd, const void *buf, size_t count);
写入成功返回实际写入的字节数,写入失败返回-1,同时错误码会被设置
当服务端调用read函数收到客户端的数据后,就可以再调用write函数将该数据再响应给客户端
服务端处理请求代码实现
服务端读取数据是服务套接字中读取的,写入数据的时候也是写入进服务套接字。服务套接字既可以读取数据也可以写入数据,这就是TCP全双工的通信的体现
在从服务套接字中读取客户端发来的数据时,若调用read函数后得到的返回值为0,或者读取出错了,此时就应该直接将服务套接字对应的文件描述符关闭。因为文件描述符本质就是数组的下标,因此文件描述符的资源是有限的,若一直占用,那么可用的文件描述符就会越来越少,因此服务完客户端后要及时关闭对应的文件描述符,否则会导致文件描述符泄漏
void TcpServer::StartUp()
{
while(true)
{
//获取连接
struct sockaddr_in foreign;
memset(&foreign, '\0', sizeof foreign);
socklen_t length = sizeof foreign;
int server_socket_fd = accept(_socket_listen_fd, (struct sockaddr*)&foreign, &length);
if(server_socket_fd < 0) {
cerr << "accept fail" << endl;
continue;
}
string client_ip = inet_ntoa(foreign.sin_addr);
uint16_t client_port = ntohs(foreign.sin_port);
cout << "New Link: [" << server_socket_fd << "] [" << client_ip << "] [" << client_port << "]" << endl;
//处理客户端请求
Service(server_socket_fd, client_ip, client_port);
}
}
void TcpServer::Service(int server_socket_fd, string client_ip, uint16_t client_port)
{
char buffer[BUFF_SIZE];
while(true)
{
ssize_t size = read(server_socket_fd, buffer, sizeof(buffer) - 1);
if(size > 0) //读取成功
{
buffer[size] = '\0';
cout << buffer << endl;
write(server_socket_fd, buffer, size);
}
else if(size == 0) //对端关闭连接
{
cout << client_ip << ":" << client_port << " close" << endl;
break;
}
else //读取失败
{
cerr << server_socket_fd << " read error" << endl;
break;
}
}
close(server_socket_fd);
cout << client_ip << ":" << client_port << "server done" << endl;
}
创建套接字
客户端不需要进行绑定和监听:
客户端必须要知道要连接的服务端的IP地址和端口号,因此客户端除了要有自己的套接字之外,还需要知道服务端的IP地址和端口号,这样客户端才能够通过套接字向指定服务器进行通信
class TcpClient
{
public:
TcpClient(string ip, uint16_t port):_socket_fd(-1),_server_ip(ip),_server_port(port) {}
void InitClient();
~TcpClient();
private:
int _socket_fd;
string _server_ip;
uint16_t _server_port;
};
void TcpClient::InitClient()
{
//创建套接字
_socket_fd = socket(AF_INET, SOCK_STREAM, 0);
if(_socket_fd < 0) {
cerr << "socket fail" << endl;
exit(1);
}
}
TcpClient::~TcpClient() { if(_socket_fd >= 0) close(_socket_fd); }
客户端不需要绑定,也不需要监听,客户端创建完套接字后可直接向服务端发起连接请求
connect函数
int connect(int sockfd, const struct sockaddr *addr, socklen_t addrlen);
返回值:连接或绑定成功返回0,连接失败返回-1,同时错误码会被设置
客户端连接服务器代码
客户端不是不需要进行绑定,而是不需要程序员手动进行绑定操作,当客户端向服务端发起连接请求时,系统会给客户端随机指定一个空闲端口号进行绑定。因为通信双方都必须要有IP地址和端口号,否则无法唯一标识通信双方。若connect函数调用成功了,客户端本地会随机给该客户端绑定一个端口号发送给对端服务器
调用connect函数向服务端发起连接请求时,需要传入服务端对应的网络信息,否则connect函数也不知道该客户端到底是要向哪一个服务端发起连接请求
void TcpClient::StartUp()
{
//发起连接
struct sockaddr_in server;
memset(&server, '\0', sizeof server);
server.sin_family = AF_INET;
server.sin_addr.s_addr = inet_addr(_server_ip.c_str());
server.sin_port = htons(_server_port);
if(connect(_socket_fd, (struct sockaddr*)&server, sizeof(server)) == 0) {
cout << "connect success" << endl;
Request(); //发起请求
}
else {
cerr << "connect fail" << endl;
exit(2);
}
}
当客户端连接到服务端后,客户端就可以向服务端发送数据了,可以让客户端将用户输入的数据发送给服务端,发送时调用send函数向套接字当中写入数据即可
当客户端将数据发送给服务端后,由于服务端读取到数据后还会进行回显,因此客户端在发送数据后还需要调用recv函数读取服务端的响应数据,然后将该响应数据进行打印,以确定双方通信无误
void TcpClient::Request()
{
char buffer[BUFF_SIZE];
string message;
while(true)
{
cout << "Pleses Entre#";
getline(cin, message);
send(_socket_fd, message.c_str(), message.size(), 0);
ssize_t size = recv(_socket_fd, buffer, sizeof(buffer) - 1, 0);
if (size > 0){
buffer[size] = '\0';
cout << "server echo# " << buffer << endl;
}
else if (size == 0) {
cout << "server close!" << endl;
break;
}
else {
cerr << "read error!" << endl;
break;
}
}
}
通过服务端的IP地址和端口号即可构造出一个客户端对象
void Usage(std::string proc)
{
cout << "Usage: " << proc << "server_ip server_port" << endl;
}
int main(int argc, char* argv[])
{
if (argc != 3) {
Usage(argv[0]);
exit(1);
}
string server_ip = argv[1];
int server_port = atoi(argv[2]);
TcpClient* client = new TcpClient(server_ip, server_port);
client->InitClient();
client->StartUp();
return 0;
}
服务端和客户端均已编写完毕,下面进行网络测试。测试时先启动服务端,然后使用 netstat 命令进行查看,此时能看到 ./server 服务进程,该进程当前处于监听状态
然后再通过 ./client IP号 端口号 的形式运行客户端,此时客户端就会向服务端发起连接请求,服务端获取到请求后就会为该客户端提供服务
当客户端向服务端发送消息后,服务端可以通过打印的IP地址和端口号识别出对应的客户端,而客户端也可以通过服务端响应回来的消息来判断服务端是否收到了自己发送的消息
若此时客户端退出了,那么服务端调用read函数时返回值就为0,此时服务端就知道客户端退出了,进而会终止对该客户端的服务
此时服务端对该客户端的服务终止了,但服务器并没有终止,依旧在运行,等待下一个客户端的连接请求
当仅用一个客户端连接服务端时,该客户端能够正常享受到服务端的服务
但在这个客户端正在享受服务端的服务时,另一个客户端也连接服务器,此时虽然在客户端显示连接是成功的,服务端并没有显示有新的连接,并且这个客户端发送给服务端的消息既没有在服务端进行打印,服务端也没有将该数据回显给该客户端
第一个客户端退出后,服务端才会将第二个客户端发来的数据进行打印,并回显给第二个客户端
单执行流的服务端
通过上图可以看出,服务端只有服务完一个客户端后才会服务另一个客户端。因为目前所写的是一个单执行流版的服务器
当服务端调用accept函数获取到连接后就给该客户端提供服务,但在服务端提供服务期间可能会有其他客户端发起连接请求,但服务完当前客户端后才会accept下一个客户端的连接请求,导致服务端一次只能为一个客户端提供服务
客户端为什么会显示连接成功?
当服务端在给第一个客户端提供服务期间,第二个客户端向服务端发起的连接请求时是成功的,只不过服务端没有调用accept函数将该连接获取
实际在底层会维护一个连接队列,服务端没有accept的新连接就会放到这个连接队列中,而这个连接队列的最大长度就是通过listen函数的第二个参数来指定的,因此服务端虽然没有获取第二个客户端发来的连接请求,但是在第二个客户端那里显示是连接成功的
解决方案
单执行流的服务器一次只能给一个客户端提供服务,此时服务器的资源并没有得到充分利用,因此服务端一般是不会编写成单执行流的。要解决这个问题就需要将服务器改为多执行流的,此时就要引入多进程或多线程
当服务端调用accept函数获取到新连接后不是由当前执行流为该连接对应的客户端提供服务,而是当前执行流调用fork函数创建子进程,子进程为父进程获取到的连接提供服务
由于父子进程是两个不同的执行流,当父进程调用fork创建出子进程后,父进程就可以继续从监听套接字中获取新连接,而不用关心获取上来的连接对应的客户端是否服务完毕
子进程继承父进程的文件描述符表
文件描述符表是隶属于一个进程的,子进程创建后会继承父进程的文件描述符表。如父进程打开了一个文件,该文件对应的文件描述符是3,子进程的3号文件描述符也会指向这个打开的文件,若子进程再创建一个子进程,那么孙子进程的3号文件描述符也同样会指向这个打开的文件
当父进程创建子进程后,父子进程之间保持独立性,此时父进程文件描述符表的变化不会影响子进程。譬如,父子进程在使用匿名管道进行通信时,父进程先调用pipe函数得到两个文件描述符,一个是管道读端的文件描述符,一个是管道写端的文件描述符,此时父进程创建出来的子进程就会继承这两个文件描述符,之后父子进程一个关闭管道的读端,另一个关闭管道的写端,这时父子进程文件描述符表的变化是不会相互影响的,此后父子进程就可以通过这个管道进行单向通信了
对于套接字文件也是一样的,父进程创建的子进程也会继承父进程的套接字文件,此时子进程就能够对特定的套接字文件进行读写操作,进而完成对对应客户端的服务
等待子进程问题
当父进程创建出子进程后,父进程是需要等待子进程退出的,否则子进程会变成僵尸进程,进而造成内存泄漏。因此服务端创建子进程后需要调用wait或waitpid函数对子进程进行等待
阻塞式等待与非阻塞式等待:
服务端要等待子进程退出,无论采用阻塞式等待还是非阻塞式等待,都不尽人意。此时可以考虑让服务端不等待子进程退出的方案
当子进程退出时会给父进程发送SIGCHLD信号,若父进程将SIGCHLD信号进行捕捉,并将该信号的处理动作设置为忽略,此时父进程可以继续从监听套接字中获取新连接
该方案实现较为简单,较为推荐
void TcpServer::StartUp()
{
//设置忽略SIGCHLD信号
signal(SIGCHLD, SIG_IGN);
while(true)
{
//获取连接
struct sockaddr_in foreign;
memset(&foreign, '\0', sizeof foreign);
socklen_t length = sizeof foreign;
int server_socket_fd = accept(_socket_listen_fd, (struct sockaddr*)&foreign, &length);
if(server_socket_fd < 0) {
cerr << "accept fail" << endl;
continue;
}
string client_ip = inet_ntoa(foreign.sin_addr);
uint16_t client_port = ntohs(foreign.sin_port);
cout << "New Link: [" << server_socket_fd << "] [" << client_ip << "] [" << client_port << "]" << endl;
//处理客户端请求
pid_t id = fork();
if(id == 0) { //child
Service(server_socket_fd, client_ip,client_port);
exit(4);
}
}
}
网络测试
重新编译程序运行服务端后,可以通过以下监控脚本对服务进程进行监控
while :; do ps axj | head -1 && ps axj | grep tcp_server | grep -v grep;echo "######################";sleep 1;done
一开始没有客户端连接该服务器,此时服务进程只有一个,该服务进程就是不断获取新连接的进程,而获取到新连接后也是由该进程创建子进程为对应客户端提供服务的
此时启动一个客户端,让该客户端连接服务器,此时服务进程就会调用fork函数创建出一个子进程,由该子进程为这个客户端提供服务
若再有一个客户端连接服务器,此时服务进程会再创建出一个子进程,为这个客户端提供服务
这两个客户端分别由两个不同的执行流提供服务,因此这两个客户端可以同时享受到服务,发送给服务端的数据都能够在服务端输出,并且服务端对两个客户端的数据都会进行响应
当客户端陆续退出后,在服务端对应为之提供服务的子进程也会退出,但无论如何服务端都至少会有一个服务进程,这个服务进程的任务就是不断获取新连接
爸爸进程创建完孙子进程后立刻退出,此时服务进程(爷爷进程)调用wait/waitpid函数等待爸爸进程就能立刻等待成功,此时孙子进程变成孤儿进程被1号进程领养,此后服务进程就能继续调用accept函数获取其他客户端的连接请求。不需要处理孙子进程,其资源由系统释放
关闭对应的文件描述符
服务进程(爷爷进程)调用accept函数获取到新连接后,会让孙子进程为该连接对应的服务端提供服务,此时服务进程已经将文件描述符表继承给了爸爸进程,而爸爸进程又会调用fork函数创建出孙子进程,然后再将文件描述符表继承给孙子进程
而父子进程创建后,其各自的文件描述符表是独立的,不会相互影响。因此服务进程在调用fork函数后,服务进程就不需要再关心刚才从accept函数获取到的文件描述符了,此时服务进程就可以调用close函数将该文件描述符进行关闭
对于爸爸进程和孙子进程来说,是不需要关心从服务进程(爷爷进程)继承下来的监听套接字的,因此服务进程可以将监听套接字关掉
void TcpServer::StartUp()
{
while(true)
{
//获取连接
struct sockaddr_in foreign;
memset(&foreign, '\0', sizeof foreign);
socklen_t length = sizeof foreign;
int server_socket_fd = accept(_socket_listen_fd, (struct sockaddr*)&foreign, &length);
if(server_socket_fd < 0) {
cerr << "accept fail" << endl;
continue;
}
string client_ip = inet_ntoa(foreign.sin_addr);
uint16_t client_port = ntohs(foreign.sin_port);
cout << "New Link: [" << server_socket_fd << "] [" << client_ip << "] [" << client_port << "]" << endl;
//处理客户端请求
pid_t id = fork();
if(id == 0) { //爸爸进程
close(_socket_listen_fd);//关闭监听套接字
if(fork() > 0) exit(4);//服务进程子进程直接退出
//孙子进程处理
Service(server_socket_fd, client_ip,client_port);
exit(5);
}
close(server_socket_fd);//服务进程关闭连接客户端时获取的文件描述符
waitpid(id, nullptr, WNOHANG);//等待爸爸进程,立即成功
}
}
网络测试
while :; do ps axj | head -1 && ps axj | grep tcp_server | grep -v grep;echo "######################";sleep 1;done
此时没有客户端连接服务器,只监控到一个服务进程,该服务进程正在等待客户端的连接请求
此时启动一个客户端,让该客户端连接服务端,此时服务进程会创建出爸爸进程,爸爸进程再创建出孙子进程,之后爸爸进程就会立刻退出,而由孙子进程为客户端提供服务。所以只看到了两个服务进程,其中一个是一开始用于获取连接的服务进程,还有一个就是孙子进程,该进程为当前客户端提供服务,其PPID为1,表明这是一个孤儿进程
启动第二个客户端连接服务器后,就又会创建出一个孤儿进程为该客户端提供服务
两个客户端是由两个不同的孤儿进程提供服务的,因此是能够同时享受服务的,可以看到这两个客户端发送给服务端的数据都能够在服务端输出,并且服务端也会对这两个客户端的数据进行响应
当客户端全部退出后,对应为客户端提供服务的孤儿进程也会跟着退出,这时这些孤儿进程会被系统回收,而最终剩下那个获取连接的服务进程
创建进程的成本是很高的,创建进程时需要创建该进程对应的进程控制块(task_struct)、进程地址空间(mm_struct)、页表等结构。而创建线程的成本比创建进程的成本会小得多,因为线程本质是在进程地址空间内运行,创建出来的线程会共享该进程的大部分资源,因此在实现多执行流的服务器时最好采用多线程进行实现
服务进程调用accept函数获取到一个新连接后,可创建一个线程,让该线程为对应客户端提供服务
主线程创建出新线程后,也是需要等待新线程退出回收资源的,否则也会造成资源浪费的问题。但对于线程来说,若不想让主线程等待新线程退出,可以让创建出来的新线程调用pthread_detach函数进行线程分离,当这个线程退出时系统会自动回收该线程所对应的资源。此时主线程就可以继续调用accept函数获取新连接,而让新线程去服务对应的客户端
各个线程共享同一张文件描述符表
文件描述符表维护的是进程与文件之间的对应关系,因此一个进程对应一张文件描述符表。而主线程创建出来的新线程依旧属于这个进程,因此创建线程时并不会为该线程创建独立的文件描述符表,所有的线程看到的都是同一张文件描述符表
当主线程调用accept函数获取到一个文件描述符后,新线程是能够直接访问这个文件描述符的
虽然新线程能够直接访问主线程accept上来的文件描述符,但此时新线程并不知道其所服务的客户端对应的是哪一个文件描述符,因此主线程创建新线程后需要告诉新线程对应应该访问的文件描述符,即告诉每个新线程在服务客户端时,应该对哪一个套接字进行操作
参数结构体
实际新线程在为客户端提供服务时调用Service函数,而调用Service函数时是需要传入三个参数的,分别是客户端对应的套接字、IP地址和端口号。因此主线程创建新线程时需要给新线程传入三个参数,而实际在调用pthread_create函数创建新线程时,只能传入一个类型为void*的参数
这时可以设计一个参数结构体ThreadDate,这三个参数可以存放到ThreadDate结构体中,当主线程创建新线程时就可以定义一个ThreadDate对象,将客户端对应的套接字、IP地址和端口号设置进这个ThreadDate对象中,然后将Param对象的地址作为新线程执行例程的参数进行传入
此时新线程在执行例程当中再将这个void*类型的参数强转为Param*类型,然后就能够拿到客户端对应的套接字,IP地址和端口号,进而调用Service函数为对应客户端提供服务
class ThreadDate
{
public:
ThreadDate(int fd, string ip,uint16_t port):_server_socket_fd(fd),_client_ip(ip),_client_port(port) {}
~ThreadDate() {}
public:
int _server_socket_fd;//accept获取连接得到文件描述符,用于服务
string _client_ip;
uint16_t _client_port;
};
文件描述符关闭的问题
所有线程看到的都是同一张文件描述符表,因此当某个线程要对文件描述符表做某种操作时,不仅要考虑当前线程,还要考虑其他线程。
Service函数定义为静态成员函数
由于调用pthread_create函数创建线程时,新线程的执行例程是一个参数为void*,返回值为void*的函数。若要将这个执行例程定义到类内,就需要将其定义为静态成员函数,否则这个执行例程的第一个参数是隐藏的this指针
在线程的执行例程中会调用Service函数,由于执行例程是静态成员函数,静态成员函数无法调用非静态成员函数,因此需要将Service函数定义为静态成员函数,恰好Service函数内部进行的操作都不涉及类内数据的修改,因此直接在Service函数前面加上一个static即可
class TcpServer
{
public:
TcpServer(uint16_t port):_socket_listen_fd(-1),_server_port(port) {}
void InitServer();
void StartUp();
static void Service(int, string, uint16_t);
~TcpServer();
private:
int _socket_listen_fd;
uint16_t _server_port;
};
void TcpServer::StartUp()
{
while(true)
{
//获取连接
struct sockaddr_in foreign;
memset(&foreign, '\0', sizeof foreign);
socklen_t length = sizeof foreign;
int server_socket_fd = accept(_socket_listen_fd, (struct sockaddr*)&foreign, &length);
if(server_socket_fd < 0) {
cerr << "accept fail" << endl;
continue;
}
string client_ip = inet_ntoa(foreign.sin_addr);
uint16_t client_port = ntohs(foreign.sin_port);
cout << "New Link: [" << server_socket_fd << "] [" << client_ip << "] [" << client_port << "]" << endl;
//处理客户端请求
ThreadDate* ptr = new ThreadDate(server_socket_fd, client_ip, client_port);
pthread_t thread_id;
pthread_create(&thread_id, nullptr, HandlerClient, (void*)ptr);
/*应将ThreadDate数据开辟在堆区,若开辟在主线程栈区,主线程循环accept并处理客户端请求时,会修改TheadDate内数据*/
}
}
void* TcpServer::HandlerClient(void* args)
{
pthread_detach(pthread_self());//线程分离,资源由系统回收
ThreadDate* ptr = (ThreadDate*)args;
Service(ptr->_server_socket_fd, ptr->_client_ip, ptr->_client_port);
delete ptr;
return nullptr;
}
网络测试
监控时使用的不再是 ps -axj 命令,而是 ps -aL 命令
while :; do ps -aL|head -1&&ps -aL|grep tcp_server;echo "####################";sleep 1;done
启动服务端,通过监控发现此时只有一个服务线程(主线程),现在在等待客户端的连接请求
当一个客户端连接到服务端后,此时主线程就会为该客户端构建一个参数结构体,然后创建一个新线程,将该参数结构体的地址作为参数传递给这个新线程,此时该新线程就能够从这个参数结构体中提取出对应的参数,然后调用Service函数为该客户端提供服务,因此在监控中显示了两个线程
当第二个客户端发来连接请求时,主线程会进行相同的操作,最终再创建出一个新线程为该客户端提供服务,此时就有了三个线程
由于为这两个客户端提供服务的是两个不同的执行流,因此这两个客户端可同时享受服务端提供的服务,发送给服务端的消息都能够在服务端打印,并且这两个客户端都能够收到服务端的回显数据
此时无论有多少个客户端发来连接请求,在服务端都会创建出相应数量的新线程为对应客户端提供服务,而当客户端一个个退出后,为其提供服务的新线程也就会相继退出,最终就只剩下主线程在等待新连接的到来
单纯多线程存在的问题
解决方案
引入线程池
要解决问题就需在服务端引入线程池,线程池的存在就是为了避免处理短时间任务时创建与销毁线程的代价,还能够保证内核充分利用,防止过分调度(调度周期过长)
在线程池中存在一个任务队列,当有新的任务到来的时候,就可以将任务Push到线程池中,在线程池中默认创建10个线程,这些线程不断检测任务队列中是否有任务,若有任务就取出任务,然后调用该任务对应的Run函数对该任务进行处理,若线程池中没有任务当前线程就会进入休眠状态
下面直接将线程池的代码接入到当前的TCP服务器,下面只会讲解线程池接入的方法,若对线程池的实现有疑问的可以去阅读博主的博客《理解与实现线程池》
理解与实现线程池https://blog.csdn.net/GG_Bruse/article/details/129616793
服务类新增线程池成员
服务端引入线程池,因此在服务类中需要新增一个指向线程池的指针成员:
实际上就是一个生产者消费者模型,其中服务进程就作为了任务的生产者,而后端线程池中的若干线程就不断从任务队列当中获取任务进行处理,承担的就是消费者的角色,其中生产者和消费者的交易场所就是线程池中的任务队列
class TcpServer
{
public:
TcpServer(uint16_t port):_socket_listen_fd(-1),_server_port(port),_thread_pool(ThreadPool::GetThreadPool()) {}
void InitServer();
void StartUp();
static void* HandlerClient(void*);
static void Service(int, string, uint16_t);
~TcpServer();
private:
int _socket_listen_fd;
uint16_t _server_port;
unique_ptr> _thread_pool;
};
void TcpServer::StartUp()
{
_thread_pool->Run();//启动线程池
while(true)
{
//获取连接
struct sockaddr_in foreign;
memset(&foreign, '\0', sizeof foreign);
socklen_t length = sizeof foreign;
int server_socket_fd = accept(_socket_listen_fd, (struct sockaddr*)&foreign, &length);
if(server_socket_fd < 0) {
cerr << "accept fail" << endl;
continue;
}
string client_ip = inet_ntoa(foreign.sin_addr);
uint16_t client_port = ntohs(foreign.sin_port);
cout << "New Link: [" << server_socket_fd << "] [" << client_ip << "] [" << client_port << "]" << endl;
//构造任务并推送到任务队列中
Task task(server_socket_fd, client_ip, client_port, Service);
_thread_pool->PushTask(task);
}
}
设计任务类
该任务类中需要包含accept客户端对应的套接字、IP地址、端口号,表示该任务是为哪一个客户端提供服务,对应操作的套接字是哪一个
任务类中需包含一个仿函数方法,当线程池中的线程取到任务后就会直接调用仿函数对该任务进行处理,而实际处理这个任务的方法是服务类中的Service函数,服务端就是通过调用Service函数为客户端提供服务的
typedef void(*fun_t)(int, std::string, uint16_t);
class Task
{
public:
Task() {}
Task(int sock, std::string client_ip, int client_port, fun_t handler) : _server_socket_fd(sock)
, _client_ip(client_ip), _client_port(client_port), _handler(handler) {}
//任务处理函数
void operator()(const std::string& name) {
_handler(_server_socket_fd, _client_ip, _client_port);
}
private:
int _server_socket_fd;
std::string _client_ip;
uint16_t _client_port;
fun_t _handler;
};
实际可以让服务器处理不同的任务,当前服务器只是在进行字符串的回显处理,而实际要怎么处理这个任务完全是由任务类中的_handler成员来决定的
若想要让服务器处理其他任务,只需要修改()的重载函数就行了,而服务器的初始化、启动服务器以及线程池的代码都是不需要更改的,这被称为把通信功能和业务逻辑在软件上做解耦
网络测试
while :; do ps -aL|head -1&&ps -aL|grep tcp_server;echo "####################";sleep 1;done
运行服务端后,就算没有客户端发来连接请求,此时在服务端就已经有了11个线程,其中有一个是接收新连接的服务线程,而其余的5个是线程池中为客户端提供服务的线程
当客户端连接服务器后,服务端的主线程就会获取该客户端的连接请求,并将其封装为一个任务对象后放入任务队列,此时线程池中的10个线程就会有一个线程从任务队列当中获取到该任务,并执行该任务的处理函数为客户端提供服务
当第二个客户端发起连接请求时,服务端也会将其封装为一个任务类放入任务队列,然后线程池中的线程再从任务队列中获取到该任务进行处理,此时也是不同的执行流为这两个客户端提供的服务,因此这两个客户端是能够同时享受服务的
无论有多少客户端发来请求,在服务端都只会有线程池中的10个线程为之提供服务,线程池中的线程个数不会随着客户端连接的增多而增多,这些线程也不会因为客户端的退出而退出
线程池版TCP程序https://github.com/GG-Bruse/BaoLinux/tree/master/code/socket/TCP/TCP_ThreadPool