一、线程池的概念
线程池是一种管理线程使用的模式,尽管线程数量过多可能会增加调度成本,从而影响缓存的局部性和整体性能。线程池通过维护多个线程,准备好分配并行执行的任务,避免了短时任务处理中线程的创建和销毁成本。线程池不仅确保了内核资源的充分使用,还避免了过度调度。合理的线程数量应根据可用的并行处理器、处理器核心、内存和网络套接字等资源来确定。
二、线程池的应用场景
1. 完成任务需要大量线程,且任务完成时间较短。对于WEB服务器来说,完成如网页请求这类任务,采用线程池技术非常适宜。因为虽然单个任务体量小,但任务数量庞大,可以类比一个热门网站的点击率。然而,对于耗时较长的任务,例如Telnet连接请求,线程池的优势就不那么明显了,因为Telnet会话的持续时间远超过线程创建时间。
2. 对于对性能要求极高的应用,例如需要服务器快速响应客户端请求的情况。
3. 能够处理突发的大量请求,但不会因此而导致服务器生成大量线程的应用。在没有线程池的情况下,突发的大量客户请求可能会生成大量线程,尽管大多数操作系统理论上的线程数上限并不构成问题,但短时间内的大量线程生成可能会使内存达到极限,从而出现错误。
线程池的简单流程:
1. 创建固定数量线程池,循环从任务队列中获取任务对象
2. 获取到任务对象后,执行任务对象中的任务接口
三、线程池的简单实现
#pragma once#include<iostream>
#include <vector>
#include <string>
#include <queue>
#include <pthread.h>
#include <unistd.h>
#include "Task.hpp"struct threadinfo
{pthread_t tid;std::string name;
};template<class T>
class threadpool
{
public:void Lock(){pthread_mutex_lock(&_mutex);}void Unlock(){pthread_mutex_unlock(&_mutex);}void Thread_wakeup(){pthread_cond_signal(&_cond);}void Thread_sleep(){pthread_cond_wait(&_cond, &_mutex);}bool IsQueueEmpty(){return _tasks.empty();}std::string GetThreadName(pthread_t tid){for (const auto &ti : _threads){if (ti.tid == tid)return ti.name;}return "None";}
public:static void *handle(void *args){threadpool<T> *tp = static_cast<threadpool<T> *>(args);std::string name = tp->GetThreadName(pthread_self());while(true){tp->Lock();while(tp->IsQueueEmpty()){tp->Thread_sleep();}T temp = tp->Pop();tp->Unlock();temp();std::cout << name << " run, " << "result: " << temp.GetResult() << std::endl;}}void launch(){int n = _threads.size();for(int i = 0; i < n; i++){_threads[i].name = "thread-" + std::to_string(i + 1);pthread_create(&(_threads[i].tid), nullptr, handle, this);}}T Pop(){T t = _tasks.front();_tasks.pop();return t;}void Push(const T &t){Lock();_tasks.push(t);Thread_wakeup();Unlock();}threadpool(int n = 5):_threads(n){pthread_mutex_init(&_mutex, nullptr);pthread_cond_init(&_cond, nullptr);}~threadpool(){pthread_mutex_destroy(&_mutex);pthread_cond_destroy(&_cond);}private:std::vector<threadinfo> _threads;std::queue<Task> _tasks;pthread_mutex_t _mutex;pthread_cond_t _cond;};