From: http://blog.csdn.net/lsfa1234/article/details/6223635
高性能并发TCP网络服务IOCP框架修正VC2008版本
从Source Code里可发现,此工程整合的epoll,iocp及kqueue三种模型,应该是非常有用的一个东东(如果ACE能够把它的那些封装出来的每个东东都独立出来就太好了),但由于时间关系未经测试。等测试OK,再来Update具体状况。
点击浏览该文件
高并发TCP网络服务框架用Windows的IOCP、Linux的epoll、FreeBSD的kqueue写了一个支持高并发、多CPU、跨平台的TCP网络服务框架。测试下载netfrm.v2.rar,解压缩得到netfrm.v2目录,里面有netfrm.v2.vcproj和src目录。测试代码在src/main.cpp。
#include 
 #include "./lance/ldebug.h" 
 #include "./lance/tcpsrv.hpp" 
 #include "./lance/systm.h" 
 class MyClient : public lance::net::Client {
 public: void OnConnect() { printf("OnConnect: fd=x, ip=%d, port=%d//n", fd, ip, port); recv(data, 255); }
 public: void OnDisconnect() { printf("OnDisconnect: fd=x, ip=%d, port=%d//n", fd, ip, port); } 
 public: void OnRecv(int len) { data[len] = 0x00; printf("OnRecv: fd=x, data=%s//n", fd, data); if (data[0] == 'a') { printf("user exit command//n"); close(); } recv(data, 255); } 
 public: char data[256]; }; 
 
 int main(char * args[]) { 
 lance::net::TCPSrv srv; 
 srv.ip = 0; 
 srv.port = 1234; 
 srv.ptr = NULL; 
 srv.backlogs = 10; 
 srv.threads = 1; 
 srv.scheds = 0; 
 srv.start(); 
 while(true) { lance::systm::sleep(2000); } 
 return 0; 
 } 
 
 测试代码绑定本机所有IP地址,在1234端口开启网络服务,接收客户端发送的字符串,并将这些字符串打印到控制台上。 
 
 Windows平台
 
 在Windows XP SP2下用vs2003编译测试通过。
 用vs2003打开netfrm.v2.vcproj,然后编译、运行,会弹出控制台窗口。在Windows开始菜单->运行->cmd,启动Windows命令窗口,输入telnet 127.0.0.1 1234,回车连接到测试网络服务,如果一切正常,网络服务控制台窗口将显示连接信息,可以在Windows命令窗口随便输入信息,这时网络服务控制台窗口将打印输入的信息。如下图所示:图1 输入字符a表示断开网络连接。 
 
 Linux平台 
 
 Linux在Red Hat Enterprise Linux 4下测试通过,其他Linux平台需要Linux 2.6及以上支持epoll的内核。
 首先转到src目录: $ cd src 
 编译: $ make –f Makefile.linux clean all 
 这时会在当前目录生成tcpsrv.0.1.bin的可执行文件,
 执行: $ ./ tcpsrv.0.1.bin 再打开一个命令行窗口,
 测试: $ telnet 127.0.0.1 1234 
 输入字符串并回车,刚才执行tcpsrv.0.1.bin的窗口将打印连接和字符串信息。输入a开头的字符串将断开连接。 
 
 FreeBSD平台 
 
 FreeBSD在FreeBSD 6.2下测试通过,其他BSD平台需要支持kqueue的内核。
 首先转到src目录: $ cd src 
 编译: $ make –f Makefile.freebsd clean all 这时会在当前目录生成tcpsrv.0.1.bin的可执行文件,
 执行: $ ./ tcpsrv.0.1.bin 再打开一个命令行窗口,
 测试: $ telnet 127.0.0.1 1234 输入字符串并回车,刚才执行tcpsrv.0.1.bin的窗口将打印连接和字符串信息。
 输入a开头的字符串将断开连接。
使用目录结构: 
 
 src |---lance |---tcpsrv.hpp 
 主要接口文件
 |---iocptcpsrv.hpp Windows IOCP网络服务实现文件
 |---eptcpsrv.hpp Linux epoll网络服务实现文件
 |---kqtcpsrv.hpp FreeBSD kqueue网络服务实现文件
 在某种平台下使用时,src/lance/tcpsrv.hpp必须,其他文件根据平台而定。 
 
 首先,创建一个Client类,这个类必须继承lance::net::Client,重载事件通知方法。 
 // Client对象类,当连接建立时自动创建,当连接断开时自动销毁
 class MyClient : public lance::net::Client {
 // 连接建立时被调动
 public: void OnConnect() { printf("OnConnect: fd=x, ip=%d, port=%d//n", fd, ip, port); 
 // 通知调度系统接收数据
 // 数据这时并没有真正接收,当客户端有数据发送来时
 // 调度器自动接收数据,然后通过OnRecv通知数据接收完成
 recv(data, 255);
 }
 // 连接断开时被调用
 public: void OnDisconnect() {
 printf("OnDisconnect: fd=x, ip=%d, port=%d//n", fd, ip, port); }
 // 当有数据被接收时调用,接收的实际数据长度为len 
 public: void OnRecv(int len) { data[len] = 0x00; printf("OnRecv: fd=x, data=%s//n", fd, data); 
 // 断开连接命令
 if (data[0] == 'a') { printf("user exit command//n"); 
 // 通知调度系统断开连接,当调度系统处理完成后才真正断开连接
 close(); 
 }
 // 通知调度系统接收数据
 // 数据这时并没有真正接收,当客户端有数据发送来时
 // 调度器自动接收数据,然后通过OnRecv通知数据接收完成
 recv(data, 255);
 }
 // 数据缓冲区
 public: char data[256]; 
 };
 
 然后创建一个lance::net::TCPSrv的实例,这个实例负责调度网络服务。
 具体代码参考src/main.cpp,lance::net::Client的OnConnect、OnRecv、OnDisconnect都由工作线程池处理,所以里面可以进行IO操作而不会影响系统响应。
 
 int main(char * args[]) {
 lance::net::TCPSrv srv;
 // 设置监听套接字绑定的IP
 // 0为绑定所有本机可用IP地址
 srv.ip = 0;
 // 监听端口
 srv.port = 1234;
 // 绑定的对象或资源指针
 // MyClient里面可以通过srv->ptr获取这个指针
 srv.ptr = NULL; 
 // 监听套接字连接队列长度
 srv.backlogs = 10;
 // 处理线程池线程数
 srv.threads = 1;
 // 调度器线程数,通常是本机CPU数的2倍
 // 0表示自动选择
 srv.scheds = 0;
 // 启动网络服务
 srv.start();
 // 循环,保证进程不退出
 while(true) {
 lance::systm::sleep(2000);
 }
 return 0;
 }
 
 Windows平台的预编译宏是LANCE_WIN32。
 Linux平台的预编译宏是LANCE_LINUX。
 FreeBSD平台的预编译宏是LANCE_FREEBSD。
 Windows平台编译需要使用WIN32_LEAN_AND_MEAN和_WIN32_WINNT=0x0500预编译宏来避免Winsock2和Windows头文件的冲突,否则会产生大量类型重定义错误。
 
  #define EPOLL_MAX_NFDS 10000 
 // max sockets queried by epoll.
 #define EPOLL_MAX_EVENTS 100 
 // max events queried by epoll. 
 #define EPOLL_MAX_QUEUE 1024 
 // max events in cache queue. 
 Linux平台有额外三个预编译宏,参考src/lance/eptcpsrv.hpp: 
 
 FreeBSD平台有额外三个预编译宏,参考src/lance/kqtcpsrv.hpp: 
 #define KQUEUE_MAX_NFDS 10000 
 // max sockets queried by kqueue. 
 #define KQUEUE_MAX_EVENTS 100 
 // max events queried by kqueue. 
 #define KQUEUE_MAX_QUEUE 1024 
 // max events in cache queue. 
 
 Windows IOCP设计首先用户接口部分,由两个类lance::net:TCPSrv,lance::net::Client。
 lance::net::TCPSrv管理监听套接字、事件调度和事件处理。
 lance::net::Client管理连接套接字。
 lance::net::TCPSrv由lance::net::Listener、lance::net::Scheduler、lance::net::Processor组成。他们之间的关系如下:
 
 图2
 
 Listener管理监听套接字,有单独的线程执行,当有连接到来时,创建一个Client的对象实例,然后通过IOCP系统调用通知调度器有连接到来,参考src/lance/iocptcpsrv.hpp
 template 
 void Scheduler::push(T * clt) {
 ::PostQueuedCompletionStatus(iocp, 0, (ULONG_PTR)clt, NULL);
 }
 
 Scheduler实际并不做很多事情,只是封装IOCP句柄,Windows的IOCP功能很丰富,包括管理事件队列和多CPU支持,所以Scheduler只是一个IOCP的映射。
 Processor管理线程池,这些线程池是工作线程,他们[FS:PAGE]轮询Scheduler的IOCP,从中取出系统事件,IOCP里面有三种事件,一种是客户端连接事件,一种是客户端数据事件,最后一种是连接断开事件,当有事件到来时,会得到Client对象的指针clt,Client的event包含了事件类型,参考src/lance/iocptcpsrv.hpp:
 
 template 
 DWORD WINAPI Processor::run(LPVOID param) {
 Processor& procor = *(Processor *)param;
 Scheduler& scheder = *procor.scheder; 
 HANDLE iocp = scheder.iocp;
 DWORD ready;
 ULONG_PTR key;
 WSAOVERLAPPED * overlap;
 while (true) {
 ::GetQueuedCompletionStatus(iocp, &ready, &key, (LPOVERLAPPED *)&overlap, INFINITE); 
 T * clt = (T *)key;
 switch(clt->event) {
 case T::EV_RECV: {
 if (0 >= ready) {
 clt->event = T::EV_DISCONNECT;
 ::PostQueuedCompletionStatus(iocp, 0, (ULONG_PTR)clt, NULL);
 } else {
 clt->OnRecv(ready);
 }
 }
 break;
 case T::EV_CONNECT: {
 if (NULL == ::CreateIoCompletionPort((HANDLE)clt->fd, iocp, (ULONG_PTR)clt, 0)) {
 ::closesocket(clt->fd);
 delete clt;
 } else {
 clt->OnConnect();
 }
 }
 break; 
 case T::EV_DISCONNECT: {
 clt->OnDisconnect();
 ::closesocket(clt->fd);
 delete clt;
 }
 break; 
 case T::EV_SEND: 
 break; 
 }
 }
 return 0;
 }
 所以Client::OnConnect、Client::OnRecv、Client::OnDisconnect都在工作线程中进行,这些处理过程中都可以有IO等耗时操作,一个连接的阻塞不会影响其他连接的响应速度。
 Client的其他方法Client::recv、Client::send和Client::close。
 Client::recv是一个异步接收数据的方法,这个方面只是告诉IOCP想要接收客户端的数据,然后立即返回,由IOCP去负责接收数据,有数据收到时,Processor的工作线程会收到Client::EV_RECV的消息,Processor会调用Client::OnRecv进行通知。
 Client::send是发送消息的函数,这个函数是阻塞调用,等待消息发送成功后才返回。
 Client::close是主动断开客户端连接的方法,这个方法不会直接调用closesocket(fd),而是调用shutdown(fd),shutdown(fd)会向Scheduler触发一个Client::EV_DISCONNECT的事件,然后Processor调用Client::OnDisconnect通知连接断开,执行完Client::OnDisconnect后,由Processor调用closesocket(fd)真正断开连接,这样设计一方面满足任何情况下OnDisconnect都被调用,另一方面因为操作系统会重用已经关闭的套接字fd,所以只有当OnDisconnect执行完毕后才真正调用closesocket让操作系统回收fd,可以避免使用无效的套接字或者挪用其他连接的套接字。
 
 Linux epoll和FreeBSD kqueue设计 
 
 Linux epoll和FreeBSD kqueue的机制几乎一样,只有函数名字和个数不一样,所以一起分析,并且简写为Linux。因为Linux不像Windows一样会管理事件队列和多CPU支持,所以Linux需要额外实现事件队列和多CPU支持。
 Linux下用户接口跟Windows一样,有lance::net::TCPSrv和lance::net::Client,因为跨平台,所以他们提供的接口功能和意义也一样,参考Windows一节。
 lance::net::TCPSrv管理连接套接字、事件队列、多CPU支持、事件调度和事件处理。
 lance::net::TCPSrv由Listener、Scheduler、Processor、Queue组成。他们之间关系图如下:图3
 Listener管理监听套接字,有连接到来时创建一个Client的实例clt,初始化Client::event为Client::EV_CONNECT,然后将clt放入调度器,调度器为clt选择一个合适的epoll/kqueue进行绑定,然后将clt放入事件队列Queue等待被Processor执行。
 
 Scheduler管理epoll/kqueue,为了支持多CPU,一个Scheduler可能管理多个epoll/kqueue,通过lance::net::TCPSrv::scheds进行设置,当lance::net::TCPSrv::scheds大于1时,Scheduler将创建scheds个线程,每个线程管理一个epoll/kqueue。当Listener提交一个新的clt时,Scheduler顺序选择一个epoll/kqueue进行绑定,这是最简单的均等选择算法,epoll/kqueue会检查绑定的clt的数据接收和连接断开事件,如果有事件,会把产生这个事件的clt放入事件队列Queue等待被Processor执行,并且设置clt的套接字为休眠状态,因为epoll/kqueue为状态触发,如果事件在被Processor处理前不休眠,会再次被触发,这样Queue将被迅速填满。多CPU时,依靠多个epoll/kqueue能有效利用这些CPU。参考eptcpsrv.hpp:
 
 template 
 void Scheduler::push(T * clt) { 
 clt->epfd = epers[epoff].epfd; 
 epoff = (epoff+1 == scheds)?0:(epoff+1); 
 queue.in(); 
 while (queue.full()) {
 queue.fullWait();
 } 
 if (queue.empty()) {
 queue.emptyNotify(); 
 }
 queue.push(clt);
 queue.out(); 
 }
 
 Queue是有限缓冲队列,有队列最大长度EPOLL_MAX_QUEUE/KQUEUE_MAX_QUEUE,有限缓冲队列结构如下: 图4 
 
 Queue采用monitor模式,使用pthread_mutex_t lock保护临界区,使用pthread_cond_t emptySignal做队列由空到不空的通知,也就是唤醒消费者可以处理队列,使用pthread_cond_t fullSignal做队列由满到不满的通知,也就是唤醒生产者可以填充队列,这里Scheduler是生产者,Processor是消费者。
 有时epoll/kqueue会一次产生多个事件,如果先前队列为空,那么需要通知Processor可以处理事件,因为emptySignal.notify只能一次唤醒一个线程,为了更加高效的处理事件,应该使用emptySignal.broadcast唤醒所有工作线程。如果epoll/kqueue一次只产生了一个事件,并且先前队列为空,那么只需要使用emptySignal.notify唤醒一个工作线程而不应该使用emptySignal.broadcast唤醒工作线程,因为只有一个事件,所以只有一个线程会处理事件,而其他线程会空转一次消耗资源。如果epoll/kqueue产生了事件,但是队列不为空,那么不需要唤醒工作线程的操作,因为队列不为空的时候,没有任何工作线程处于等待状态。代码参考eptcpsrv.hpp/Queue。
 Processor跟Windows基本一样,Processor从Queue取出事件,然后根据clt->event事件类型调用响应的事件通知函数。 Client::recv也是一个请求接收数据的过程,并不实际接收数据,当有数据到来时,Processor的工作线程负责接收数据,然后调用Client::OnRecv通知响应的连接对象。
 Cleint::send是一个同步阻塞函数,等待数据真正发送完成后再返回。 Client::close跟Windows类似,只是调用shutdown来触发断开消息,然后处理流程跟Windows一致。