多路IO转接服务器也叫做多任务IO服务器。该类服务器实现的主旨思想是,不再由应用程序自己监视客户端连接,取而代之由内核替应用程序监视文件
selectint select(int nfds, fd_set * readfds, fd_set *writefds, fd_set *exceptfds, struct timeval *timeout); //委托内核监控该文件描述符对应的读,写或者错误事件的发生. //nfds: 告诉内核要监控文件描述符的范围,一般取值为最大的文件描述符+1 //readfds: 读集合, 是一个传入传出参数 //传入: 指的是告诉内核哪些文件描述符需要监控 //传出: 指的是内核告诉应用程序哪些文件描述符发生了变化 //writefds: 写文件描述符集合(传入传出参数) //execptfds: 异常文件描述符集合(传入传出参数) //timeout: //NULL--表示永久阻塞, 直到有事件发生 //0 --表示不阻塞, 立刻返回, 不管是否有监控的事件发生 //>0--表示阻塞时长,若没有超过时长,则一直阻塞;若在时长内,有事件发生则立刻返回,若超过时长,则立刻返回 //成功返回发生变化的文件描述符的个数,失败返回-1, 并设置errno
void FD_CLR(int fd, fd_set *set); //将fd从set集合中清除 int FD_ISSET(int fd, fd_set *set); //判断fd是否在集合中 //如果fd在set集合中, 返回1, 否则返回0 void FD_SET(int fd, fd_set *set); //将fd设置到set集合中 void FD_ZERO(fd_set *set); //初始化set集合
使用select开发服务端
#include#include #include #include #include #include #include #include #include int main() { //创建socket int lfd=socket(AF_INET,SOCK_STREAM,0); //设置端口复用 int opt=1; setsockopt(lfd,SOL_SOCKET,SO_REUSEADDR,&opt,sizeof(int)); //绑定 struct sockaddr_in serv; bzero(&serv,sizeof(serv)); serv.sin_family=AF_INET; serv.sin_port=htons(8888); serv.sin_addr.s_addr=htonl(INADDR_ANY); bind(lfd,(struct sockaddr*)&serv,sizeof(serv)); //监听 listen(lfd,128); //定义fd_set fd_set readfds; fd_set tmpfds; //清空fd_Set集合 FD_ZERO(&readfds); FD_ZERO(&tmpfds); //将lfd加入到readfds中,委托内核监考 FD_SET(lfd,&readfds); int maxfd=lfd; int nready; int cfd; int i; int sockfd; int n; char buf[1024]; while(1) { tmpfds=readfds; nready=select(maxfd+1,&tmpfds,NULL,NULL,NULL); if(nready<0) { if(errno==EINTR)//被信号中断 { continue; } break; } //有客户端连接请求到来 if(FD_ISSET(lfd,&tmpfds)) { //接受新的客户端连接请求 cfd=accept(lfd,NULL,NULL); //将cfd加入到readfds集合中 FD_SET(cfd,&readfds); //修改select的监考范围 if(maxfd 如果有效的文件描述符比较少, 会使循环的次数太多
解决:可以将有效的文件描述符放到一个数组当中, 这样遍历效率就高
select优点
- 一个进程可以支持多个客户端
- select支持跨平台
select缺点
- 代码编写困难
- 会涉及到用户区到内核区的来回拷贝
- 当客户端多个连接, 但少数活跃的情况, select效率较低
例如: 作为极端的一种情况, 3-1023文件描述符全部打开, 但是只有1023有发送数据, select就显得效率低下
- 最大支持1024个客户端连接
select能监听的文件描述符个数受限于FD_SETSIZE
select最大支持1024个客户端连接不是由文件描述符表最多可以支持1024个文件描述符限制的, 而是由FD_SETSIZE=1024限制的
FD_SETSIZE=1024 fd_set使用了该宏, 可以修改内核, 然后再重新编译内核, 一般不建议这么做
poll
- 解决1024以下客户端时使用select是很合适的,但如果链接客户端过多,select采用的是轮询模型,会大大降低服务器响应效率,不应在select上投入更多精力
int poll(struct pollfd *fds, nfds_t nfds, int timeout); //跟select类似, 监控多路IO, 但poll不能跨平台 //fds: 传入传出参数, 实际上是一个结构体数组 //fds.fd: 要监控的文件描述符 //fds.events: //POLLIN---->读事件 //POLLOUT---->写事件 //fds.revents: 返回的事件 //nfds: 数组实际有效内容的个数 //timeout: 超时时间, 单位是毫秒. //-1:永久阻塞, 直到监控的事件发生 //0: 不管是否有事件发生, 立刻返回 //>0: 直到监控的事件发生或者超时 //成功:返回就绪事件的个数,失败: 返回-1 //若timeout=0, poll函数不阻塞,且没有事件发生, 此时返回-1, 并且errno=EAGAIN, 这种情况不应视为错误 struct pollfd { int fd; //监控的文件描述符 short events; //要监控的事件---不会被修改 short revents; //返回发生变化的事件 ---由内核返回 }; //当poll函数返回的时候, 结构体当中的fd和events没有发生变化, 究竟有没有事件发生由revents来判断, 所以poll是请求和返回分离 //struct pollfd结构体中的fd成员若赋值为-1, 则poll不会监控 //相对于select, poll没有本质上的改变; 但是poll可以突破1024的限制 //在/proc/sys/fs/file-max查看一个进程可以打开的socket描述符上限 //如果需要可以修改配置文件: /etc/security/limits.conf //加入如下配置信息, 然后重启终端即可生效 //soft nofile 1024 //hard nofile 100000 //soft和hard分别表示ulimit命令可以修改的最小限制和最大限制epoll//将检测文件描述符的变化委托给内核去处理, 然后内核将发生变化的文件描述符对应的事件返回给应用程序 int epoll_create(int size); //创建一个树根 //size: 最大节点数, 此参数在linux 2.6.8已被忽略, 但必须传递一个大于0的数 //成功: 返回一个大于0的文件描述符, 代表整个树的树根 //失败: 返回-1, 并设置errno值 int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event); //将要监听的节点在epoll树上添加, 删除和修改 //epfd: epoll树根 //op: //EPOLL_CTL_ADD: 添加事件节点到树上 //EPOLL_CTL_DEL: 从树上删除事件节点 //EPOLL_CTL_MOD: 修改树上对应的事件节点 //fd: 事件节点对应的文件描述符 //event: 要操作的事件节点 typedef union epoll_data { void *ptr; int fd; uint32_t u32; uint64_t u64; } epoll_data_t; struct epoll_event { uint32_t events; epoll_data_t data; }; //event.events常用的有: //EPOLLIN: 读事件 //EPOLLOUT: 写事件 //EPOLLERR: 错误事件 //EPOLLET: 边缘触发模式 //event.fd: 要监控的事件对应的文件描述符 int epoll_wait(int epfd, struct epoll_event *events, int maxevents, int timeout); //等待内核返回事件发生 //epfd: epoll树根 //events: 传出参数, 其实是一个事件结构体数组 //maxevents: 数组大小 //timeout: //-1: 表示永久阻塞 //0: 立即返回 //>0: 表示超时等待事件 //成功: 返回发生事件的个数 //失败: 若timeout=0, 没有事件发生则返回; 返回-1, 设置errno值, //epoll_wait的events是一个传出参数, 调用epoll_ctl传递给内核什么值, 当epoll_wait返回的时候, 内核就传回什么值,不会对struct event的结构体变量的值做任何修改#include#include #include #include #include #include #include #include #include #include int main() { int ret,n,i,nready,lfd,cfd,sockfd,epfd,k; char buf[1024]; socklen_t socklen; struct sockaddr_in svraddr; struct epoll_event ev; struct epoll_event events[1024]; //创建socket lfd=socket(AF_INET,SOCK_STREAM,0); //设置端口复用 int opt=1; setsockopt(lfd,SOL_SOCKET,SO_REUSEADDR,&opt,sizeof(int)); //绑定 struct sockaddr_in serv; bzero(&serv,sizeof(serv)); serv.sin_family=AF_INET; serv.sin_port=htons(8888); serv.sin_addr.s_addr=htonl(INADDR_ANY); bind(lfd,(struct sockaddr*)&serv,sizeof(serv)); //监听 listen(lfd,128); //创建一棵epoll数 epfd=epoll_create(1024); if(epfd<0) { perror("create epoll error"); return -1; } //将lfd上epoll树 ev.data.fd=lfd; ev.events=EPOLLIN; epoll_ctl(epfd,EPOLL_CTL_ADD,lfd,&ev); while(1) { nready=epoll_wait(epfd,events,1024,-1); if(nready<0) { perror("epoll wait error"); if(errno==EINTR) { continue; } break; } for(i=0;i epoll的两种工作模式ET和LT 水平触发: 高电平代表1
- 只要缓冲区中有数据, 就一直通知
边缘触发: 电平有变化就代表1
- 缓冲区中有数据只会通知一次, 之后再有数据才会通知(若是读数据的时候没有读完, 则剩余的数据不会再通知, 直到有新的数据到来)
边缘非阻塞模式: 提高效率
epoll默认情况是LT模式,在该模式下,若读数据一次性没有读完,缓冲区还有可读数据,则epoll_wait还会再次通知
若将epoll设置为ET模式,若读数据的时候一次性没有读完,则epoll_wait不再通知,直到下次有新的数据发来6
epoll反应堆反应堆: 一个小事件触发一系列反应.
epoll反应堆的思想: c++的封装思想(把数据和操作封装到一起)
--将描述符,事件,对应的处理方法封装在一起
--当描述符对应的事件发生了, 自动调用处理方法(其实原理就是回调函数)
epoll反应堆的核心思想是: 在调用epoll_ctl函数的时候, 将events上树的时候,利用epoll_data_t的ptr成员, 将一个文件描述符,事件和回调函数封装成一个结构体, 然后让ptr指向这个结构体, 然后调用epoll_wait函数返回的时候, 可以得到具体的events, 然后获得events结构体中的events。data.ptr指针, ptr指针指向的结构体中有回调函数, 最终可以调用这个回调函数



