epoll机制
在linux的網絡編程中,很長的時間都在使用select來做事件觸發。在linux新的內核中,有了一種替換它的機制,就是epoll。?
相比于select,epoll最大的好處在于它不會隨著監聽fd數目的增長而降低效率。因為在內核中的select實現中,它是采用輪詢來處理的,輪詢的fd數目越多,自然耗時越多。并且,在linux/posix_types.h頭文件有這樣的聲明:?
#define __FD_SETSIZE??? 1024?
表示select最多同時監聽1024個fd,當然,可以通過修改頭文件再重編譯內核來擴大這個數目,但這似乎并不治本。
epoll的接口非常簡單,一共就三個函數:?
1. int epoll_create(int size);?
創建一個epoll的句柄,size用來告訴內核這個監聽的數目一共有多大。這個參數不同于select()中的第一個參數,給出最大監聽的fd+1的值。需要注意的是,當創建好epoll句柄后,它就是會占用一個fd值,在linux下如果查看/proc/進程id/fd/,是能夠看到這個fd的,所以在使用完epoll后,必須調用close()關閉,否則可能導致fd被耗盡。
2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);?
epoll的事件注冊函數,它不同與select()是在監聽事件時告訴內核要監聽什么類型的事件,而是在這里先注冊要監聽的事件類型。第一個參數是epoll_create()的返回值,第二個參數表示動作,用三個宏來表示:?
EPOLL_CTL_ADD:注冊新的fd到epfd中;?
EPOLL_CTL_MOD:修改已經注冊的fd的監聽事件;?
EPOLL_CTL_DEL:從epfd中刪除一個fd;?
第三個參數是需要監聽的fd,第四個參數是告訴內核需要監聽什么事,struct epoll_event結構如下:?
struct epoll_event {?
__uint32_t events; /* Epoll events */?
epoll_data_t data; /* User data variable */?
};
events可以是以下幾個宏的集合:?
EPOLLIN :表示對應的文件描述符可以讀(包括對端SOCKET正常關閉);?
EPOLLOUT:表示對應的文件描述符可以寫;?
EPOLLPRI:表示對應的文件描述符有緊急的數據可讀(這里應該表示有帶外數據到來);?
EPOLLERR:表示對應的文件描述符發生錯誤;?
EPOLLHUP:表示對應的文件描述符被掛斷;?
EPOLLET: 將EPOLL設為邊緣觸發(Edge Triggered)模式,這是相對于水平觸發(Level Triggered)來說的。?
EPOLLONESHOT:只監聽一次事件,當監聽完這次事件之后,如果還需要繼續監聽這個socket的話,需要再次把這個socket加入到EPOLL隊列里
3. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);?
等待事件的產生,類似于select()調用。參數events用來從內核得到事件的集合,maxevents告之內核這個events有多大,這個maxevents的值不能大于創建epoll_create()時的size,參數timeout是超時時間(毫秒,0會立即返回,-1將不確定,也有說法說是永久阻塞)。該函數返回需要處理的事件數目,如返回0表示已超時。
--------------------------------------------------------------------------------------------
從man手冊中,得到ET和LT的具體描述如下
EPOLL事件有兩種模型:?
Edge Triggered (ET)?
Level Triggered (LT)
假如有這樣一個例子:?
1. 我們已經把一個用來從管道中讀取數據的文件句柄(RFD)添加到epoll描述符?
2. 這個時候從管道的另一端被寫入了2KB的數據?
3. 調用epoll_wait(2),并且它會返回RFD,說明它已經準備好讀取操作?
4. 然后我們讀取了1KB的數據?
5. 調用epoll_wait(2)......
Edge Triggered 工作模式:?
如果我們在第1步將RFD添加到epoll描述符的時候使用了EPOLLET標志,那么在第5步調用epoll_wait(2)之后將有可能會掛起,因為剩余的數據還存在于文件的輸入緩沖區內,而且數據發出端還在等待一個針對已經發出數據的反饋信息。只有在監視的文件句柄上發生了某個事件的時候 ET 工作模式才會匯報事件。因此在第5步的時候,調用者可能會放棄等待仍在存在于文件輸入緩沖區內的剩余數據。在上面的例子中,會有一個事件產生在RFD句柄上,因為在第2步執行了一個寫操作,然后,事件將會在第3步被銷毀。因為第4步的讀取操作沒有讀空文件輸入緩沖區內的數據,因此我們在第5步調用 epoll_wait(2)完成后,是否掛起是不確定的。epoll工作在ET模式的時候,必須使用非阻塞套接口,以避免由于一個文件句柄的阻塞讀/阻塞寫操作把處理多個文件描述符的任務餓死。最好以下面的方式調用ET模式的epoll接口,在后面會介紹避免可能的缺陷。?
?? i??? 基于非阻塞文件句柄?
?? ii?? 只有當read(2)或者write(2)返回EAGAIN時才需要掛起,等待。但這并不是說每次read()時都需要循環讀,直到讀到產生一個EAGAIN才認為此次事件處理完成,當read()返回的讀到的數據長度小于請求的數據長度時,就可以確定此時緩沖中已沒有數據了,也就可以認為此事讀事件已處理完成。
Level Triggered 工作模式?
相反的,以LT方式調用epoll接口的時候,它就相當于一個速度比較快的poll(2),并且無論后面的數據是否被使用,因此他們具有同樣的職能。因為即使使用ET模式的epoll,在收到多個chunk的數據的時候仍然會產生多個事件。調用者可以設定EPOLLONESHOT標志,在 epoll_wait(2)收到事件后epoll會與事件關聯的文件句柄從epoll描述符中禁止掉。因此當EPOLLONESHOT設定后,使用帶有 EPOLL_CTL_MOD標志的epoll_ctl(2)處理文件句柄就成為調用者必須作的事情。
然后詳細解釋ET, LT:
LT(level triggered)是缺省的工作方式,并且同時支持block和no-block socket.在這種做法中,內核告訴你一個文件描述符是否就緒了,然后你可以對這個就緒的fd進行IO操作。如果你不作任何操作,內核還是會繼續通知你的,所以,這種模式編程出錯誤可能性要小一點。傳統的select/poll都是這種模型的代表.
ET(edge-triggered)是高速工作方式,只支持no-block socket。在這種模式下,當描述符從未就緒變為就緒時,內核通過epoll告訴你。然后它會假設你知道文件描述符已經就緒,并且不會再為那個文件描述符發送更多的就緒通知,直到你做了某些操作導致那個文件描述符不再為就緒狀態了(比如,你在發送,接收或者接收請求,或者發送接收的數據少于一定量時導致了一個EWOULDBLOCK 錯誤)。但是請注意,如果一直不對這個fd作IO操作(從而導致它再次變成未就緒),內核不會發送更多的通知(only once),不過在TCP協議中,ET模式的加速效用仍需要更多的benchmark確認(這句話不理解)。
在許多測試中我們會看到如果沒有大量的idle -connection或者dead-connection,epoll的效率并不會比select/poll高很多,但是當我們遇到大量的idle- connection(例如WAN環境中存在大量的慢速連接),就會發現epoll的效率大大高于select/poll。(未測試)
?
另外,當使用epoll的ET模型來工作時,當產生了一個EPOLLIN事件后,?
讀數據的時候需要考慮的是當recv()返回的大小如果等于請求的大小,那么很有可能是緩沖區還有數據未讀完,也意味著該次事件還沒有處理完,所以還需要再次讀取:?
while(rs)?
{?
buflen = recv(activeevents[i].data.fd, buf, sizeof(buf), 0);?
if(buflen < 0)?
{?
??? // 由于是非阻塞的模式,所以當errno為EAGAIN時,表示當前緩沖區已無數據可讀?
??? // 在這里就當作是該次事件已處理處.?
??? if(errno == EAGAIN)?
???? break;?
??? else?
???? return;?
?? }?
?? else if(buflen == 0)?
?? {?
???? // 這里表示對端的socket已正常關閉.?
?? }?
?? if(buflen == sizeof(buf)?
???? rs = 1;?? // 需要再次讀取?
?? else?
???? rs = 0;?
}
還有,假如發送端流量大于接收端的流量(意思是epoll所在的程序讀比轉發的socket要快),由于是非阻塞的socket,那么send()函數雖然返回,但實際緩沖區的數據并未真正發給接收端,這樣不斷的讀和發,當緩沖區滿后會產生EAGAIN錯誤(參考man send),同時,不理會這次請求發送的數據.所以,需要封裝socket_send()的函數用來處理這種情況,該函數會盡量將數據寫完再返回,返回-1表示出錯。在socket_send()內部,當寫緩沖已滿(send()返回-1,且errno為EAGAIN),那么會等待后再重試.這種方式并不很完美,在理論上可能會長時間的阻塞在socket_send()內部,但暫沒有更好的辦法.
ssize_t socket_send(int sockfd, const char* buffer, size_t buflen)?
{?
ssize_t tmp;?
size_t total = buflen;?
const char *p = buffer;
while(1)?
{?
??? tmp = send(sockfd, p, total, 0);?
??? if(tmp < 0)?
??? {?
????? // 當send收到信號時,可以繼續寫,但這里返回-1.?
????? if(errno == EINTR)?
??????? return -1;
????? // 當socket是非阻塞時,如返回此錯誤,表示寫緩沖隊列已滿,?
????? // 在這里做延時后再重試.?
????? if(errno == EAGAIN)?
????? {?
??????? usleep(1000);?
??????? continue;?
????? }
????? return -1;?
??? }
??? if((size_t)tmp == total)?
????? return buflen;
??? total -= tmp;?
??? p += tmp;?
}
return tmp;?
}
epoll有兩種模式,Edge Triggered(簡稱ET) 和 Level Triggered(簡稱LT).在采用這兩種模式時要注意的是,如果采用ET模式,那么僅當狀態發生變化時才會通知,而采用LT模式類似于原來的select/poll操作,只要還有沒有處理的事件就會一直通知.
以代碼來說明問題:?
首先給出server的代碼,需要說明的是每次accept的連接,加入可讀集的時候采用的都是ET模式,而且接收緩沖區是5字節的,也就是每次只接收5字節的數據:
#include <iostream>
#include <sys/socket.h>
#include <sys/epoll.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <fcntl.h>
#include <unistd.h>
#include <stdio.h>
#include <errno.h>
using namespace std;
#define MAXLINE 5
#define OPEN_MAX 100
#define LISTENQ 20
#define SERV_PORT 5000
#define INFTIM 1000
void setnonblocking(int sock)
{
??? int opts;
??? opts=fcntl(sock,F_GETFL);
??? if(opts<0)
??? {
??????? perror("fcntl(sock,GETFL)");
??????? exit(1);
??? }
??? opts = opts|O_NONBLOCK;
??? if(fcntl(sock,F_SETFL,opts)<0)
??? {
??????? perror("fcntl(sock,SETFL,opts)");
??????? exit(1);
??? }???
}
int main()
{
??? int i, maxi, listenfd, connfd, sockfd,epfd,nfds;
??? ssize_t n;
??? char line[MAXLINE];
??? socklen_t clilen;
??? //聲明epoll_event結構體的變量,ev用于注冊事件,數組用于回傳要處理的事件
??? struct epoll_event ev,events[20];
??? //生成用于處理accept的epoll專用的文件描述符
??? epfd=epoll_create(256);
??? struct sockaddr_in clientaddr;
??? struct sockaddr_in serveraddr;
??? listenfd = socket(AF_INET, SOCK_STREAM, 0);
??? //把socket設置為非阻塞方式
??? //setnonblocking(listenfd);
??? //設置與要處理的事件相關的文件描述符
??? ev.data.fd=listenfd;
??? //設置要處理的事件類型
??? ev.events=EPOLLIN|EPOLLET;
??? //ev.events=EPOLLIN;
??? //注冊epoll事件
??? epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev);
??? bzero(&serveraddr, sizeof(serveraddr));
??? serveraddr.sin_family = AF_INET;
??? char *local_addr="127.0.0.1";
??? inet_aton(local_addr,&(serveraddr.sin_addr));//htons(SERV_PORT);
??? serveraddr.sin_port=htons(SERV_PORT);
??? bind(listenfd,(sockaddr *)&serveraddr, sizeof(serveraddr));
??? listen(listenfd, LISTENQ);
??? maxi = 0;
??? for ( ; ; ) {
??????? //等待epoll事件的發生
??????? nfds=epoll_wait(epfd,events,20,500);
??????? //處理所發生的所有事件?????
??????? for(i=0;i<nfds;++i)
??????? {
??????????? if(events[i].data.fd==listenfd)
??????????? {
??????????????? connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen);
??????????????? if(connfd<0){
??????????????????? perror("connfd<0");
??????????????????? exit(1);
??????????????? }
??????????????? //setnonblocking(connfd);
??????????????? char *str = inet_ntoa(clientaddr.sin_addr);
??????????????? cout << "accapt a connection from " << str << endl;
??????????????? //設置用于讀操作的文件描述符
??????????????? ev.data.fd=connfd;
??????????????? //設置用于注測的讀操作事件
??????????????? ev.events=EPOLLIN|EPOLLET;
??????????????? //ev.events=EPOLLIN;
??????????????? //注冊ev
??????????????? epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev);
??????????? }
??????????? else if(events[i].events&EPOLLIN)
??????????? {
??????????????? cout << "EPOLLIN" << endl;
??????????????? if ( (sockfd = events[i].data.fd) < 0)?
??????????????????? continue;
??????????????? if ( (n = read(sockfd, line, MAXLINE)) < 0) {
??????????????????? if (errno == ECONNRESET) {
??????????????????????? close(sockfd);
??????????????????????? events[i].data.fd = -1;
??????????????????? } else
??????????????????????? std::cout<<"readline error"<<std::endl;
??????????????? } else if (n == 0) {
??????????????????? close(sockfd);
??????????????????? events[i].data.fd = -1;
??????????????? }
??????????????? line[n] = '/0';
??????????????? cout << "read " << line << endl;
??????????????? //設置用于寫操作的文件描述符
??????????????? ev.data.fd=sockfd;
??????????????? //設置用于注測的寫操作事件
??????????????? ev.events=EPOLLOUT|EPOLLET;
??????????????? //修改sockfd上要處理的事件為EPOLLOUT
??????????????? //epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);
??????????? }
??????????? else if(events[i].events&EPOLLOUT)
??????????? {???
??????????????? sockfd = events[i].data.fd;
??????????????? write(sockfd, line, n);
??????????????? //設置用于讀操作的文件描述符
??????????????? ev.data.fd=sockfd;
??????????????? //設置用于注測的讀操作事件
??????????????? ev.events=EPOLLIN|EPOLLET;
??????????????? //修改sockfd上要處理的事件為EPOLIN
??????????????? epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);
??????????? }
??????? }
??? }
??? return 0;
}
下面給出測試所用的Perl寫的client端,在client中發送10字節的數據,同時讓client在發送完數據之后進入死循環, 也就是在發送完之后連接的狀態不發生改變--既不再發送數據, 也不關閉連接,這樣才能觀察出server的狀態:?
#!/usr/bin/perl
use IO::Socket;
my $host = "127.0.0.1";?
my $port = 5000;
my $socket = IO::Socket::INET->new("$host:$port") or die "create socket error $@";?
my $msg_out = "1234567890";?
print $socket $msg_out;?
print "now send over, go to sleep/n";
while (1)?
{?
??? sleep(1);?
}?
運行server和client發現,server僅僅讀取了5字節的數據,而client其實發送了10字節的數據,也就是說,server僅當第一次監聽到了EPOLLIN事件,由于沒有讀取完數據,而且采用的是ET模式,狀態在此之后不發生變化,因此server再也接收不到EPOLLIN事件了.
如果我們把client改為這樣:?
#!/usr/bin/perl
use IO::Socket;
my $host = "127.0.0.1";?
my $port = 5000;
my $socket = IO::Socket::INET->new("$host:$port") or die "create socket error $@";?
my $msg_out = "1234567890";?
print $socket $msg_out;?
print "now send over, go to sleep/n";?
sleep(5);?
print "5 second gonesend another line/n";?
print $socket $msg_out;
while (1)?
{?
??? sleep(1);?
}
可以發現,在server接收完5字節的數據之后一直監聽不到client的事件,而當client休眠5秒之后重新發送數據,server再次監聽到了變化,只不過因為只是讀取了5個字節,仍然有10個字節的數據(client第二次發送的數據)沒有接收完.
如果上面的實驗中,對accept的socket都采用的是LT模式,那么只要還有數據留在buffer中,server就會繼續得到通知,讀者可以自行改動代碼進行實驗.
基于這兩個實驗,可以得出這樣的結論:ET模式僅當狀態發生變化的時候才獲得通知,這里所謂的狀態的變化并不包括緩沖區中還有未處理的數據,也就是說,如果要采用ET模式,需要一直read/write直到出錯為止,很多人反映為什么采用ET模式只接收了一部分數據就再也得不到通知了,大多因為這樣;而LT模式是只要有數據沒有處理就會一直通知下去的.
補充說明一下這里一直強調的"狀態變化"是什么:
1)對于監聽可讀事件時,如果是socket是監聽socket,那么當有新的主動連接到來為狀態發生變化;對一般的socket而言,協議棧中相應的緩 沖區有新的數據為狀態發生變化.但是,如果在一個時間同時接收了N個連接(N>1),但是監聽socket只accept了一個連接,那么其它未 accept的連接將不會在ET模式下給監聽socket發出通知,此時狀態不發生變化;對于一般的socket,就如例子中而言,如果對應的緩沖區本身 已經有了N字節的數據,而只取出了小于N字節的數據,那么殘存的數據不會造成狀態發生變化.
2)對于監聽可寫事件時,同理可推,不再詳述.
而不論是監聽可讀還是可寫,對方關閉socket連接都將造成狀態發生變化,比如在例子中,如果強行中斷client腳本,也就是主動中斷了socket連接,那么都將造成server端發生狀態的變化,從而server得到通知,將已經在本方緩沖區中的數據讀出.
把前面的描述可以總結如下:僅當對方的動作(發出數據,關閉連接等)造成的事件才能導致狀態發生變化,而本方協議棧中已經處理的事件(包括接收了對方的數 據,接收了對方的主動連接請求)并不是造成狀態發生變化的必要條件,狀態變化一定是對方造成的.所以在ET模式下的,必須一直處理到出錯或者完全處理完 畢,才能進行下一個動作,否則可能會發生錯誤.
另外,從這個例子中,也可以闡述一些基本的網絡編程概念.首先,連接的兩端中,一端發送成功并不代表著對方上層應用程序接收成功, 就拿上面的client測試程序來說,10字節的數據已經發送成功,但是上層的server并沒有調用read讀取數據,因此發送成功僅僅說明了數據被對方的協議棧接收存放在了相應的buffer中,而上層的應用程序是否接收了這部分數據不得而知;同樣的,讀取數據時也只代表著本方協議棧的對應buffer中有數據可讀,而此時時候在對端是否在發送數據也不得而知.
epoll為什么這么快
epoll是多路復用IO(I/O Multiplexing)中的一種方式,但是僅用于linux2.6以上內核,在開始討論這個問題之前,先來解釋一下為什么需要多路復用IO.
以一個生活中的例子來解釋.
假設你在大學中讀書,要等待一個朋友來訪,而這個朋友只知道你在A號樓,但是不知道你具體住在哪里,于是你們約好了在A號樓門口見面.
如果你使用的阻塞IO模型來處理這個問題,那么你就只能一直守候在A號樓門口等待朋友的到來,在這段時間里你不能做別的事情,不難知道,這種方式的效率是低下的.
現在時代變化了,開始使用多路復用IO模型來處理這個問題.你告訴你的朋友來了A號樓找樓管大媽,讓她告訴你該怎么走.這里的樓管大媽扮演的就是多路復用IO的角色.
進一步解釋select和epoll模型的差異.
select版大媽做的是如下的事情:比如同學甲的朋友來了,select版大媽比較笨,她帶著朋友挨個房間進行查詢誰是同學甲,你等的朋友來了,于是在實際的代碼中,select版大媽做的是以下的事情:
int n = select(&readset,NULL,NULL,100);
for (int i = 0; n > 0; ++i)?
{?
?? if (FD_ISSET(fdarray[i], &readset))?
?? {?
????? do_something(fdarray[i]);?
????? --n;?
?? }?
}
epoll版大媽就比較先進了,她記下了同學甲的信息,比如說他的房間號,那么等同學甲的朋友到來時,只需要告訴該朋友同學甲在哪個房間即可,不用自己親自帶著人滿大樓的找人了.于是epoll版大媽做的事情可以用如下的代碼表示:?
n=epoll_wait(epfd,events,20,500);?
for(i=0;i<n;++i)?
{?
??? do_something(events[n]);?
}
在epoll中,關鍵的數據結構epoll_event定義如下:?
typedef union epoll_data {?
??????????????? void *ptr;?
??????????????? int fd;?
??????????????? __uint32_t u32;?
??????????????? __uint64_t u64;?
??????? } epoll_data_t;
??????? struct epoll_event {?
??????????????? __uint32_t events;????? /* Epoll events */?
??????????????? epoll_data_t data;????? /* User data variable */?
??????? };?
可以看到,epoll_data是一個union結構體,它就是epoll版大媽用于保存同學信息的結構體,它可以保存很多類型的信息:fd,指針,等等.有了這個結構體,epoll大媽可以不用吹灰之力就可以定位到同學甲.
別小看了這些效率的提高,在一個大規模并發的服務器中,輪詢IO是最耗時間的操作之一.再回到那個例子中,如果每到來一個朋友樓管大媽都要全樓的查詢同學,那么處理的效率必然就低下了,過不久樓底就有不少的人了.
對比最早給出的阻塞IO的處理模型, 可以看到采用了多路復用IO之后, 程序可以自由的進行自己除了IO操作之外的工作, 只有到IO狀態發生變化的時候由多路復用IO進行通知, 然后再采取相應的操作, 而不用一直阻塞等待IO狀態發生變化了.
從上面的分析也可以看出,epoll比select的提高實際上是一個用空間換時間思想的具體應用.
多進程服務器中,epoll的創建應該在創建子進程之后
看我的測試代碼,似乎應該是在創建子進程之后創建epoll的fd,否則程序將會有問題,試將代碼中兩個CreateWorker函數的調用位置分別調用,一個在創建epoll fd之前,一個在之后,在調用在創建之前的代碼會出問題,在我的機器上(linux內核2.6.26)表現的癥狀就是所有進程的epoll_wait函數返回0, 而客戶端似乎被阻塞了:
服務器端:
#include <iostream>
#include <sys/socket.h>
#include <sys/epoll.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <fcntl.h>
#include <unistd.h>
#include <stdio.h>
#include <errno.h>
#include <sys/types.h>
#include <sys/wait.h>
using namespace std;
#define MAXLINE 5
#define OPEN_MAX 100
#define LISTENQ 20
#define SERV_PORT 5000
#define INFTIM 1000
typedef struct task_t
{
??? int fd;
??? char buffer[100];
??? int n;
}task_t;
int CreateWorker(int nWorker)
{
??? if (0 < nWorker)
??? {
??????? bool bIsChild;
??????? pid_t nPid;
??????? while (!bIsChild)
??????? {
??????????? if (0 < nWorker)
??????????? {
??????????????? nPid = ::fork();
??????????????? if (nPid > 0)
??????????????? {
??????????????????? bIsChild = false;
??????????????????? --nWorker;
??????????????? }
??????????????? else if (0 == nPid)
??????????????? {
??????????????????? bIsChild = true;
??????????????????? printf("create worker %d success!/n", ::getpid());
??????????????? }
??????????????? else
??????????????? {
??????????????????? printf("fork error: %s/n", ::strerror(errno));
??????????????????? return -1;
??????????????? }
??????????? }
??????????? else?
??????????? {
??????????????? int nStatus;
??????????????? if (-1 == ::wait(&nStatus))
??????????????? {
??????????????????? ++nWorker;
??????????????? }
??????????? }
??????? }
??? }
??? return 0;
}
void setnonblocking(int sock)
{
??? int opts;
??? opts=fcntl(sock,F_GETFL);
??? if(opts<0)
??? {
??????? perror("fcntl(sock,GETFL)");
??????? exit(1);
??? }
??? opts = opts|O_NONBLOCK;
??? if(fcntl(sock,F_SETFL,opts)<0)
??? {
??????? perror("fcntl(sock,SETFL,opts)");
??????? exit(1);
??? }???
}
int main()
{
??? int i, maxi, listenfd, connfd, sockfd,epfd,nfds;
??? ssize_t n;
??? char line[MAXLINE];
??? socklen_t clilen;
??? struct epoll_event ev,events[20];
??? struct sockaddr_in clientaddr;
??? struct sockaddr_in serveraddr;
??? listenfd = socket(AF_INET, SOCK_STREAM, 0);
?????? bzero(&serveraddr, sizeof(serveraddr));
??? serveraddr.sin_family = AF_INET;
??? char *local_addr="127.0.0.1";
??? inet_aton(local_addr,&(serveraddr.sin_addr));//htons(SERV_PORT);
??? serveraddr.sin_port=htons(SERV_PORT);
????? // 地址重用
??? int nOptVal = 1;
??? socklen_t nOptLen = sizeof(int);
??? if (-1 == ::setsockopt(listenfd, SOL_SOCKET, SO_REUSEADDR, &nOptVal, nOptLen))
??? {
??????? return -1;
??? }????
??? setnonblocking(listenfd);
??? bind(listenfd,(sockaddr *)&serveraddr, sizeof(serveraddr));
??? listen(listenfd, LISTENQ);????
????
??? CreateWorker(5);
????
??? //把socket設置為非阻塞方式
????
??? //生成用于處理accept的epoll專用的文件描述符
??? epfd=epoll_create(256);????
??? //設置與要處理的事件相關的文件描述符
??? ev.data.fd=listenfd;
??? //設置要處理的事件類型
??? ev.events=EPOLLIN|EPOLLET;
??? //ev.events=EPOLLIN;
??? //注冊epoll事件
??? epoll_ctl(epfd,EPOLL_CTL_ADD,listenfd,&ev);
?
???? //CreateWorker(5);
?????
??? maxi = 0;
????
??? task_t task;?
??? task_t *ptask;
??? while(true)?
??? {
??????? //等待epoll事件的發生
??????? nfds=epoll_wait(epfd,events,20,500);
??????? //處理所發生的所有事件?????
??????? for(i=0;i<nfds;++i)
??????? {
??????????? if(events[i].data.fd==listenfd)
??????????? {????????????????
??????????????? connfd = accept(listenfd,NULL, NULL);
??????????????? if(connfd<0){????????????????????
??????????????????? printf("connfd<0, listenfd = %d/n", listenfd);
??????????????????? printf("error = %s/n", strerror(errno));
??????????????????? exit(1);
??????????????? }
??????????????? setnonblocking(connfd);
???????????????
??????????????? //設置用于讀操作的文件描述符
??????????????? memset(&task, 0, sizeof(task));
??????????????? task.fd = connfd;
??????????????? ev.data.ptr = &task;
??????????????? //設置用于注冊的讀操作事件
??????????????? ev.events=EPOLLIN|EPOLLET;
??????????????? //ev.events=EPOLLIN;
??????????????? //注冊ev
??????????????? epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev);
??????????? }
??????????? else if(events[i].events&EPOLLIN)
??????????? {
??????????????? cout << "EPOLLIN" << endl;
??????????????? ptask = (task_t*)events[i].data.ptr;
??????????????? sockfd = ptask->fd;
????????????????
??????????????? if ( (ptask->n = read(sockfd, ptask->buffer, 100)) < 0) {
??????????????????? if (errno == ECONNRESET) {
??????????????????????? close(sockfd);
??????????????????????? events[i].data.ptr = NULL;
??????????????????? } else
??????????????????????? std::cout<<"readline error"<<std::endl;
??????????????? } else if (ptask->n == 0) {
??????????????????? close(sockfd);
??????????????????? events[i].data.ptr = NULL;
??????????????? }
??????????????? ptask->buffer[ptask->n] = '/0';
??????????????? cout << "read " << ptask->buffer << endl;
????????????????
??????????????? //設置用于寫操作的文件描述符????????????????????????????????
??????????????? ev.data.ptr = ptask;
??????????????? //設置用于注測的寫操作事件
??????????????? ev.events=EPOLLOUT|EPOLLET;
????????????????????????????????
??????????????? //修改sockfd上要處理的事件為EPOLLOUT
??????????????? epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);
??????????? }
??????????? else if(events[i].events&EPOLLOUT)
??????????? {???
??????????????? cout << "EPOLLOUT" << endl;
??????????????? ptask = (task_t*)events[i].data.ptr;
??????????????? sockfd = ptask->fd;
????????????????
??????????????? write(sockfd, ptask->buffer, ptask->n);
????????????????
??????????????? //設置用于讀操作的文件描述符??????????????
??????????????? ev.data.ptr = ptask;
????????????????
??????????????? //修改sockfd上要處理的事件為EPOLIN
??????????????? epoll_ctl(epfd,EPOLL_CTL_DEL,sockfd,&ev);
??????????????? cout << "write " << ptask->buffer;
??????????????? memset(ptask, 0, sizeof(*ptask));
??????????????? close(sockfd);
??????????? }
??????? }
??? }
??? return 0;
}測試客戶端:
#!/usr/bin/perl
use strict;
use Socket;
use IO::Handle;
sub echoclient
{
??? my $host = "127.0.0.1";
??? my $port = 5000;
??? my $protocol = getprotobyname("TCP");
??? $host = inet_aton($host);
??? socket(SOCK, AF_INET, SOCK_STREAM, $protocol) or die "socket() failed: $!";
??? my $dest_addr = sockaddr_in($port, $host);
??? connect(SOCK, $dest_addr) or die "connect() failed: $!";
??? SOCK->autoflush(1);
??? my $msg_out = "hello world/n";
??? print "out = ", $msg_out;
??? print SOCK $msg_out;
??? my $msg_in = <SOCK>;
??? print "in = ", $msg_in;
??? close SOCK;
}
#&echoclient;
#exit(0);
for (my $i = 0; $i < 9999; $i++)
{
??? echoclient;
}
我查看了lighttpd的實現,也是在創建完子進程之后才創建的epoll的fd.
請問誰知道哪里有講解這個的文檔?
假如fd1是由A進程加入epfd的,而且用的是ET模式,那么加入通知的是進程B,顯然B進程不會對fd1進行處理,所以以后fd1的事件再不會通知,所以 經過幾次循環之后,所有的fd都沒有事件通知了,所以epoll_wait在timeout之后就返回0了。而在客戶端的結果可想而知,只能是被阻塞。
也就是說, 這是一種發生在epoll fd上面的類似于"驚群"的現象.
《新程序員》:云原生和全面數字化實踐50位技術專家共同創作,文字、視頻、音頻交互閱讀
總結
- 上一篇: 关于Linux Kernel中的宏定义l
- 下一篇: select机制