成都建站免费模板,wordpress如何设置文章模板,兰州微商城搭建,中国空间站完整图转载自 从 Linux 源码看 Socket 的阻塞和非阻塞笔者一直觉得如果能知道从应用到框架再到操作系统的每一处代码#xff0c;是一件Exciting的事情。大部分高性能网络框架采用的是非阻塞模式。笔者这次就从linux源码的角度来阐述socket阻塞(block)和非阻塞(non_block)的区别。 本…转载自 从 Linux 源码看 Socket 的阻塞和非阻塞笔者一直觉得如果能知道从应用到框架再到操作系统的每一处代码是一件Exciting的事情。大部分高性能网络框架采用的是非阻塞模式。笔者这次就从linux源码的角度来阐述socket阻塞(block)和非阻塞(non_block)的区别。 本文源码均来自采用Linux-2.6.24内核版本。
一个TCP非阻塞client端简单的例子
如果我们要产生一个非阻塞的socket,在C语言中如下代码所示:
// 创建socket
int sock_fd socket(AF_INET, SOCK_STREAM, 0);
...
// 更改socket为nonblock
fcntl(sock_fd, F_SETFL, fdflags | O_NONBLOCK);
// connect
....
while(1) { int recvlen recv(sock_fd, recvbuf, RECV_BUF_SIZE) ; ......
}
...由于网络协议非常复杂内核里面用到了大量的面向对象的技巧所以我们从创建连接开始一步一步追述到最后代码的调用点。
socket的创建
很明显内核的第一步应该是通过AF_INET、SOCK_STREAM以及最后一个参数0定位到需要创建一个TCP的socket,如下图绿线所示:我们跟踪源码调用
socket(AF_INET, SOCK_STREAM, 0)|-sys_socket 进入系统调用|-sock_create|-__sock_create进一步分析__sock_create的代码判断:
const struct net_proto_family *pf;
// RCU(Read-Copy Update)是linux的一种内核同步方法在此不阐述
// familyINET
pf rcu_dereference(net_families[family]);
err pf-create(net, sock, protocol);由于family是AF_INET协议注意在操作系统里面定义了PF_INET等于AF_INET, 内核通过函数指针实现了对pf(net_proto_family)的重载。如下图所示:
则通过源码可知由于是AF_INET(PF_INET),所以net_families[PF_INET].createinet_create(以后我们都用PF_INET表示)即pf-create inet_create; 进一步追溯调用:
inet_create(struct net *net, struct socket *sock, int protocol){Sock* sock;......// 此处是寻找对应协议处理器的过程
lookup_protocol:// 迭代寻找protocolanswer-protocol的情况list_for_each_rcu(p, inetsw[sock-type]) answer list_entry(p, struct inet_protosw, list);/* Check the non-wild match. */if (protocol answer-protocol) {if (protocol ! IPPROTO_IP)break;}......// 这边answer指的是SOCK_STREAMsock-ops answer-ops;answer_no_check answer-no_check;// 这边sk-prot就是answer_prottcp_protsk sk_alloc(net, PF_INET, GFP_KERNEL, answer_prot);sock_init_data(sock, sk);......
}上面的代码就是在INET中寻找SOCK_STREAM的过程了 我们再看一下inetsw[SOCK_STREAM]的具体配置:
static struct inet_protosw inetsw_array[]
{{.type SOCK_STREAM,.protocol IPPROTO_TCP,.prot tcp_prot,.ops inet_stream_ops,.capability -1,.no_check 0,.flags INET_PROTOSW_PERMANENT |INET_PROTOSW_ICSK,},......
}这边也用了重载AF_INET有TCP、UDP以及Raw三种:
从上述代码我们可以清楚的发现sock-opsinet_stream_ops;
const struct proto_ops inet_stream_ops {.family PF_INET,.owner THIS_MODULE,.......sendmsg tcp_sendmsg,.recvmsg sock_common_recvmsg,......
} 即sock-ops-recvmsg sock_common_recvmsg;同时sock-sk-sk_prot tcp_prot;
我们再看下tcp_prot中的各个函数重载的定义:
struct proto tcp_prot {.name TCP,.close tcp_close,.connect tcp_v4_connect,.disconnect tcp_disconnect,.accept inet_csk_accept,......// 我们重点考察tcp的读.recvmsg tcp_recvmsg,......
}fcntl控制socket的阻塞\非阻塞状态
我们用fcntl修改socket的阻塞\非阻塞状态。 事实上: fcntl的作用就是将O_NONBLOCK标志位存储在sock_fd对应的filp结构的f_lags里,如下图所示。fcntl(sock_fd, F_SETFL, fdflags | O_NONBLOCK);|-setfl追踪setfl代码:
static int setfl(int fd, struct file * filp, unsigned long arg) {......filp-f_flags (arg SETFL_MASK) | (filp-f_flags ~SETFL_MASK);......
}上图中由sock_fd在task_struct(进程结构体)-files_struct-fd_array中找到对应的socket的file描述符再修改file-flags
在调用socket.recv的时候
我们跟踪源码调用:
socket.recv|-sys_recv|-sys_recvfrom|-sock_recvmsg|-__sock_recvmsg|-sock-ops-recvmsg由上文可知: sock-ops-recvmsg sock_common_recvmsg;
sock
值得注意的是,在sock_recmsg中,有对标识O_NONBLOCK的处理if (sock-file-f_flags O_NONBLOCK)flags | MSG_DONTWAIT;上述代码中sock关联的file中获取其f_flags,如果flags有O_NONBLOCK标识那么就设置msg_flags为MSG_DONTWAIT(不等待)。fcntl与socket就是通过其共同操作File结构关联起来的。
继续跟踪调用
sock_common_recvmsg
int sock_common_recvmsg(struct kiocb *iocb, struct socket *sock,struct msghdr *msg, size_t size, int flags) {......// 如果flags的MSG_DONTWAIT标识置位则传给recvmsg的第5个参数为正,否则为0err sk-sk_prot-recvmsg(iocb, sk, msg, size, flags MSG_DONTWAIT,flags ~MSG_DONTWAIT, addr_len);.....
}由上文可知: sk-sk_prot-recvmsg 其中sk_prottcp_prot,即最终调用的是tcp_prot-tcp_recvmsg,上面的代码可以看出如果fcntl(O_NONBLOCK)MSG_DONTWAIT置位(flags MSG_DONTWAIT)0, 再结合tcp_recvmsg的函数签名,即如果设置了O_NONBLOCK的话设置给tcp_recvmsg的nonblock参数0,关系如下图所示:
最终的调用逻辑tcp_recvmsg
首先我们看下tcp_recvmsg的函数签名:
int tcp_recvmsg(struct kiocb *iocb, struct sock *sk, struct msghdr *msg,size_t len, int nonblock, int flags, int *addr_len)显然我们关注焦点在(int nonblock这个参数上):
int tcp_recvmsg(struct kiocb *iocb, struct sock *sk, struct msghdr *msg,size_t len, int nonblock, int flags, int *addr_len){...... // copied是指向用户空间拷贝了多少字节即读了多少int copied;// target指的是期望多少字节int target;// 等效为timo noblock ? 0 : sk-sk_rcvtimeo;timeo sock_rcvtimeo(sk, nonblock);...... // 如果设置了MSG_WAITALL标识target需要读的长度// 如果未设置则为最低低水位值target sock_rcvlowat(sk, flags MSG_WAITALL, len);......do{// 表明读到数据if (copied) {// 注意这边只要!timeo即nonblock设置了就会跳出循环if (sk-sk_err ||sk-sk_state TCP_CLOSE ||(sk-sk_shutdown RCV_SHUTDOWN) ||!timeo ||signal_pending(current) ||(flags MSG_PEEK))break;}else{// 到这里表明没有读到任何数据// 且nonblock设置了导致timeo0则返回-EAGAIN,符合我们的预期if (!timeo) {copied -EAGAIN;break;}// 这边如果堵到了期望的数据继续否则当前进程阻塞在sk_wait_data上if (copied target) {/* Do not sleep, just process backlog. */release_sock(sk);lock_sock(sk);} elsesk_wait_data(sk, timeo);} while (len 0); ......return copied
}上面的逻辑归结起来就是(1)在设置了nonblock的时候如果copied0,则返回读了多少字节,如果copied0则返回-EAGAIN,提示应用重复调用。(2)如果没有设置nonblock如果读取的数据期望则返回读取了多少字节。如果没有则用sk_wait_data将当前进程等待。如下流程图所示:阻塞函数sk_wait_data
sk_wait_data代码-函数为:// 将进程状态设置为可打断INTERRUPTIBLEprepare_to_wait(sk-sk_sleep, wait, TASK_INTERRUPTIBLE);set_bit(SOCK_ASYNC_WAITDATA, sk-sk_socket-flags);// 通过调用schedule_timeout让出CPU然后进行睡眠rc sk_wait_event(sk, timeo, !skb_queue_empty(sk-sk_receive_queue));// 到这里的时候有网络事件或超时事件唤醒了此进程继续运行clear_bit(SOCK_ASYNC_WAITDATA, sk-sk_socket-flags);finish_wait(sk-sk_sleep, wait);该函数调用schedule_timeout进入睡眠其进一步调用了schedule函数首先从运行队列删除其次加入到等待队列最后调用和体系结构相关的switch_to宏来完成进程间的切换。如下图所示:
阻塞后什么时候恢复运行呢
情况1:有对应的网络数据到来
首先我们看下网络分组到来的内核路径网卡发起中断后调用netif_rx将事件挂入CPU的等待队列并唤起软中断(soft_irq)再通过linux的软中断机制调用net_rx_action如下图所示:
注:上图来自PLKA(深入Linux内核架构)紧接着跟踪next_rx_action
next_rx_action|-process_backlog......|-packet_type-func 在这里我们考虑ip_rcv|-ipprot-handler 在这里ipprot重载为tcp_protocol(handler 即为tcp_v4_rcv) 紧接着tcp_v4_rcv:
tcp_input.c
tcp_v4_rcv|-tcp_v4_do_rcv|-tcp_rcv_state_process|-tcp_data_queue|-sk-sk_data_readysock_def_readable|-wake_up_interruptible|-__wake_up|-__wake_up_common在这里__wake_up_common将停在当前wait_queue_head_t中的进程唤醒即状态改为task_running等待CFS调度以进行下一步的动作,如下图所示。情况2:设定的超时时间到来
在前面调用sk_wait_event中调用了schedule_timeout
fastcall signed long __sched schedule_timeout(signed long timeout) {......// 设定超时的回掉函数为process_timeoutsetup_timer(timer, process_timeout, (unsigned long)current);__mod_timer(timer, expire);// 这边让出CPUschedule();del_singleshot_timer_sync(timer);timeout expire - jiffies;out:// 返回经过了多长事件return timeout 0 ? 0 : timeout;
}process_timeout函数即是将此进程重新唤醒
static void process_timeout(unsigned long __data)
{wake_up_process((struct task_struct *)__data);
}总结
linux内核源代码博大精深阅读其代码很费周折。希望笔者这篇文章能帮助到阅读linux网络协议栈代码的人。