深圳旅游网站建设,上海网站建设 百家号,网站注册页面模板下载,整合营销传播名词解释Linux作为一个强大的操作系统#xff0c;提供了一系列内核参数供我们进行调优。光TCP的调优参数就有50多个。在和线上问题斗智斗勇的过程中#xff0c;笔者积累了一些在内网环境应该进行调优的参数。在此分享出来#xff0c;希望对大家有所帮助。调优清单好了#xff0c;在…Linux作为一个强大的操作系统提供了一系列内核参数供我们进行调优。光TCP的调优参数就有50多个。在和线上问题斗智斗勇的过程中笔者积累了一些在内网环境应该进行调优的参数。在此分享出来希望对大家有所帮助。调优清单好了在这里先列出调优清单。请记住这里只是笔者在内网进行TCP内核参数调优的经验仅供参考。同时笔者还会在余下的博客里面详细解释了为什么要进行这些调优序号内核参数值备注1.1/proc/sys/net/ipv4/tcp_max_syn_backlog20481.2/proc/sys/net/core/somaxconn20481.3/proc/sys/net/ipv4/tcp_abort_on_overflow12.1/proc/sys/net/ipv4/tcp_tw_recycle0NAT环境必须为02.2/proc/sys/net/ipv4/tcp_tw_reuse13.1/proc/sys/net/ipv4/tcp_syn_retries33.2/proc/sys/net/ipv4/tcp_retries253.3/proc/sys/net/ipv4/tcp_slow_start_after_idle0tcp_max_syn_backlog,somaxconn,tcp_abort_on_overflowtcp_max_syn_backlog,somaxconn,tcp_abort_on_overflow这三个参数是关于 内核TCP连接缓冲队列的设置。如果应用层来不及将已经三次握手建立成功的TCP连接从队列中取出,溢出了这个缓冲队列(全连接队列)之后就会丢弃这个连接。如下图所示: 从而产生一些诡异的现象,这个现象诡异之处就在于是在TCP第三次握手的时候丢弃连接 就如图中所示,第二次握手的SYNACK发送给client端了。所以就会出现client端认为连接成功而Server端确已经丢弃了这个连接的现象由于无法感知到Server已经丢弃了连接。 所以如果没有心跳的话只有在发出第一个请求后Server才会发送一个reset端通知这个连接已经被丢弃了建立连接后第二天再用也会报错所以我们要调大Backlog队列echo 2048 /proc/sys/net/ipv4/tcp_max_syn_backlogecho 2048 /proc/sys/net/core/somaxconn当然了为了尽量避免第一笔调用失败问题我们也同时要设置echo 1 /proc/sys/net/ipv4/tcp_abort_on_overflow设置这个值以后Server端内核就会在这个连接被溢出之后发送一个reset包给client端。 如果我们的client端是NIO的话就可以收到一个socket close的事件以感知到连接被关闭 注意Java默认的Backlog是50这个TCP Backlog的队列大小值是min(tcp_max_syn_backlog,somaxconn,应用层设置的backlog),而Java如果不做额外设置Backlog默认值仅仅只有50。C语言在使用listen调用的时候需要传进Backlog参数。tcp_tw_recycletcp_tw_recycle这个参数一般是用来抑制TIME_WAIT数量的,但是它有一个副作用。即在tcp_timestamps开启(Linux默认开启)tcp_tw_recycle会经常导致下面这种现象。 也即如果你的Server开启了tcp_tw_recycle那么别人如果通过NAT之类的调用你的Server的话NAT后面的机器只有一台机器能正常工作其它情况大概率失败。具体原因呢由下图所示: 在tcp_tw_recycle1同时tcp_timestamps(默认开启的情况下),对同一个IP的连接会做这样的限制也即之前后建立的连接的时间戳必须要大于之前建立连接的最后时间戳但是经过NAT的一个IP后面是不同的机器时间戳相差极大就会导致内核直接丢弃时间戳较低的连接的现象。由于这个参数导致的问题高版本内核已经去掉了这个参数。如果考虑TIME_WAIT问题可以考虑设置一下echo 1 /proc/sys/net/ipv4/tcp_tw_reusetcp_syn_retries这个参数值得是client发送SYN如果server端不回复的话重传SYN的次数。对我们的直接影响呢就是connet建立连接时的超时时间。当然Java通过一些C原生系统调用的组合使得我们可以进行超时时间的设置。在Linux里面默认设置是5,下面给出建议值3和默认值5之间的超时时间。tcp_syn_retriestimeout1min(so_sndtimeo,3s)2min(so_sndtimeo,7s)3min(so_sndtimeo,15s)4min(so_sndtimeo,31s)5min(so_sndtimeo,63s)下图给出了重传和超时情况的对应图: 当然了不同内核版本的超时时间可能不一样因为初始RTO在内核小版本间都会有细微的变化。所以有时候在抓包时候可能会出现(3,6,12......)这样的序列。当然Java的API有超时时间:java: // 函数调用中携带有超时时间 public void connect(SocketAddress endpoint, int timeout) ;所以对于Java而言这个内核参数的设置没有那么重要。但是有些代码可能会有忘了设置timeout的情况例如某个版本的Kafka就是所以它在我们一些混沌测试的情况下容灾恢复的时间会达到一分多钟主要时间就是卡在connect上面-_-!而这时我们的tcp_syn_retries设置的是5也即超时时间63s。减少这个恢复时间的手段就是:echo 3 /proc/sys/net/ipv4/tcp_syn_retriestcp_retries2tcp_retries2这个参数表面意思是在传输过程中tcp的重传次数。但在某个版本之后Linux内核仅仅用这个tcp_retries2来计算超时时间在这段时间的重传次数纯粹由RTO等环境因素决定重传超时时间在5/15下的表现为:tcp_retries2对端无响应525.6s-51.2s根据动态rto定15924.6s-1044.6s根据动态rto定如果我们在应用层设置的Socket所有ReadTimeout都很小的话(例如3s),这个内核参数调整是没有必要的。但是笔者经常发现有的系统因为一两个慢的接口或者SQL所以将ReadTimeout设的很大的情况。 平常这种情况是没有问题的因为慢请求频率很低不会对系统造成什么风险。但是物理机突然宕机时候的情况就不一样了由于ReadTimeOut设置的过大导致所有落到这台宕机的机器都会在min(ReadTimeOut,(924.6s-1044.6s)(Linux默认tcp_retries2是15))后才能从read系统调用返回。假设ReadTimeout设置了个5min系统总线程数是200那么只要5min内有200个请求落到宕机的server就会使A系统失去响应 但如果将tcp_retries2设置为5,那么超时返回时间即为min(ReadTimeOut 5min,25.6-51.2s),也就是30s左右极大的缓解了这一情况。echo 5 /proc/sys/net/ipv4/tcp_retries2但是针对这种现象最好要做资源上的隔离,例如线程上的隔离或者机器级的隔离。 golang的goroutine调度模型就可以很好的解决线程资源不够的问题但缺点是goroutine里面不能有阻塞的系统调用不然也会和上面一样但仅仅对于系统之间互相调用而言都是非阻塞IO,所以golang做微服务还是非常Nice的。当然了我大Java用纯IO事件触发编写代码也不会有问题就是对心智负担太高-_-!物理机突然宕机和进程宕不一样值得注意的是物理机宕机和进程宕但内核还存在表现完全不一样。 仅仅进程宕而内核存活那么内核会立马发送reset给对端从而不会卡住A系统的线程资源。tcp_slow_start_after_idle还有一个可能需要调整的参数是tcp_slow_start_after_idleLinux默认是1即开启状态。开启这个参数后我们的TCP拥塞窗口会在一个RTO时间空闲之后重置为初始拥塞窗口(CWND)大小这无疑大幅的减少了长连接的优势。对应Linux源码为:static void tcp_event_data_sent(struct tcp_sock *tp,struct sk_buff *skb, struct sock *sk){// 如果开启了start_after_idle,而且这次发送的时间-上次发送的时间一个rto就重置tcp拥塞窗口if (sysctl_tcp_slow_start_after_idle (!tp-packets_out (s32)(now - tp-lsndtime) icsk-icsk_rto))tcp_cwnd_restart(sk, __sk_dst_get(sk));}关闭这个参数后无疑会提高某些请求的传输速度(在带宽够的情况下)。echo 0 /proc/sys/net/ipv4/tcp_slow_start_after_idle当然了Linux启用这个参数也是有理由的如果我们的网络情况是时刻在变化的例如拿个手机到处移动那么将拥塞窗口重置确实是个不错的选项。但是就我们内网系统间调用而言是不太必要的了。初始CWND大小毫无疑问新建连接之后的初始TCP拥塞窗口大小也直接影响到我们的请求速率。在Linux2.6.32源码中其初始拥塞窗口是(2-4个)mss大小对应于内网估计也就是(2.8-5.6K)(MTU 1500)这个大小对于某些大请求可能有点捉襟见肘。在Linux 2.6.39以上或者某些RedHat维护的小版本中已经把CWND 增大到RFC 6928所规定的的10段也就是在内网里面估计14K左右(MTU 1500)。Linux 新版本/* TCP initial congestion window */#define TCP_INIT_CWND10原文https://my.oschina.net/alchemystar/blog/4312312作者无毁的湖光-Al