我们知道,在国外的一些VPS上,网络丢包一直是造成服务器访问缓慢的主要因素,一旦丢包,就需要再次发包,而再次发的包也存在丢包情况,所以丢包和网络情况的好坏几乎是指数相关的关系。
而谷歌为我们带来了干货 新的 TCP 拥塞控制算法 BBR (Bottleneck Bandwidth and RTT),已经在linux 4.9+的内核中集成了该算法,windows 和mac 就无法享受了。
在BBR背后其实是一种自主的拥塞控制机制,而传统的拥塞控制算法则是相对盲目的基于事件的被动反馈。 这直接决定了他们在性能上的表现。
网友实测:
尝试了 BBR
Vultr JP 节点 SS python 版 多端口配置
之前用锐速 1080p 就到顶了
换成 BBR 4K 无压力
如果您已经使用dnf
dnf copr enable bnied/kernel-ml-aufs
如果没使用dnf ,执行下面
cd /etc/yum.repos.d
wget https://copr.fedorainfracloud.org/coprs/bnied/kernel-ml-aufs/repo/epel-7/bnied-kernel-ml-aufs-epel-7.repo
更新
dnf update -y
or
yum update -y
修改启动内核
nano /etc/sysconfig/kernel
修改为:DEFAULTKERNEL=kernel-ml-aufs
重启后,开启 BBR
echo "net.core.default_qdisc=fq" >> /etc/sysctl.conf
echo "net.ipv4.tcp_congestion_control=bbr" >> /etc/sysctl.conf
保存生效
sysctl -p
sysctl net.ipv4.tcp_available_congestion_control
#查看内核是否已开启BBR
lsmod | grep bbr
#查看BBR是否启动
BBR 对高延迟高掉包的线路优化明显, 日本服务器国内下载速度80-200kb/s ,开启BBR后,在国内下载速度能达到700kb-4000kb/s