精华内容
下载资源
问答
  • sysctl -a |grep tcp_congestion_controlnet.ipv4.tcp_congestion_control = cubicsysctl -a |grep default_qdiscnet.core.default_qdisc = pfifo_fast安装bbr网页:比较好的bbr文档:测试:client是100.100...

    目前我们服务器上的拥塞控制策略是cubic算法;

    sysctl -a |grep tcp_congestion_control

    net.ipv4.tcp_congestion_control = cubic

    sysctl -a |grep default_qdisc

    net.core.default_qdisc = pfifo_fast

    安装bbr网页:

    比较好的bbr文档:

    测试:client是100.100.84.141 缓存服务器是100.100.84.192,源站是100.100.84.192;测试文件大小是61M;

    测试结果:在没有丢包率的情况下,开启bbr和不开启bbr没啥区别;但是丢包率越高,开启bbr和不开启bbr造成的时延差别也越来越大;

    1.开启bbr,并且没有丢包率;

    echo "net.core.default_qdisc=fq" >> /etc/sysctl.conf

    echo "net.ipv4.tcp_congestion_control=bbr" >> /etc/sysctl.conf

    sysctl -p

    time curl -H "Host:" -voa

    real0m1.050s

    user0m0.016s

    sys0m0.120s

    real的时间基本保持着1.039-1.090之间;尝试了很多次,基本都是这个;

    2. 不开启bbr,并且没有丢包率;

    echo "net.core.default_qdisc=pfifo_fast" >> /etc/sysctl.conf

    echo "net.ipv4.tcp_congestion_control=cubic" >> /etc/sysctl.conf

    sysctl -p

    测试命令和1一样,消耗时间也差不多;

    3.默认算法,5%丢包率

    tc qdisc del root dev eth0

    tc qdisc add dev eth0 root netem loss 5%

    time curl -H "Host:" -voa

    real0m4.068s

    user0m0.024s

    sys0m0.172s

    消耗时间基本都是在3s以上,有时候能到达到5s;

    4.bbr算法,5%丢包率

    time curl -H "Host:" -voa

    real0m1.714s

    user0m0.016s

    sys0m0.112s

    消耗的时间基本都是在1.5s到3s之间;大多数低于2s;

    5.默认算法,1%丢包率

    tc qdisc del root dev eth0

    tc qdisc add dev eth0 root netem loss 1%

    tc qdisc del root dev lo

    tc qdisc add dev lo root netem loss 1%

    查询

    sysctl net.ipv4.tcp_available_congestion_control

    sysctl net.ipv4.tcp_congestion_control

    time curl -H "Host:" -voa

    real0m1.118s

    user0m0.032s

    sys0m0.116s

    和测试6差不多。感觉和没有设置丢包率差不多;

    6.bbr算法,1%丢包率

    time curl -H "Host:" -voa

    real0m1.038s

    user0m0.012s

    sys0m0.124s

    消耗的时间基本和不设置丢包率差不多;

    7.默认算法,10%丢包率

    tc qdisc del root dev eth0

    tc qdisc add dev eth0 root netem loss 10%

    tc qdisc del root dev lo

    tc qdisc add dev lo root netem loss 10%

    查询

    sysctl net.ipv4.tcp_available_congestion_control

    sysctl net.ipv4.tcp_congestion_control

    time curl -H "Host:" -voa

    real1m4.763s

    user0m0.088s

    sys0m0.316s

    比测试8耗时时间更多了;

    8.bbr算法,10%丢包率

    time curl -H "Host:" -voa

    real0m4.756s

    user0m0.012s

    sys0m0.128s

    消耗的时间最低是3.2,最多是7,不过极少情况也可能到达10,大部分都是4s;

    展开全文
  • 比锐速还强的 TCP拥塞控制技术 —— TCP-BBR 测试及开启教程 网络资源 Toyo 7个月前 (12-08) 56评论 文章目录 [显示] 本文最后更新于 2017年6月11日 02:36 可能会因为没有更新而失效。如已失效或需要修正,请...

    比锐速还强的 TCP拥塞控制技术 —— TCP-BBR 测试及开启教程

    网络资源 Toyo 7个月前 (12-08) 56评论

    文章目录

    [显示]

    本文最后更新于 2017年6月11日 02:36 可能会因为没有更新而失效。如已失效或需要修正,请留言!

    这几天BBR很火的样子,我就半夜测试一下。BBR和锐速都属于TCP拥塞控制技术,虽然这类技术互联网上面不少,不过我都不是很了解。

    本文章仅为我个人的测试,各地区测试情况不一样,而且BBR还处于开发初期并且开源,而锐速则已经停止开发了。


    一键脚本安装:『原创』Debian/Ubuntu系统 TCP拥塞控制技术 ——TCP-BBR 一键安装脚本

    注意:TCP-BBR和锐速一样,不支持Openvz,查看本教程之前,请先确定你的VPS的虚拟化技术!

    注意:本教程涉及到VPS更换内核,所以如果步骤错误,或者VPS不兼容最新的内核,会导致无法开机等错误,请勿用于生产环境!!!!

    BBR 简单介绍

    BBR 是一个由谷歌社区开发的 TCP拥塞控制技术,目前处于开发初期,但是前景很棒,大家可以持续关注,同时BBR是集成与Linux最新版本的内核中的。

    具体什么是TCP拥塞控制技术,详细的我也不懂,我就用通俗的解释一下,不一定准确,看一看理解一下就好了。

    原始的TCP流量传输技术,流量管理很乱,我们把 TCP流量比喻成 公路上的汽车流量,而TCP传输隧道就是 公路,那么:

    在原始的TCP流量传输中,一条十字路口公路,很多车流量,但是却没有红绿灯和交警,导致大家左挤右挤的堵车了,这就是没有合理的管理导致的。

    而BBR和锐速等TCP流量控制技术,就是红绿灯+交警,他们就是在无人管理的十字路口,去合理指挥分配车流量,然后最大化的利用车流量,保证路面畅通。

    大概就是这样解释了,有什么错误请指出。

    启动步骤

    首先是教程,本人喜欢Debian,所以我先使用 Debian 7 / 8 x64 系统来做测试。Ubuntu随后考虑加上。

    每一个步骤,我都会加上VPS中执行后的提示,本教程以64位为例。但是各个系统可能会存在差异,所以仅为参考。

    在 2016-12-05 21:00 更新的 4.9.0-rc8 内核已经支持了TCP-BBR,最新内核看这里

    注意:TCP-BBR必须是 2016-12-05 21:00 更新的 4.9.0-rc8 内核及以后的版本 才能开启,而锐速并不支持这个最新的内核版本,所以TCP-BBR和锐速是不能共存的。

    更换内核需要ROOT权限的账号,所以如果你是普通用户 的话,需要切换到ROOT账号,如果你是ROOT账号,那就忽略这个步骤:

     
    1. sudo su

    输入并回车后,会提示让你输入当前用户账号的密码,输入并回车后就可以继续下面的步骤了。


     
    1. uname -m

    使用这个命令会返回你的系统位数,如果是 x86_64 那就是64位,如果是 i386 或 386 那就是32位,如果是 i686 或 686,那么不支持

    下载内核文件(64位系统)

     
    1. wget -O linux-image-4.10.1-amd64.deb http://kernel.ubuntu.com/~kernel-ppa/mainline/v4.10.1/linux-image-4.10.1-041001-generic_4.10.1-041001.201702260735_amd64.deb

    下载内核文件(32位系统)

     
    1. wget -O linux-image-4.10.1-i386.deb http://kernel.ubuntu.com/~kernel-ppa/mainline/v4.10.1/linux-image-4.10.1-041001-generic_4.10.1-041001.201702260735_i386.deb

    点击展开 查看VPS提示

    安装内核(64位)

     
    1. dpkg -i linux-image-4.10.1-amd64.deb

    安装内核(32位)

     
    1. dpkg -i linux-image-4.10.1-i386.deb

    点击展开 查看VPS提示

    列出并删除旧内核

    列出VPS 除了刚才安装的内核以外的 所有内核名称:

    注意:这个代码是排除了刚才安装的内核,所以不会显示刚才安装的那个内核。删除了多余的内核后,就会什么都不显示!
     
    1. dpkg -l|grep linux-image | awk '{print $2}' | grep -v 'linux-image-[4-9].[0-9]*.'
     
    1. root@bbr1:~# dpkg -l|grep linux-image | awk '{print $2}' | grep -v 'linux-image-[4-9].[0-9]*.'
    2. linux-image-3.16.0-4-amd64
    3. linux-image-amd64

    我使用的VPS是 3.16.0-4-amd64 内核的,所以删除这两个内核: linux-image-3.16.0-4-amd64、linux-image-amd64

    删除旧内核:

     
    1. apt-get purge 旧内核名称
     
    1. # !!!!示例!!!!
    2. # 比如我是有这两个内核,所以我把这两个删掉,不要照着我的这个步骤做,自己换成你VPS的内核名称!!!
    3. apt-get purge linux-image-3.16.0-4-amd64
    4. apt-get purge linux-image-amd64
    5. # !!!!示例!!!!

    删除旧内核的过程中会提示你是否继续,选择 Y ,然后还会提示你是否终止删除内核的行为,选择 NO

    点击展开 查看VPS提示

    更新 grub 系统引导文件并重启VPS

     
    1. # 更新系统引导文件
    2. update-grub
    3. # 重启VPS,执行后SSH链接会断开,等十几秒再重新连接继续执行下面的启动命令。
    4. reboot
     
    1. # VPS提示
    2.  
    3. root@bbr1:~# update-grub
    4. Generating grub configuration file ...
    5. Found linux image: /boot/vmlinuz-4.10.1-040900rc8-generic
    6. Found initrd image: /boot/initrd.img-4.10.1-040900rc8-generic
    7. done

    开启bbr

     
    1. echo "net.core.default_qdisc=fq" >> /etc/sysctl.conf
    2. echo "net.ipv4.tcp_congestion_control=bbr" >> /etc/sysctl.conf

    执行这个保存生效更改。

     
    1. sysctl -p
     
    1. # VPS提示
    2.  
    3. root@bbr1:~# sysctl -p
    4. net.ipv6.conf.all.accept_ra = 2
    5. net.core.default_qdisc = fq
    6. net.ipv4.tcp_congestion_control = bbr

    关闭bbr

     
    1. sed -i '/net\.core\.default_qdisc=fq/d' /etc/sysctl.conf && sed -i '/net\.ipv4\.tcp_congestion_control=bbr/d' /etc/sysctl.conf
    2. sysctl -p

    执行完上面的代码,就使用reboot重启VPS后才能关闭bbr,重启后再用下面的查看bbr状态代码,查看是否关闭了。

     
    1. reboot

    查看bbr是否开启

    执行下面命令,如果结果中有bbr,即证明你的内核已开启bbr。

     
    1. sysctl net.ipv4.tcp_available_congestion_control

    执行下面命令,看到有 tcp_bbr 模块,即说明bbr已启动

     
    1. lsmod | grep bbr
     
    1. # VPS提示
    2. root@bbr1:~# sysctl net.ipv4.tcp_available_congestion_control
    3. net.ipv4.tcp_available_congestion_control = bbr cubic reno
    4.  
    5. # ================================================
    6.  
    7. root@bbr1:~# lsmod | grep bbr
    8. tcp_bbr 20480 0

    卸载BBR

    BBR集成于内核中,所以卸载BBR=更换内核,教程:

    Debian/Ubuntu 内核降级教程 —— 降低(BBR)为支持锐速的内核版本

    裸 SS/锐速+SS/BBR+SS 速度对比

    本人的测试环境是:晚上23:00点,联通运营商,美国渣渣VPS。

    各个地区和运营商都存在差别,我的测试 速度对比仅供参考。谷歌网盘单线程下载测速地址:100MB

    因为是半夜测试的,再加上用的美国垃圾小鸡,所以 裸SS 速度感人。

    使用 锐速+SS 后,单线程下载测速,翻了十倍,Youtube 也能看 1080P流畅 了。

    换成 BBR+SS 后,单线程又在 锐速+SS 的基础上翻了一倍,Youtube 速度有上升了一个档次 1440P 倒是勉强,1080P可以随便拖拉了。

    虽然 Youtube 的数值不是很准,但是还是有点用的,数值太低同样也代表速度不行。

    总其以上,锐速(ServerSpeed)的技术已经成熟、定型,加速效果还是不错的,但是不再更新和维护了。

    而 TCP-BBR 属于新生的技术,处于开发初期,买没有完善成熟,未来的潜力相信还好更好。

    所以总的来说:非折腾党,还是建议先使用锐速观望 TCP-BBR 一段时间,这是最稳妥的办法。

    裸 SS

    锐速+SS

    BBR+SS

    本文章安装步骤来自:https://github.com/iMeiji/shadowsocks_install/wiki/开启TCP-BBR拥塞控制算法

    展开全文
  • 测试bbr性能

    千次阅读 2017-12-10 14:31:39
    我在我们的缓存服务器上测试bbr的性能,我们发现使用bbr在拥塞丢包的情况下比cubic的性能更高,所以我们推广大规模使用了bbr
    目前我们服务器上的拥塞控制策略是cubic算法;
    sysctl -a |grep tcp_congestion_control
    net.ipv4.tcp_congestion_control = cubic

    sysctl -a |grep default_qdisc
    net.core.default_qdisc = pfifo_fast

    比较好的bbr文档: https://www.zhihu.com/question/53559433

    测试:client是100.100.84.141 缓存服务器是100.100.84.192,源站是100.100.84.192;测试文件大小是61M;

    测试结果:在没有丢包率的情况下,开启bbr和不开启bbr没啥区别;但是丢包率越高,开启bbr和不开启bbr造成的时延差别也越来越大;


    1.开启bbr,并且没有丢包率;
    echo "net.core.default_qdisc=fq" >> /etc/sysctl.confecho "net.ipv4.tcp_congestion_control=bbr" >> /etc/sysctl.conf
    sysctl -p
    time curl -H "Host:www.jd.com" http://100.100.84.192:8080/1.tar.gz -voa
    real 0m1.050s
    user 0m0.016s
    sys 0m0.120s
    real的时间基本保持着1.039-1.090之间;尝试了很多次,基本都是这个;
    2. 不开启bbr,并且没有丢包率;
    echo "net.core.default_qdisc=pfifo_fast " >> /etc/sysctl.confecho "net.ipv4.tcp_congestion_control=cubic " >> /etc/sysctl.conf
    sysctl -p
    测试命令和1一样,消耗时间也差不多;

    3. 默认算法,5%丢包率
    tc qdisc del root dev eth0
    tc qdisc add dev eth0 root netem loss 5%
    time curl -H "Host:www.jd.com" http://100.100.84.192:8080/1.tar.gz -voa
    real 0m4.068s
    user 0m0.024s
    sys 0m0.172s
    消耗时间基本都是在3s以上,有时候能到达到5s;
    4.bbr 算法,5%丢包率
    time curl -H "Host:www.jd.com" http://100.100.84.192:8080/1.tar.gz -voa
    real 0m1.714s
    user 0m0.016s
    sys 0m0.112s
    消耗的时间基本都是在1.5s到3s之间;大多数低于2s;

    5. 默认算法,1%丢包率
    tc qdisc del root dev eth0
    tc qdisc add dev eth0 root netem loss 1%
    tc qdisc del root dev lo
    tc qdisc add dev lo root netem loss 1%
    查询
    sysctl net.ipv4.tcp_available_congestion_control
    sysctl net.ipv4.tcp_congestion_control
    time curl -H "Host:www.jd.com" http://100.100.84.192:8080/1.tar.gz -voa
    real 0m1.118s
    user 0m0.032s
    sys 0m0.116s
    和测试6差不多。感觉和没有设置丢包率差不多;
    6.bbr 算法,1%丢包率
    time curl -H "Host:www.jd.com" http://100.100.84.192:8080/1.tar.gz -voa
    real 0m1.038s
    user 0m0.012s
    sys 0m0.124s
    消耗的时间基本和不设置丢包率差不多;
    7. 默认算法,10%丢包率
    tc qdisc del root dev eth0
    tc qdisc add dev eth0 root netem loss 10%
    tc qdisc del root dev lo
    tc qdisc add dev lo root netem loss 10%
    查询
    sysctl net.ipv4.tcp_available_congestion_control
    sysctl net.ipv4.tcp_congestion_control
    time curl -H "Host:www.jd.com" http://100.100.84.192:8080/1.tar.gz -voa
    real 1m4.763s
    user 0m0.088s
    sys 0m0.316s
    比测试8耗时时间更多了;
    8.bbr 算法,10%丢包率
    time curl -H "Host:www.jd.com" http://100.100.84.192:8080/1.tar.gz -voa
    real 0m4.756s
    user 0m0.012s
    sys 0m0.128s
    消耗的时间最低是3.2,最多是7,不过极少情况也可能到达10,大部分都是4s;
    展开全文
  • BBR

    千次阅读 2019-04-22 15:55:00
    最近,Google 开源了其 TCP BBR 拥塞控制算法...根据实地测试,在部署了最新版内核并开启了 TCP BBR 的机器上,网速甚至可以提升好几个数量级。于是我根据目前三大发行版的最新内核,开发了一键安装最新内核并开启 ...

    最近,Google 开源了其 TCP BBR 拥塞控制算法,并提交到了 Linux 内核,从 4.9 开始,Linux 内核已经用上了该算法。根据以往的传统,Google 总是先在自家的生产环境上线运用后,才会将代码开源,此次也不例外。
    根据实地测试,在部署了最新版内核并开启了 TCP BBR 的机器上,网速甚至可以提升好几个数量级。
    于是我根据目前三大发行版的最新内核,开发了一键安装最新内核并开启 TCP BBR 脚本。

    本脚本适用环境

    系统支持:CentOS 6+,Debian 7+,Ubuntu 12+
    虚拟技术:OpenVZ 以外的,比如 KVM、Xen、VMware 等
    内存要求:≥128M
    日期  :2018 年 12 月 14 日

     

    关于本脚本

    1、本脚本已在 Vultr 上的 VPS 全部测试通过。
    2、当脚本检测到 VPS 的虚拟方式为 OpenVZ 时,会提示错误,并自动退出安装。
    3、脚本运行完重启发现开不了机的,打开 VPS 后台控制面板的 VNC, 开机卡在 grub 引导, 手动选择内核即可。
    4、由于是使用最新版系统内核,最好请勿在生产环境安装,以免产生不可预测之后果。

    使用方法

    使用root用户登录,运行以下命令:

    wget --no-check-certificate https://github.com/teddysun/across/raw/master/bbr.sh && chmod +x bbr.sh && ./bbr.sh

    安装完成后,脚本会提示需要重启 VPS,输入 y 并回车后重启。
    重启完成后,进入 VPS,验证一下是否成功安装最新内核并开启 TCP BBR,输入以下命令:

    uname -r

    查看内核版本,显示为最新版就表示 OK 了

    sysctl net.ipv4.tcp_available_congestion_control

    返回值一般为:
    net.ipv4.tcp_available_congestion_control = bbr cubic reno
    或者为:
    net.ipv4.tcp_available_congestion_control = reno cubic bbr

    sysctl net.ipv4.tcp_congestion_control

    返回值一般为:
    net.ipv4.tcp_congestion_control = bbr

    sysctl net.core.default_qdisc

    返回值一般为:
    net.core.default_qdisc = fq

    lsmod | grep bbr

    返回值有 tcp_bbr 模块即说明 bbr 已启动。注意:并不是所有的 VPS 都会有此返回值,若没有也属正常。

    CentOS 下最新版内核 headers 安装方法

    本来打算在脚本里直接安装 kernel-ml-headers,但会出现和原版内核 headers 冲突的问题。因此在这里添加一个脚本执行完后,手动安装最新版内核 headers 之教程。
    执行以下命令

    yum --enablerepo=elrepo-kernel -y install kernel-ml-headers

    根据 CentOS 版本的不同,此时一般会出现类似于以下的错误提示:

    Error: kernel-ml-headers conflicts with kernel-headers-2.6.32-696.20.1.el6.x86_64
    Error: kernel-ml-headers conflicts with kernel-headers-3.10.0-693.17.1.el7.x86_64

    因此需要先卸载原版内核 headers ,然后再安装最新版内核 headers。执行命令:

    yum remove kernel-headers

    确认无误后,输入 y,回车开始卸载。注意,有时候这么操作还会卸载一些对内核 headers 依赖的安装包,比如 gcc、gcc-c++ 之类的。不过不要紧,我们可以在安装完最新版内核 headers 后再重新安装回来即可。
    卸载完成后,再次执行上面给出的安装命令。

    yum --enablerepo=elrepo-kernel -y install kernel-ml-headers

    成功安装后,再把那些之前对内核 headers 依赖的安装包,比如 gcc、gcc-c++ 之类的再安装一次即可。

    为什么要安装最新版内核 headers 呢?
    这是因为 shadowsocks-libev 版有个 tcp fast open 功能,如果不安装的话,这个功能是无法开启的。

    内核升级方法

    如果是 CentOS 系统,执行如下命令即可升级内核:

    yum -y install kernel-ml kernel-ml-devel

    如果你还手动安装了新版内核 headers ,那么还需要以下命令来升级 headers :

    yum -y install kernel-ml-headers

    CentOS 6 的话,执行命令:

    sed -i 's/^default=.*/default=0/g' /boot/grub/grub.conf

    CentOS 7 的话,执行命令:

    grub2-set-default 0

    如果是 Debian/Ubuntu 系统,则需要手动下载最新版内核来安装升级。
    这里下载最新版的内核 deb 安装包。
    如果系统是 64 位,则下载 amd64 的 linux-image 中含有 generic 这个 deb 包;
    如果系统是 32 位,则下载 i386 的 linux-image 中含有 generic 这个 deb 包;
    安装的命令如下(以最新版的 64 位 4.12.4 举例而已,请替换为下载好的 deb 包):

    dpkg -i linux-image-4.12.4-041204-generic_4.12.4-041204.201707271932_amd64.deb

    安装完成后,再执行命令:

    /usr/sbin/update-grub

    最后,重启 VPS 即可。

    特别说明

    如果你使用的是 Google Cloud Platform (GCP)更换内核,有时会遇到重启后,整个磁盘变为只读的情况。只需执行以下命令即可恢复:

    mount -o remount rw /

     

    更新日志:

    2018 年 12 月 14 日:
    1、修正:在 CentOS 6 系统下 kernel-ml 及 kernel-ml-devel 无法安装的问题。原因是 elrepo 官方最近取消了 kernel-ml 及 kernel-ml-devel 的 rpm 资源。脚本已改为下载 rpm 来安装的方式。版本 4.18.20 将会是 CentOS 6 下最新的内核,目测以后也不会再有升级了,请尽快迁移到 CentOS 7 系统。

    2018 年 06 月 09 日:
    1、修正:在 CentOS 系统下将 elrepo-kernel 默认启用,以解决在安装新内核后执行 yum update 再次安装旧内核的问题。

    2018 年 05 月 12 日:
    1、修正:在 Ubuntu 或 Debian 系统中某些情况下获取不到某个编译失败的安装包导致退出安装的问题。并且现在可以手动选择安装从 4.14 到最新版本的内核。

    2018 年 02 月 24 日:
    1、新增:手动安装最新版内核 headers 的教程。

    2017 年 10 月 28 日:
    1、更新:自动判断内核版本。如果内核版本已经大于或等于 4.9 且没有开启 BBR,脚本会直接设置好 BBR;
    2、新增:脚本执行时会在当前目录下创建日志(install_bbr.log),方便查看及排错。

    2017 年 02 月 22 日:
    1、更新:自动获取最新版 4.10 内核。

    2017 年 01 月 20 日:
    1、新增:自动获取并下载安装最新版内核的功能。

    2017 年 01 月 13 日:
    1、更新:内核到 4.9.3。

    2017 年 01 月 09 日:
    1、更新:内核到 4.9.1。

    转载于:https://www.cnblogs.com/xyyhcn/p/10750654.html

    展开全文
  • BBR拥塞控制RTT不公平性测试

    千次阅读 2019-06-18 11:12:00
    BBR的RTT不公平性,最先由论文[1]指出,即在同一个瓶颈链路中,rtt大的BBR流可以获得大部分带宽,rtt小的BBR流获取的带宽较少,甚至被饿死。这个毛病其实是一个很大的问题,这个问题使得rtt较小的数据流通过升级...
  • TCP BBR

    2020-02-19 15:11:19
    TCP BBR(Bottleneck Bandwidth and Round-trip propagation time)是由Google设计的网络拥塞算法。 以往大部分拥塞算法是基于丢包来作为降低传输速率的信号,而BBR则基于模型主动探测。 该算法使用网络最近出站...
  • 看到 Leonax+ 更新了一片文章在 Debian 中启用 TCP BBR 算法顺势了解到出了这样一个技术。BBR 算法由 Google 提出,原先...跑去看了 BlueCocoa 关于TCP的三言两语以及 Google 的报告,然后又搜索了 “BBR 测试效果”...
  • google bbr

    千次阅读 2019-04-23 22:18:18
    什么是bbr(Bottleneck Bandwidth and RTT),它的功能类似于锐速的单边加速工具,并且是免费的,所以不需要破解。谷歌的一种黑科技,新的TCP拥塞控制算法,能尽量跑满你服务器的带宽,并且尽量不要有排队的情况。这里...
  • BBR加速 Centos

    2019-10-07 16:14:31
    BBR是什么 BBR 是 Google 提出的一种新型拥塞控制算法,可以使 Linux 服务器显著地提高吞吐量和减少 TCP 连接的延迟。 BBR项目地址 https://github.com/google/bbr 手动安装,升级内核 开启 BBR 要求 4.10 以上...
  • BBR论文中文翻译

    千次阅读 多人点赞 2019-03-31 10:34:42
    BBR 论文中文翻译(原文:BBR: Congestion-Based Congestion Control) 译者:林佳烁 邮件:15622383059@163.com Github仓库:https://github.com/yue2388253/BBR-Translation Measureing bottleneck bandwidth and ...
  • 魔改BBR

    2017-10-28 12:32:00
    前几天刚刚LOC位大佬修改后的BBRBBR开源的),使其具有侵略性,我试了试,效果很不错,本人在Virmach上的小鸡测试,下载同一文件时,锐速20M/S。BBR魔改接近80M/S。注意:使用魔改版过度可能会封号。 Vicer一键...
  • 下面是一个五合一的TCP网络加速脚本,其包括了BBR原版、BBR魔改版、暴力BBR魔改版、BBR plus、Lotsever(锐速)安装脚本。该脚本由94ish.me制作。可用于KVM\Xen架构,不兼容OpenVZ(OVZ)。支持Centos 6+ / Debian 7+ ...
  • 谷歌最近推出最新的拥塞控制算法BBR (“Bottleneck Bandwidth and RTT”),号称20%以内的丢包不减速。目前最新内核4.9支持。(kernel 4.9: 2016.12)github:传送门环境: Ubuntu 16.04.1 LTS 16.04目前官方可以...
  • 原文地址: ... 最近,Google 开源了其 TCP BBR 拥塞控制算法,并提交到了 Linux 内核,从 4.9 开始,Linux 内核已经用上了该...根据实地测试,在部署了最新版内核并开启了 TCP BBR 的机器上,网速甚至可以提升好几...
  • 安装BBR无法正常冲浪

    千次阅读 2017-10-31 15:34:34
    最近,Google 开源了其 TCP BBR 拥塞控制算法,并提交到了 ...根据实地测试,在部署了最新版内核并开启了 TCP BBR 的机器上,网速甚至可以提升好几个数量级。 于是我根据目前三大发行版的最新内核,开发了一键安装最新
  • BBR拥塞控制算法

    2016-12-25 21:16:00
    BBR拥塞控制算法是Google最新研发的单边TCP拥塞控制算法Linux 内核4.9 已引入这个BBR算法,本人在CAC测试Ubuntu 14.04 安装Linux 4.9内核,延迟优化效果和TCP连接速度提升效果明显好于锐速!Ubuntu更新内核、开启BBR...
  • BBR中BW的测量

    2019-10-24 14:46:22
    文章目录BBR中BW的测量非稳态的测量(发包速率上限受app发包速率限制)稳态的测量两者的区别pacing的使用 BBR中BW的测量 非稳态的测量(发包速率上限受app发包速率限制) 只要是个可以使用的样本都会被用来计算bw,...
  • Ubuntu一键安装BBR脚本

    千次阅读 2017-06-25 11:01:30
    最近,Google 开源了其 TCP BBR 拥塞控制算法,并提交到了 Linux 内核,最新的 4.11 版内核已经用上了该算法。...根据实地测试,在部署了最新版内核并开启了 TCP BBR 的机器上,网速甚至可以提升好几个数量级。
  • 开启TCP BBR拥塞控制算法

    千次阅读 2017-04-11 20:04:16
    什么是BBR TCP BBR是谷歌出品的TCP拥塞控制算法。TCP-BBR的目标就是最大化利用网络上瓶颈链路的带宽,尽量跑满带宽,并且尽量不要有排队的情况。BBR可以起到单边加速TCP连接的效果。  BBR算法,Google已经提交到...

空空如也

空空如也

1 2 3 4 5 ... 20
收藏数 828
精华内容 331
关键字:

bbr测试