wangyu-UDPspeeder/doc/README.zh-cn.md
2017-10-23 21:26:39 -07:00

15 KiB
Raw Blame History

UDPspeeder

image0

双边网络加速工具软件本身的功能是加速UDP不过配合vpn可以加速全流量(包括TCP/UDP/ICMP)。通过合理配置可以加速游戏降低游戏的丢包和延迟也可以加速下载和看视频这种大流量的应用。用1.5倍的流量就可以把10%的丢包率降低到万分之一以下。跟 kcptun/finalspeed/BBR 等现有方案比,主要优势是可以加速 UDP 和 ICMP现有方案几乎都只能加速 TCP。

我自己稳定用了几个月用来加速美服的Brawl Stars和亚服的Mobile Legend效果不错加速前卡得几乎没法玩加速后就没怎么卡过了。用来看视频也基本满速。

最新的版本是v2版在v1版的基础上增加了FEC功能更省流量。如果你用的是v1版路由器固件里自带的集成版很可能是v1版的请看v1版主页

配合vpn加速全流量的原理图(已测试支持VPN的有OpenVPN、L2TP、$***VPN):

image0

另外可以和udp2raw串联使用在加速的同时把UDP伪装成TCP防止UDP被运营商QOS或屏蔽。udp2raw: https://github.com/wangyu-/udp2raw-tunnel

效果

image0

image0

原理简介

主要原理是通过冗余数据来对抗网络的丢包发送冗余数据的方式支持FEC(Forward Error Correction)和多倍发包,其中FEC算法是Reed-Solomon。

对于FEC方式的原理图:

image0

其他功能

对包的内容和长度做随机化可以理解为混淆从抓包看不出你发送了冗余数据不用担心vps被封。

在多个冗余包之间引入延迟时间可配来对抗突发性的丢包避开中间路由器因为瞬时buffer长度过长而连续丢掉所有副本。

模拟一定的延迟抖动(时间可配),这样上层应用计算出来的RTT方差会更大以等待后续冗余包的到达不至于发生在冗余包到达之前就触发重传的尴尬。

输出UDP收发情况报告可以看出丢包率。

模拟丢包模拟延迟模拟jitter。便于通过实验找出应用卡顿的原因。

client支持多个udp连接server也支持多个client

简明操作说明

环境要求

Linux主机可以是桌面版可以是android手机/平板可以是openwrt路由器也可以是树莓派。在windows和mac上配合虚拟机可以稳定使用speeder跑在Linux里其他应用照常跑在window里桥接模式测试可用可以使用这个虚拟机镜像大小只有7.5mb,免去在虚拟机里装系统的麻烦。

android版需要通过terminal运行。

注意

在使用虚拟机时,建议手动指定桥接到哪个网卡,不要设置成自动。否则可能会桥接到错误的网卡。

安装

下载编译好的二进制文件,解压到本地和服务器的任意目录。

https://github.com/wangyu-/UDPspeeder/releases

运行

假设你有一个serverip为44.55.66.77有一个服务监听在udp 7777端口。 假设你需要加速本地到44.55.66.77:7777的流量。

在server端运行:
./speederv2 -s -l0.0.0.0:4096 -r127.0.0.1:7777  -f20:10 -k "passwd"

在client端运行:
./speederv2 -c -l0.0.0.0:3333 -r44.55.66.77:4096 -f20:10 -k "passwd"

现在client和server之间建立起了tunnel。想要连接44.55.66.77:7777只需要连接 127.0.0.1:3333。来回的所有的udp流量会被加速。

备注:

-f20:10 表示对每20个原始数据发送10个冗余包。

-k 指定一个字符串server/client间所有收发的包都会被异或改变协议特征防止UDPspeeder的协议被运营商针对。

注意

要为UDPspeeder加速的应用设置好MTU(不是在UDPspeeder中是在被加速的应用中)建议设置为1200。

另外如果被加速的应用不能调整MTU也可以在UDPspeeder中通过--mode 0 --mtu 1200设置MTU。关于--mode 0--mtu的具体含义请看下文。

进阶操作说明

命令选项

UDPspeeder V2
git version:99f6099e86    build date:Oct 19 2017 13:35:38
repository: https://github.com/wangyu-/UDPspeeder

usage:
    run as client : ./this_program -c -l local_listen_ip:local_port -r server_ip:server_port  [options]
    run as server : ./this_program -s -l server_listen_ip:server_port -r remote_ip:remote_port  [options]

common option,must be same on both sides:
    -k,--key              <string>        key for simple xor encryption. if not set,xor is disabled
main options:
    -f,--fec              x:y             forward error correction,send y redundant packets for every x packets
    --timeout             <number>        how long could a packet be held in queue before doing fec,unit: ms,default :8ms
    --mode                <number>        fec-mode,available values: 0,1 ; 0 cost less bandwidth,1 cost less latency(default)
    --report              <number>        turn on send/recv report,and set a period for reporting,unit:s
advanced options:
    --mtu                 <number>        mtu. for mode 0,the program will split packet to segment smaller than mtu_value.
                                          for mode 1,no packet will be split,the program just check if the mtu is exceed.
                                          default value:1250
    -j,--jitter           <number>        simulated jitter.randomly delay first packet for 0~<number> ms,default value:0.
                                          do not use if you dont know what it means.
    -i,--interval         <number>        scatter each fec group to a interval of <number> ms,to protect burst packet loss.
                                          default value:0.do not use if you dont know what it means.
    --random-drop         <number>        simulate packet loss ,unit:0.01%. default value: 0
    --disable-obscure     <number>        disable obscure,to save a bit bandwidth and cpu
developer options:
    -j ,--jitter          jmin:jmax       similiar to -j above,but create jitter randomly between jmin and jmax
    -i,--interval         imin:imax       similiar to -i above,but scatter randomly between imin and imax
    -q,--queue-len        <number>        max fec queue len,only for mode 0
    --decode-buf          <number>        size of buffer of fec decoder,unit:packet,default:2000
    --fix-latency         <number>        try to stabilize latency,only for mode 0
    --delay-capacity      <number>        max number of delayed packets
    --disable-fec         <number>        completely disable fec,turn the program into a normal udp tunnel
    --sock-buf            <number>        buf size for socket,>=10 and <=10240,unit:kbyte,default:1024
log and help options:
    --log-level           <number>        0:never    1:fatal   2:error   3:warn
                                          4:info (default)     5:debug   6:trace
    --log-position                        enable file name,function name,line number in log
    --disable-color                       disable log color
    -h,--help                             print this help message

包发送选项,两端设置可以不同。 只影响本地包发送。

-f 选项

设置fec参数影响数据的冗余度。

--timeout 选项

指定fec编码器在编码时候最多可以引入多大的延迟。越高fec越有效率加速游戏时调低可以降低延迟。

--mode 选项 和 --mtu选项

fec编码器的工作模式。对于mode 0编码器会积攒一定数量的packet然后把他们合并再切成等长的片段切分长度由--mtu指定。对于mode 1编码器不会做任何切分,而是会把packet按最大长度对齐fec冗余包的长度为对齐后的长度最大长度

mode 0更省流量在丢包率正常的情况下效果和mode 1是一样的mode 1延迟更低在极高丢包的情况下表现更好。

mode 0使用起来可以不用关注mtu因为fec编码器会帮你把包切分到合理的大小用mode 1时必须合理设置上层应用的mtu。mode 0模式中--mtu选项决定切分的片段的长度mode 1模式中--mtu选项只起检查作用如果超过了--mtu指定的值数据包会被丢弃。

mode 0模式的流量消耗基本完全透明。mode 1因为涉及到数据按最大长度对齐所以流量消耗不是完全可预期。不过就实际使用来看mode 1消耗的额外流量不多。

--report  选项

数据发送和接受报告。开启后可以根据此数据推测出包速和丢包率等特征。

-i 选项

指定一个时间窗口长度为n毫秒。同一个fec分组的数据在发送时候会被均匀分散到这n毫秒中。可以对抗突发性的丢包。默认值是0因为这个功能需要用到时钟在某些虚拟机里时钟不稳定可能会导致个别包出现非常大的延迟所以默认关掉了。这个功能很有用默认参数效果不理想时可以尝试打开。

-j 选项

为原始数据的发送增加一个延迟抖动值。这样上层应用计算出来的RTT方差会更大以等待后续冗余包的到达不至于发生在冗余包到达之前就触发重传的尴尬。配合-t选项使用。正常情况下跨国网络本身的延迟抖动就很大可以不用设-j。这个功能也需要时钟默认关掉了不过一般情况应该不需要这个功能。

--random-drop 选项

随机丢包。模拟恶劣的网络环境时使用。如果你的网络现在没有多大丢包但是你想测试一下高丢包环境下各种FEC参数的表现可以开这个选项。

-k选项

指定一个字符串server/client间所有收发的包都会被异或改变协议特征防止UDPspeeder的协议被运营商针对。

--disable-obscure

UDPspeeder默认情况下会对每个发出的数据包随机填充和异或一些字节(4~32字节)这样通过抓包难以发现你发了冗余数据防止VPS被封。这个功能只是为了小心谨慎即使你关掉这个功能基本上也没问题关掉可以省一些带宽和CPU。

使用经验

在FEC和多倍发包之间如何选择

对于游戏,游戏的流量本身不大,延迟很重要,多倍发包是最有效的解决方案,多倍发包不会引入额外的延迟。

对于其他日常应用延迟要求一般在合理配置的情况下FEC的效果肯定好过多倍发包。不过需要根据网络的最大丢包来配置FEC参数才能有稳定的效果。如果配置不当对于--mode 1可能会完全没有效果对于--mode 0可能效果会比不用UDPspeeder还差。

对于游戏以外的应用推荐使用FEC。但是如果FEC版的默认参数在你那边效果很差而你又不会调可以先用多倍发包。

V2版如何多倍发包

只要在设置-f参数时把x设置为1fec算法就退化为多倍发包了。例如-f1:1,表示2倍发包-f1:2表示3倍发包以此类推。另外可以加上--mode 0 -q1参数防止fec编码器试图积攒和合并数据获得最低的延迟。

2倍发包的完整参数

./speederv2 -s -l0.0.0.0:4096 -r127.0.0.1:7777  -f1:1 -k "passwd" --mode 0 -q1
./speederv2 -c -l0.0.0.0:3333 -r44.55.66.77:4096 -f1:1 -k "passwd" --mode 0 -q1

如果你只需要多倍发包可以直接用回V1版V1版配置更简单占用内存更小而且经过了几个月的考验很稳定。

根据网络丢包合理设置FEC参数

默认的FEC参数为-f20:10对每20个包额外发送10个冗余包也就是1.5倍发包。已经可以适应绝大多数的网络情况了对于10%的网络丢包可以降低到0.01%以下对于20%的网络丢包可以降低到2.5%。

如果你的网络丢包很低比如在3%以下,可以尝试调低参数。比如-f20:5也就是1.2倍发包这个参数已经足够把3%的丢包降低到0.01%以下了。

如果网络丢包超过20%,需要把-f20:10调大。

如果你实在不会配那么也可以用回V1版。

根据CPU处理能力来调整FEC参数

FEC算法很吃CPU,初次使用建议关注UDPspeeder的CPU占用。如果CPU被打满可以在冗余度不变的情况下把FEC分组大小调小否则的话效果可能很差。

比如-f20:10和-f10:5都是1.5倍的冗余度,而-f20:10的FEC分组大小是30个包-f10:5的FEC分组大小是15个包。-f20:10更费CPU,但是在一般情况下效果更稳定。把分组调小可以节省CPU。

另外fec分组大小不宜过大否则不但很耗CPU,还有其他副作用建议x+y<50。

UDPspeeder和BBR/锐速配合

UDPspeeder和BBR/锐速可以配合使用UDPspeeder工作在IP层负责降低丢包率BBR/锐速工作在TCP层负责优化拥塞和重传。这种情况下可以调低UDPspeeder的冗余度能把丢包率降低到5%以内就可以了剩下的交给BBR/锐速解决,这样预计可以节省一些流量。

对下文的UDPspeeder + openvpnUDPspeeder + openvpn + $***方法有效。不过有一点区别,具体见下文。

UDPspeeder和Kcptun配合

UDPspeeder和Kcptun配合,UDPspeeder和Kcptun可以并联也可以串联。

并联的情况下让kcptun负责加速TCP,UDPspeeder负责加速UDP。见下文的UDPspeeder + kcptun + $*** 同时加速tcp和udp流量

串联的情况。UDPspeeder的FEC跟Kcptun自带的相比可以对两个方向设置不通的FEC参数、有一个更省流量的mode 0模式、可以调整的FEC参数多一些但是UDPspeeder本身不优化拥塞和重传算法。所以UDPspeeder和Kcptun也可以配合使用结合两者的优点。

串联时可以关掉Kcptun的FEC,让UDPspeeder接管FEC功能。这样UDPspeeder工作在UDP层负责降低丢包率Kcptun工作在应用层用kcp算法负责优化拥塞和重传能起到和UDPspeeder+BBR/锐速类似的效果。

如果发Issue问Kcptun+UDPspeeder相关的问题一定要说明是并联还是串联。

应用

UDPspeeder + openvpn加速任何流量

image0

具体配置见,UDPspeeder + openvpn config guide.

可以和BBR/锐速叠加不过BBR/锐速部署在VPS上只对从本地到VPS的流量有效对从本地到第三方服务器的流量无效。

UDPspeeder + kcptun/finalspeed + $*** 同时加速tcp和udp流量

如果你需要用加速的tcp看视频和下载文件这样效果比UDPspeeder+vpn方案更好在没有BBR的情况下image0

UDPspeeder + openvpn + $*** 混合方案

也是我正在用的方案。优点是可以随时在vpn和$***方案间快速切换。 实际部署起来比图中看起来的还要简单。不需要改路由表需要做的只是用openvpn的ip访问$*** server。

image0

(也可以把图中的$*** server换成其他的socks5 server这样连$*** client也不需要了)

可以和BBR/锐速叠加BBR/锐速只要部署在VPS上就有效。

编译教程

暂时先参考udp2raw的这篇教程几乎一样的过程。

https://github.com/wangyu-/udp2raw-tunnel/blob/master/doc/build_guide.zh-cn.md