Sto cercando di limitare la larghezza di banda con tc e controlla i risultati con iperf . Ho iniziato così:
# iperf -c 192.168.2.1
------------------------------------------------------------
Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 192.168.2.7 port 35213 connected with 192.168.2.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-10.0 sec   830 MBytes   696 Mbits/sec
Le due istanze sono direttamente collegate tramite Ethernet.
 Quindi ho impostato un htb qdisc con una classe predefinita per limitare la larghezza di banda a 1mbit/sec:
# tc qdisc add dev bond0 root handle 1: htb default 12
# tc class add dev bond0 parent 1: classid 1:12 htb rate 1mbit
Ma non ottengo quello che mi aspetto:
# iperf -c 192.168.2.1
------------------------------------------------------------
Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 192.168.2.7 port 35217 connected with 192.168.2.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-12.8 sec   768 KBytes   491 Kbits/sec
 Se raddoppio la velocità, la larghezza di banda misurata non cambia. Cosa mi sto perdendo? Perché la larghezza di banda misurata non corrisponde a 1mbit dal rate parametro? Quali parametri devo impostare per limitare la larghezza di banda a una determinata velocità?
 Tuttavia, l'man la pagina dice che tbf dovrebbe essere il qdisc di scelta per questo compito:
Il Token Bucket Filter è adatto per rallentare il traffico a una velocità configurata con precisione. Si adatta bene a larghezze di banda elevate.
 tbf richiede parametri rate , burst e (limit | latency ). Quindi ho provato quanto segue senza capire come burst e (limit | latency ) influiscono sulla larghezza di banda disponibile:
# tc qdisc add dev bond0 root tbf rate 1mbit limit 10k burst 10k
 Questo mi ha portato a una larghezza di banda misurata di 113 Kbit/sec. Giocare con quei parametri non è cambiato molto finché non ho notato che l'aggiunta di un valore per mtu cambia le cose drasticamente:
# tc qdisc add dev bond0 root tbf rate 1mbit limit 10k burst 10k mtu 5000
ha prodotto una larghezza di banda misurata di 1,00 Mbit/sec.
Quali parametri dovrei impostare per limitare la larghezza di banda a una determinata velocità?
 Dovrei usare il htb o tbf fare la fila per questo?
MODIFICA :
Sulla base di queste risorse, ho fatto dei test:
- https://help.ubuntu.com/community/UbuntuBonding
- https://help.ubuntu.com/community/LinkAggregation
- /usr/share/doc/ifenslave-2.6/README.Debian.gz http://lartc.org/
Ho provato le seguenti configurazioni.
Su una macchina fisica
 /etc/network/interfaces :
auto lo
iface lo inet loopback
auto br0
iface br0 inet dhcp
bridge_ports eth0
 Misurazione con iperf :
# tc qdisc add dev eth0 root handle 1: htb default 12
# tc class add dev eth0 parent 1: classid 1:12 htb rate 1mbit
# iperf -c 192.168.2.1
------------------------------------------------------------
Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 192.168.2.4 port 51804 connected with 192.168.2.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-11.9 sec  1.62 MBytes  1.14 Mbits/sec
 Mentre il iperf il server ha calcolato una larghezza di banda diversa:
[  4] local 192.168.2.1 port 5001 connected with 192.168.2.4 port 51804
[  4]  0.0-13.7 sec  1.62 MBytes   993 Kbits/sec
Su una macchina virtuale senza collegamento
 /etc/network/interfaces :
auto lo
iface lo inet loopback
auto eth0
iface eth0 inet dhcp
 Misurazione con iperf :
# tc qdisc add dev eth0 root handle 1: htb default 12
# tc class add dev eth0 parent 1: classid 1:12 htb rate 1mbit
# iperf -c 192.168.2.1
------------------------------------------------------------
Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 192.168.2.7 port 34347 connected with 192.168.2.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-11.3 sec  1.62 MBytes  1.21 Mbits/sec
 Mentre il iperf il server ha calcolato una larghezza di banda diversa:
[  4] local 192.168.2.1 port 5001 connected with 192.168.2.7 port 34347
[  4]  0.0-14.0 sec  1.62 MBytes   972 Kbits/sec
Su una macchina virtuale con Bonding (tc configurato su eth0)
 /etc/network/interfaces :
auto lo
iface lo inet loopback
auto eth0
allow-bond0 eth0
iface eth0 inet manual
    bond-master bond0
    bond-primary eth0 eth1
auto eth1
allow-bond0 eth1
iface eth1 inet manual
    bond-master bond0
    bond-primary eth0 eth1
auto bond0
iface bond0 inet dhcp
    bond-slaves none
    bond-mode 1
#    bond-arp-interval 250
#    bond-arp-ip-target 192.168.2.1
#    bond-arp-validate 3
 Misurazione con iperf :
# tc qdisc add dev eth0 root handle 1: htb default 12
# tc class add dev eth0 parent 1: classid 1:12 htb rate 1mbit
# iperf -c 192.168.2.1
------------------------------------------------------------
Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 192.168.2.9 port 49054 connected with 192.168.2.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-11.9 sec  1.62 MBytes  1.14 Mbits/sec
 Mentre il iperf il server ha calcolato una larghezza di banda diversa:
[  4] local 192.168.2.1 port 5001 connected with 192.168.2.9 port 49054
[  4]  0.0-14.0 sec  1.62 MBytes   972 Kbits/sec
Su una macchina virtuale con Bonding (tc configurato su bond0)
 /etc/network/interfaces :
auto lo
iface lo inet loopback
auto eth0
allow-bond0 eth0
iface eth0 inet manual
    bond-master bond0
    bond-primary eth0 eth1
auto eth1
allow-bond0 eth1
iface eth1 inet manual
    bond-master bond0
    bond-primary eth0 eth1
auto bond0
iface bond0 inet dhcp
    bond-slaves none
    bond-mode 1
#    bond-arp-interval 250
#    bond-arp-ip-target 192.168.2.1
#    bond-arp-validate 3
 Misurazione con iperf :
# tc qdisc add dev bond0 root handle 1: htb default 12
# tc class add dev bond0 parent 1: classid 1:12 htb rate 1mbit
# iperf -c 192.168.2.1
------------------------------------------------------------
Client connecting to 192.168.2.1, TCP port 5001
TCP window size: 23.5 KByte (default)
------------------------------------------------------------
[  3] local 192.168.2.9 port 49055 connected with 192.168.2.1 port 5001
[ ID] Interval       Transfer     Bandwidth
[  3]  0.0-13.3 sec   768 KBytes   475 Kbits/sec
 Mentre il iperf il server ha calcolato una larghezza di banda diversa:
[  4] local 192.168.2.1 port 5001 connected with 192.168.2.9 port 49055
[  4]  0.0-14.1 sec   768 KBytes   446 Kbits/sec
 Il risultato non cambia se rimuovo eth1 (l'interfaccia passiva) dal legame.
Conclusione
Controllo del traffico su un'interfaccia bond non funziona, o almeno non come previsto. Dovrò indagare ulteriormente.
Come soluzione alternativa, è possibile aggiungere le discipline di accodamento direttamente alle interfacce appartenenti al legame.
Risposta accettata:
Quando non sei sicuro di come funziona tc puoi comunque monitorare tc e guardare come scorrono i pacchetti? Puoi usare il mio script per monitorare tc e devi eseguirlo in un terminale con privilegio revocato. Puoi cambiare wlan0 in un'altra interfaccia e hai anche bisogno di grep e awk:
      #!/bin/sh
      INTERVAL=15
      while sleep $INTERVAL
      do
             /usr/sbin/tc -s -d class show dev wlan0
             uptime
             more /proc/meminfo | grep MemFree | grep -v grep
             echo cache-name num-active-objs total-objs obj-size
             SKBUFF=`more /proc/slabinfo | grep skbuff | grep -v grep | awk 
             '{print $2} {print $3} {print $4}'`
             echo skbuff_head_cache: $SKBUFF
      done