woff 發表於 2009-5-13 15:38:48

使用TC實現基於linux的流量管理

[*]作者:大楠木(kent@chinalinuxpub.com)[*]來自:Linux知識寶庫[*]現載:http://www.douzhe.com/docs/linuxtips/[*]參考文獻:tc weizhishu www.chinalinuxpub.com[*]linux Advanced Routing & Traffic Control HOWTO by Bert Hubert[*]http://www.chinalinuxpub.com/vbbfor...&threadid=18601[*]請認真閱讀上面的文章,掌握好相應的概念。[*]Red Hat linux 7.3 內核 2.4.18 以上。
局域網的網路拓撲:
在伺服器的eth0 幫定了外部位址 eth0:192.168.1.3

[*]eth1 幫定了內部位址 eth1:1 172.17.1.1[*]eth1:2 172.18.1.1[*]eth1:3 172.19.1.1現在要實現的功能就是整個出口限制在512kbit(上傳流量) , 172.17網段的下載流量下載到512Kbit ,172.18 網段限制在128kbit,172.19的網段限制到 3Mbit。
方法如下:
首先幫定相應的位址:(不細述)
實現路由設定,使用iptables實現。
# iptables –A input -F
# iptables -A output -F
# iptables -A forward -F
#echo 1 > /proc/sys/net/ipv4/ip_forward
#允許轉發
# iptables -A input –j accept# iptables -A output -j accept
# iptables -A forward -j accept
# iptables -t nat -A POSTROUTING -s 172.17.0.0/16 -j MASQUERADE
# iptables -t nat -A POSTROUTING -s 172.18.0.0/16 -j MASQUERADE
# iptables -t nat -A POSTROUTING -s 172.19.0.0/16 -j MASQUERADE
#進行IP位址偽裝,使得內部的主機的資料包能通過伺服器與外界聯繫。進行流量管理
#tc qdisc add dev eth0 root tbf rate 512k lantency 50ms burst 1540
#在網卡eth0上使用tbf(TokenBucket Filter)過濾佇列,將出口限制在512kbit,延遲50ms,突發資料1540,rate指定的數值就是限制的帶寬。繼續在eth1做限制。
#tc qdisc add dev eth1 root handle 1:0 cbq bandwidth 100Mbit avpkt 1000 cell 8
#創建佇列,指明網卡為100M網卡,這個跟流量限制無關,用於計算使用。
#tc class add dev eth1 parent 1:0 classid 1:1 cbq bandwidth 100Mbit rate 5Mbit weight 6Mbit prio 8 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded創建根分類,帶寬限制在5Mbit,並且不允許借用別的帶寬。
Prio 後面的參數為優先順序,指定資料包處理的順序。
#tc class add dev eth1 parent 1:1 classid 1:3 cbq bandwidth 100Mbit rate 512kbit weight 5Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded
在跟類底下,創建分類1:3 限制帶寬為512kbit,不允許借用帶寬,用於172.17網段。
#tc class add dev eth1 parent 1:1 classid 1:4 cbq bandwidth 100Mbit rate 128kbit weight 5Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded
在跟類底下,創建分類1:4 限制帶寬為128kbit,不允許借用帶寬,用於172.18網段。
#tc class add dev eth1 parent 1:1 classid 1:5 cbq bandwidth 100Mbit rate 3Mbit weight 10Mbit prio 5 allot 1514 cell 8 maxburst 20 avpkt 1000 bounded
在跟類底下,創建分類1:5 限制帶寬為3Mbit,不允許借用帶寬,用於172.19網段。
#tc qdisc add dev eth1 parent 1:3 handle 30: sfq
#tc qdisc add dev eth1 parent 1:4 handle 40: sfq
#tc qdisc add dev eth1 parent 1:5 handle 50: sfq
在每個分類底下,創建佇列,使用sfq(Stochastic Fareness Queueing)隨即公平佇列。
#tc filter add dev eth1 parent 1:0 protocol ip prio 1 u32 match ip dst 172.17.0.0/16 flowid 1:3
#tc filter add dev eth1 parent 1:0 protocol ip prio 1 u32 match ip dst 172.18.0.0/16 flowid 1:4
#tc filter add dev eth1 parent 1:0 protocol ip prio 1 u32 match ip dst 172.19.0.0/16 flowid 1:5
使用u32篩檢程式,對目的地址進行分類,對應已經創建的佇列。
通過以上方式實現了簡單的流量控制,限制出口的上傳流量以及內口的下載流量。
測試從 172.17.1.2 進行下載 限制的是 512kbit ,下載速率為 64-65kB
172.18.1.2 進行下載 限制的是 128kbit,下載速率為 13-16.3kB
172.19.1.2 進行下載 限制的是 3Mbit,下載速率達到 180-500kB
注:不匹配任何規則的資料包,將已root 設定的規則發送。
發現3M帶寬的限制誤差比較大。
以上的測試都是基於單機的,沒有測試滿負載的情況。
以上的文章是匆忙之中寫出來的,TC篩檢程式涉及到的東西極多,有很多中方法可以實現,基於ip位址或者基於埠都可以實現。
希望各位多多討論,多多完善。

tdsf54 發表於 2011-9-29 00:31:29

我也來頂一下..

k301479 發表於 2011-9-29 01:00:40

我的媽呀,愛死你了
頁: [1]
查看完整版本: 使用TC實現基於linux的流量管理