Netzwerkanalyse, Fehlersuche, Testberichte
Home / News
Netzwerkanalyse
Grundlagen
Verkabelung
Erste Schritte
Baselining
Let's sniff
Tools
Auswerten/Filtern
Typische Probleme 1
Typische Probleme 2
Sicherheit
Bücher
Tutorials
Cacti
DSL einrichten
DynDNS einrichten
m0n0wall | pfSense
Nmap
VirtualBox
Wireshark
Forum
Shop
FAQ
Know How
Testberichte
Hardware-DB
Events
Netzwerklexikon
Links / Service
Suche
Kontakt
Impressum
Feedback
Sitemap
Partner
Unser Partner für
SSL Zertifikate
ist Checkdomain GmbH.
Netzwerktechnik Forum

Forum Netzwerktechnik (Archiv)

Kategorie Netzwerktechnik - Forum Netzwerke einrichten

 
NIC-Bonding Geschnindigkeit?

geschrieben am 18.10.2010 um 07:23 von loisl

Hi @all,
erst einmal vielen dank für die informativen Seiten und das gute Forum!

Aber dadurch habe ich auch gleich eine Frage.

Auf dem einen Server habe ich ein Bonding mit 4 Gigabit ethernet.
[list]# The primary network interface
auto eth0
iface eth0 inet static
address 192.168.178.71
netmask 255.255.255.0
network 192.168.178.0
broadcast 192.168.178.255
gateway 192.168.178.1

# The isolated network interface
auto eth1
iface eth1 inet static
address 10.10.2.251
netmask 255.255.255.0
network 10.10.2.0
broadcast 10.10.2.255
# gateway 10.10.2.1

# The interfaces that will be bonded
auto eth2
iface eth2 inet manual

# The interfaces that will be bonded
auto eth3
iface eth3 inet manual

# The interfaces that will be bonded
auto eth4
iface eth4 inet manual

# The interfaces that will be bonded
auto eth5
iface eth5 inet manual

# The target-accessible network interface
auto bond0
iface bond0 inet static
address 10.10.1.251
netmask 255.255.255.0
broadcast 10.10.1.255
network 10.10.1.0
# gateway 10.10.1.1
up /sbin/ifenslave bond0 eth2
up /sbin/ifenslave bond0 eth3
up /sbin/ifenslave bond0 eth4
up /sbin/ifenslave bond0 eth5
[/list:u]

auf einem anderen Server mit 2 Gigabit ethernet:
[list]iface eth1 inet manual

iface eth2 inet manual

iface eth3 inet manual

auto bond0
iface bond0 inet static
address 10.10.1.78
netmask 255.255.255.0
broadcast 10.10.1.255
slaves eth2 eth3
bond_miimon 100
bond_mode balance-alb
network 10.10.1.0

auto bond1
iface bond1 inet manual
slaves eth0 eth1
bond_miimon 100
bond_mode 802.3ad

auto vmbr0
iface vmbr0 inet static
address 192.168.178.78
netmask 255.255.255.0
gateway 192.168.178.1
broadcast 192.168.178.255
bridge_ports bond1
bridge_stp off
bridge_fd 0
[/list:u]

soooo wenn ich jetzt einen
# iperf -c 10.10.1.250 -w 1024k -l 1024k
------------------------------------------------------------
Client connecting to 10.10.1.250, TCP port 5001
TCP window size: 256 KByte (WARNING: requested 1.00 MByte)
------------------------------------------------------------
[ 3] local 10.10.1.78 port 45398 connected with 10.10.1.250 port 5001
[ id] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 1.10 GBytes 942 Mbits/sec



Dann bekomme ich auch nur wieder den Durchsatz vom Gigabit???
Kann mir das bitte jemand erklären???

Vien Dank schon mal im Voraus
lg
loisl
 

geschrieben am 18.10.2010 um 10:48 von Otaku19

kenn mich mit linux zwar nicht aus, aber das kann an div Gründen liegen:

Welcher "load balancing Algorithmus" wird denn da verwendet ?
Was liegt denn am "am Weg" zwischen den Servern ? Schafft diese Strecke denn überhaupt mehr als 1 GB ? Sind das evtl Switche die ebenfalls mit gebündelten lLeitungen arbeiten -> wie wird hier verteilt?
 

geschrieben am 18.10.2010 um 13:01 von loisl

Hi,

ich habe es mit mode=4 (802.3ad), mode=5 (balance-tlb) und mode=6 (balance-alb) getestet.

Weg zwischen Server => Swicht und Switch => Server sind jeweils 2m Cat7 Kabel.

Swicht ist ein Cisco WS-C3750G-48TS-S

Wenn ich von dem 4er Bonding 3 Kabel vom Switch trenne, dann habe ich identische Übertragungswerte???

Grüsse
loisl
 

geschrieben am 18.10.2010 um 13:15 von Otaku19

und da ist der hund wahrscheinlich schon begraben, der 3750 kann nicht so viel bzw intelligente LB Algorithmen. sh ether-channel load-balance zeigt dir an was gerade eignestellt ist.

3750 kann nur:
dst-ip | dst-mac | src-dst-ip | src-dst-mac | src-ip | src-mac

Nichts davon ändert sich während einem Durchlauf von iperf :) auf den grösseren Plattformen würds noch port geben, aber auch der ändert sich ja nicht bei einem Lasttest,die Logik innerhalb des Switches ist dann auch recht einfach gehalten.
 

geschrieben am 18.10.2010 um 21:57 von loisl

Hi Otaku19,

danke für deine Ausführungen ... das macht natürlich einiges Suchen überflüssig!

Allerdings ist das hier nur mal mein Test-System.

Später soll das ganze dann auf 4 Stück Cisco/Linksys SRW2048 laufen.
Wie sieht es denn bei denen mit der Logik der Schaltungen aus ...
sind ja relativ billige Switches!

Danke und LG
loisl
 

geschrieben am 20.10.2010 um 12:55 von Otaku19

das weiß ich nicht, das sind ja Linksys Häusln :) Damit arbeite ich lediglich im Accessbereich (natürlich da kleinere Kisten, SLM2008 oder so) und meine Client Systeme können nun mal keinerlei Aggregation :) wäre ja noch schöner
 

[ Dieses Thema im Live-Forum aufrufen ]

Sie befinden sich im Archiv des Forums.
Zum Forum

Archiv erstellt mit phpBB2HTML 0.1 - Foren in statisches HTML umwandeln © 2006 Mirko Kulpa

 

 
© 2004-2015, network lab - we make your net work - Netzwerkforum
aktualisiert am 11.12.2017