hello
Tud valaki valamilyen megbízható módszert arra hogy lehet a bond-t hálókártyák állapotát lecsekkolni?
Volt egy csukál a hálózatban és arra gyanakszom hogy a kernel éppen kártyát váltott mert az egyik lerohadt.
Viszont a
ifconfig -a|grep -v errors:0|grep erro
parancsnak nincs kimenete szóval nem volt hibás csomag ami esetleg HW hibára utalna.
A fizikai ellenőrzés nem opció. A szerver nagyon messze van valahol az óperencián túl.
A teljes sztori:
a bond0 keresztül iSCSI diszkek vannak csatolva és egy
iscsid: connect to 1.2.3.4:3260 failed (No route to host) üzenet volt a message logban. A hálózatban nem volt változtatás.
Disk hibát a iSCSI storage-on kizárnám mert a hiba után szépen muzsikál ismét.
Előre is köszönöm az ötleteket.
- 6899 megtekintés
Hozzászólások
lehet butaságot mondok, de dmesg és messages nem írt semmit a hiba időpontjában?
--
>'The time has come,' the Walrus said<
- A hozzászóláshoz be kell jelentkezni
Ezt probaltad?
cat /proc/net/bonding/bond0
- A hozzászóláshoz be kell jelentkezni
# cat /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.4.0-1 (October 7, 2008)
Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer2 (0)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
802.3ad info
LACP rate: slow
Active Aggregator Info:
Aggregator ID: 1
Number of ports: 2
Actor Key: 17
Partner Key: 2
Partner Mac Address: 64:00:f1:1b:96:80
Slave Interface: eth0
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 3c:4a:92:77:22:a6
Aggregator ID: 1
Slave Interface: eth2
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 3c:4a:92:77:22:aa
Aggregator ID: 2
Slave Interface: eth4
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 1
Permanent HW addr: 00:26:55:e4:95:a9
Aggregator ID: 1
Slave Interface: eth8
MII Status: up
Speed: 1000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: 00:26:55:e4:93:81
Aggregator ID: 2
hát ez van a bond0-ban. jónak nézki. legalább is nekem.
a no route to host a message logból jön a dmesg-ben pedig csak a iSCSI timeout van ami ugye a hálózat kiesés miatt történt.
--
A legértékesebb idő a pillanat amelyben élsz.
https://sites.google.com/site/jupiter2005ster/
- A hozzászóláshoz be kell jelentkezni
Eth4: link failure count: 1
- A hozzászóláshoz be kell jelentkezni
azt én is láttam. de ez most hibács csomag vagy maga a kártya. szerintem csomag, de javítsatok ki ha tévedek.
--
A legértékesebb idő a pillanat amelyben élsz.
https://sites.google.com/site/jupiter2005ster/
- A hozzászóláshoz be kell jelentkezni
LINK failure means LINK failure
De amúgy a messagesben szépen írni szokta ezeket valahogy így:
kernel: bonding: bond0: link status definitely down for interface eth1, disabling it
kernel: bonding: bond0: making interface eth2 the new active one.
Ja meg ha nincs link, nincs rajta hibás csomag ;)
- A hozzászóláshoz be kell jelentkezni
iSCSI-t nem bond-olunk, hanem multipath-olunk.
Máris megszabadulsz az egyedi hálózati problémák jó részétől.
- A hozzászóláshoz be kell jelentkezni
+1, masreszt zero sebesseg novekedes erheto el a bonding-al.
Gyakorlatilag a masodik interfesz csak ugy ott van kozel nulla forgalommal.
- A hozzászóláshoz be kell jelentkezni
Ez iscsi specifikus?
Mert valahol olvastam olyat, hogy a bonding lehet failover és lehet ... nem ugrik be a neve, szóval amikor a sávszél növelés a lényeg.
- A hozzászóláshoz be kell jelentkezni
bond-olasnal is van hash-eles src/dst ip/mac esetleg port alapjan, de egy iscsi linknel ezek vegig ugyanazok...
bond eseten nem ugy kell elkepzelni hogy a paros sorszamu csomagok az egyiken a paratlanok a masikon mennek ki, hanem megprobalja a kapcsolatokat elosztani az interfacek kozott, de egy kapcsolat mindig ugyanazon megy, hogy biztositva legyen a csomagok megfelelo sorrendje.
A'rpi
- A hozzászóláshoz be kell jelentkezni
Igen ezt valóban így tanítja a Cisco. Meg azt is mondják hogy a DHCP offer unicast..
Ellenben Linux-ban nagyon sok dolog állítható, például van round robin bonding is, ami egy kapcsolat esetén is működik.
- A hozzászóláshoz be kell jelentkezni
Ha nem direktben kell osszekotnod 2 gepet akkor lenyegen a fail over es az lacp van mint lehetoseg, de ket gep kozott osszekotve se mindig mukodik normalisan az ilyen linux "extra".
- A hozzászóláshoz be kell jelentkezni
round robinnal meg lassabb lesz mert felbevagdosod az ethernet frame-eket
--
NetBSD - Simplicity is prerequisite for reliability
- A hozzászóláshoz be kell jelentkezni
Ezt nem értem. Miért is lesz lassabb? Én csak NFS gyorsítás miatt ismertem ezt.
Lásd:
http://louwrentius.com/linux-network-interface-bonding-trunking-or-how-…
http://louwrentius.com/achieving-340-mbs-network-file-transfers-using-l…
- A hozzászóláshoz be kell jelentkezni
Igen iSCSI specifikus, vagy is inkabb TCP specifikus.
http://doc.freenas.org/index.php/Link_Aggregations
"LACP reads the sender and receiver IP addresses and, if they are deemed to belong to the same TCP connection, always sends the packet over the same interface to ensure that TCP does not need to reorder packets. This makes LACP ideal for load balancing many simultaneous TCP connections, but does nothing for increasing the speed over one TCP connection."
Szoval ha sebesseget akarsz novelni iSCSI-n, akkor nem szabad bondolni vagy link-aggregation-t beallitani, mert a vilagon semmit nem er. Kulon subnet a halokartyaknak, vagy tobb IP egy subneten belul.
Igy: http://fojta.files.wordpress.com/2010/04/vswitch0.png
Vagy igy: http://vmetc.com/wp-content/uploads/2009/08/equallogic-iscsi-switch-con… a lenyeg hogy tobb IP-n legyen elerheto a storage.
- A hozzászóláshoz be kell jelentkezni
"Szoval ha sebesseget akarsz novelni iSCSI-n, akkor nem szabad bondolni vagy link-aggregation-t beallitani, mert a vilagon semmit nem er. Kulon subnet a halokartyaknak, vagy tobb IP egy subneten belul."
Attol fugg mi a felallas, ha tobb kliensed van (kulon ip-ken) akkor target oldali lacp is el tudja osztani a forgalmat 1 ip-vel is, ha viszont 1 kliensed van akkor kulon subnet kell multipath-hoz, mert hiaba van target oldalon 2 ip-d ugyanabbol a subnetbol ahhoz initiator-od ugyanarrol az 1-rol kapcsolodik 1 linken keresztul (felteve ha ott sem csinalsz bondingot).
- A hozzászóláshoz be kell jelentkezni
ahogy latszodik a fenti kepen is, a vSphere iSCSI stackjenek nem kell, hogy kulon subnetbol legyenek az IP-k multipathhoz.
- A hozzászóláshoz be kell jelentkezni
Azt nem ismerem, de kepet elnezve az inkabb bondingnak tunik mint multipath-nak, amivel pedig ugyanott vagy, hogy 1 virtualis gep egyszerre csak egyik linket fogja hasznalni. Vagy hogy mukodik akkor az, mi alapjan osztja el 2 link kozott a forgalmat?
- A hozzászóláshoz be kell jelentkezni
igazabol mindkettonknek igaza van: a vSS-nek van ket uplink portja, ezeken vannak az iSCSI vmk portok.
ugye ez azert jo, mert a terhelest el lehet osztani az iSCSI portok kozott, igy a hash mas kartyara fogja rakni oket + megkapod a multipath elonyeit is.
- A hozzászóláshoz be kell jelentkezni
Ez multipath es nem bounding, nekem is igy van beallitva az ESXi-n, csak kulon subnetben.
Annyi kell hozza hogy a path selection-nel a fixed path-ot round-robin-ra kell cserelni es ezutan mindket IP-t hasznalni fogja az ESXi.
Szoval a forgalmat az ESXi osztja szet es az lehet ugyan az a subnet is vagy egy teljesen masik.
Fel sem kinalja a multipath-ot, ha latja hogy nem jo a konfig valahol.
Nekem egy celeron 847-bol dual port gigas kartyan fix 80-90Mb kozotti iras van a virtualis gepen 2 linkkel.
Miutan hozzaadtam a masodik portot a sebesseg megduplazodott. (~45 => ~85) Mondjuk nem is lehet sokkal tobbet varni egy 20 rugos alaplaptol meg egy celeron procitol WD green desktop vinyokkal. http://www.amazon.co.uk/C8HM70-I-HDMI-Motherboard-On-Board-Celeron/dp/B…
Amugy a kartya a PCI-e csatoloban van, ahova elvileg a grafikus kartya menne, de kezeli rendes az Intel kartyat.
- A hozzászóláshoz be kell jelentkezni
a PCI-e csatlakozo PCI-e csatlakozo (maximum a lanek szamaban kulonboznek), nincs olyan, hogy "ahova a grafikus kartya menne"...
- A hozzászóláshoz be kell jelentkezni
Multipath csak azutan kerul kepbe ha mar iscsi kapcsolatok kiepultek, azt pedig meg kell oldani hogy elosztodjanak a 2 link kozott, ami ugyanazon subneten beluli ip-kkel nem trivialis.
Lehet, hogy vmware ezt megoldja automatan route szabalyokkal, ezt nem tudom.
- A hozzászóláshoz be kell jelentkezni
na igen, bár ez örökölt rendszer. nem én építtetem. amint lesz időm, majd és odajutok majd felülvizsgálom az a bondingot
egyébként meg lett a ludas. a storage csuklott egyet.. az egyik disk halt meg benne és 1 sec volt amíg átváltott a másikra. viszont ez az idő pont elég volt hogy az iSCSI hibát dobjon.
--
A legértékesebb idő a pillanat amelyben élsz.
https://sites.google.com/site/jupiter2005ster/
- A hozzászóláshoz be kell jelentkezni
sub
- A hozzászóláshoz be kell jelentkezni