[megoldva] Redhat packet loss dns szerveren, bonding vmware problema ?

Fórumok

Elnezest az ekezetek miatt, de csak ilyen bill van jelenleg es nem allitanam at.

Egy kritikus rendszeren van problema. Sajnos nem talaltam semmi megoldast se guglin se itt egyelore, igy az okosabbakhoz fordulnek.

Adott egy 10.*.*.* halozaton beluli DNS server (lehet ennek specko beallitas kell, de nem ertek hozza) esxi kornyezetben (ha jol emlekszem 5.0.0). Az esxi-n van 6 virtualis gep.
Amikor pingelem a dns szervert sajnos 7-20%-os loss van. Reportban az volt, hogy az ntp sync nem mukodik, de amikor egy ntpdatet kerek termeszetesen szinkronizal, de a network hiba miatt van valoszinuleg kieses.
Ha a szerverrol kifele pingelek akkor is van packet loss.
Az erdekes es amiert a kulsos halozatot kizarnam az az, hogy a tobbi szerver ami az esxi hoszton van, ott nincs loss. Csak ezen, es mindegyik szerver ugyanazt a virtualis halokartyat hasznalja.

--- 10.xxx ping statistics ---
143 packets transmitted, 115 received, +1 duplicates, 19% packet loss, time 142714ms
--- 10.xxx ping statistics ---
292 packets transmitted, 259 received, 11% packet loss, time 291891ms
--- 10.xxx ping statistics ---
359 packets transmitted, 353 received, 1% packet loss, time 358619ms
--- 10.xxx ping statistics ---
208 packets transmitted, 192 received, 7% packet loss, time 207572ms

Ez a bonding kimenete:

Ethernet Channel Bonding Driver: v3.6.0 (September 26, 2009)

Bonding Mode: load balancing (round-robin)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth0
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: xxx
Slave queue ID: 0

Slave Interface: eth1
MII Status: up
Speed: 10000 Mbps
Duplex: full
Link Failure Count: 0
Permanent HW addr: xxx
Slave queue ID: 0

Halokartyak ethtool-lal:
Settings for eth0:
Supported ports: [ TP ]
Supported link modes: 1000baseT/Full
10000baseT/Full
Supports auto-negotiation: No
Advertised link modes: Not reported
Advertised pause frame use: No
Advertised auto-negotiation: No
Speed: 10000Mb/s
Duplex: Full
Port: Twisted Pair
PHYAD: 0
Transceiver: internal
Auto-negotiation: off
MDI-X: Unknown
Supports Wake-on: uag
Wake-on: d
Link detected: yes
Settings for eth1:
Supported ports: [ TP ]
Supported link modes: 1000baseT/Full
10000baseT/Full
Supports auto-negotiation: No
Advertised link modes: Not reported
Advertised pause frame use: No
Advertised auto-negotiation: No
Speed: 10000Mb/s
Duplex: Full
Port: Twisted Pair
PHYAD: 0
Transceiver: internal
Auto-negotiation: off
MDI-X: Unknown
Supports Wake-on: uag
Wake-on: d
Link detected: yes

Ifconfgiban nincs packet drop se loss.
bond0 Link encap:Ethernet HWaddr xxx
inet addr:xxx Bcast:xxx Mask:255.255.255.0
UP BROADCAST RUNNING MASTER MULTICAST MTU:9000 Metric:1
RX packets:10442912 errors:0 dropped:0 overruns:0 frame:0
TX packets:9857267 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:955549069 (911.2 MiB) TX bytes:1832480331 (1.7 GiB)

eth0 Link encap:Ethernet HWaddr xxx
UP BROADCAST RUNNING SLAVE MULTICAST MTU:9000 Metric:1
RX packets:5145178 errors:0 dropped:0 overruns:0 frame:0
TX packets:4928845 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:467937228 (446.2 MiB) TX bytes:917400995 (874.9 MiB)

eth1 Link encap:Ethernet HWaddr xxx
UP BROADCAST RUNNING SLAVE MULTICAST MTU:9000 Metric:1
RX packets:5297734 errors:0 dropped:0 overruns:0 frame:0
TX packets:4928422 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:487611841 (465.0 MiB) TX bytes:915079336 (872.6 MiB)

lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
UP LOOPBACK RUNNING MTU:16436 Metric:1
RX packets:971699 errors:0 dropped:0 overruns:0 frame:0
TX packets:971699 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:144219724 (137.5 MiB) TX bytes:144219724 (137.5 MiB)

Ha elinditok egy tcpdumpot a serveren az is 0 errort ir:
1886 packets captured
1886 packets received by filter
0 packets dropped by kernel

A logokban net problema nem igen van, promiscious mode valtasos dolgok vannak csak.

Amit talaltam ebben a temaban:

Ehhez annyira nem ertek, igy ha valaki megnezne, hogy ez megoldas lehet-e megkoszonnem.
http://kb.vmware.com/selfservice/microsites/search.do?language=en_US&cm…

Illetve ezt neztem meg:
http://www.cyberciti.biz/faq/linux-tcp-tuning/

De ehhez sem sokat ertenek, nem tudom mindegyik kellene-e, vagy csak 1-2 ...

Koszonom SOS helpet.

LACP rate nincs beallitva okozhat ilyet ?

Hozzászólások

en azt mondanam h frissitsd az ESXi-t. az 5.0.0 mar eleg regi.
ha nem lehet akkor lehet a halozattal jatszani. eloszor is milyen DNS szervert hasznalsz? bind, nsd, etc.
ha van ra mod akkor a dns szerverrel allitsd a packet meretet, ha nem lehet akkor sysctl.

a timestamp es acknowledgments mindenkeppen jo otlet. a windows scalingnek utana kene olvasni. bar ezeknek csak tcp eseten van ertelme szoval se ping se a dns queriek nem lesznek jobbak.

az rmem es wmem ertekeke meg,... tesztelni. arra nem tudok valaszt.
--
A legértékesebb idő a pillanat amelyben élsz.
https://sites.google.com/site/jupiter2005ster/

Ahogy nezem bind van telepitve. Nem igen vagyok tisztaban ezzel a reszevel kicsit tudod reszletezni sysctl reszt es a bindosat is ? /etc/-ben van nscd configom is.

Mit tudok azzal kezdeni akkor ha, ha engedelyezem timestampet es az ack-t ?

Akkor elso korben azt probalnam meg amit mondassz, ha tudod kicsit reszletezni.

abban NagyZ-nek igaza van h a bonding VM-ben teljesen felesleges.
a teaminget VMware ESXi szinten intezd es egyel kevesebb hibalehetoseg.

ha van tobb fizikai kartya akkor a halozatosok oldaralol monitorozd a NIC-et hol van a csomag veszteseg.

hagyd a linux networking stack tuning a francba. a gond valoszinuleg az esxi es a fizikai halozat kozott lesz.

--
A legértékesebb idő a pillanat amelyben élsz.
https://sites.google.com/site/jupiter2005ster/

Hello,

miért van bonding? Hogy néz ki a hypervisor hálózatai beállítása (vswitchek)?

Ugyanazon vannak igen, akkor lehet ez a problema ? Ez esetben, ha atallitom mode 1 -re ami fault tollearance az erhet valamit ? Tulajdonkeppen tudom, hogy semmit, mert ha ledoglika switch KO van a gepen, de igy csak akkor menne, ha ledoglene a fo kartya.
Vagy hagyjam a fenebe, es szuntessem meg bondingot ?

LACP rate switchekben mi lehet a default ertek ? Fast vagy slow ? Ha atallitom a mode-ot 1-re, akkor ott mar tudok lacp ratet allitani, csak a default ertek switchekben vajon fast(1) vagy slow (0) :/

Szerk:

Igy nez ki:

http://ibin.co/27uMCEDWoEez

Es nem a privat networkre van kapcsolva. Ott mas van.

Szerintem is tok felesleges a bond.
Csapj le egy halokartyat,szedd szet a bondingot es nezd meg ugy mindenfele extra nelkul.

---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"

Ezt mibol gondolod ? Mivel live rendszer es a legnagyobb ugyfel ntp, dns master servere, ha csak pikk-pakk lelovom a rendszert, eselyes, hogy csomagolhatok. Termeszetesen ezt fogom kiprobalni, amint megkapom a downtime-ot. Azt, hogy most tobben irtatok, mit csinaljak, nem azt jelenti, hogy nem fogom megcsinalni, hanem varok a downtime megkapasara. Epito jellegu hsz-eid hanyagold pls. Tudom kiraly vagy es meghajolok elotted, de tenyleg nincs szukseg ra.

relax, eddig nem írtad, hogy enyire stresszes a helyzet, gondolom üzemeltetni kaptad ezt a túlbonyolított katyvaszt,
ne gondold, hogy mi nem kapunk meg ugyanilyen szarokat üzemeltetni, ahogy egy nagyokos megtervezett egy működésképtelen szutykot. ilyenkor visít és káromkodik mindenki, ezért a felfokozott idegállapot mindenkinél :)

ha szetszedni a bondot macera, egyelore megprobalnek egy bond mode 1-et 0 helyett....

bar ha mar ugyis downtime-t kersz akkor en is a "szetszedes" mellett vagyok mint az elottem szolok.

--
{ Nem is kernel az, ami nem fut el egy quartz órán }

Nem olvastam el a hozzaszolasokat, eselyesnek tartom egy ideje ertelmetlenek. Viszont koszonom a segitseget, szetszedtem a bondingot, eltavolitottam a felesleges halokartyat, egz kartyat felkonfgioltam es megszuntek az issue-k. Koszonom. Topik zarhato (nem tudom, hogy mukodik).