Adjatok ötletet: Windows havária tesztek

 ( Proci85 | 2019. február 13., szerda - 11:01 )

Sziasztok

Egy cégnél van 2 linuxos kolléga majd lett 2 windowsos kolléga elsődlegesen munkatársak supportjára.
Mióta windowsosok is vannak, örök parázsvita a windowsos és linuxos kollégák között az innovatív, haladó vs. konzervatívabb gondolkodás.

A régi/meglévő rendszer: 1U intel szerveren (32GB-ből 16GB használt): debian kvm alatt samba, openvpn, belső intra webszerver, egyéb apróságok
Új törekvés a windowsos kollégáktól: 2db DELL R720 fizikai vason 1-1 Hyper-V (minimal windows csak CLI), azon a minden. A meglévő linuxos szerverek mellett/helyett windowsos VM-ek, plusz ami ilyenkor illik(?), DC1, DC2, belső update szerver, stb, mindjárt fel is ettünk node-onként 64GB RAM-ot.
A két node aktív-passzívként működik, x időnként egyikről a másol elvileg minden diffet. Mindkét node local diszkkel rendelkezik csak. Az elmélet szerint, ha az aktív node kihal, a passzív átveszi a helyét.
A törekvés zárása az lenne, hogy minden linuxos VM átkerüljön a Hyper-V alá és a KVM-es megoldás lekapcsolásra kerüljön, mert milyen jó a Hyper-V.

A linuxos kollégák nem ismerik ezeket a windowsos technológiákat, fáznak is tőle, főleg annak fényében, hogy a 2 windowsos közül az egyik van benne mélyebben a témában ill. powershellben, a msáik inkább a felületekre támaszkodik.
Nem tudom megítélni, hogy mennyire tudják elhárítani az összeborulásokat. Addig minden szép, amíg a csilivili felület fut, a windows azt írja ki, amit látni szeretnénk.

Windowsban jártasabb kollégák segítségét szeretném kérni.
Szivatós, életszerű hibákat szeretnék generálni, ami előfordulhat és tesztelni a rátermettségüket. Ezt hívják tudtommal havária tesztnek.
A linuxos kollégák 15 ill. 25 éves tapasztalattal rendelkeznek, sok minden végigszívtak már és kivágták keményfából. Kevés meglepetés érheti már őket egy havaria esetén.

Szóval ilyesmire gondolok:
- az aktív node-t leszakítom hálózatról, a passzív átveszi-e, ha visszajön az aktív, visszaszinkronoz-e
- diszkhibák lekezelése, stb

Ennél genyább hibákat szeretnék generálni, amit linuxon is végigszívhat az ember, de egy idő után tudja hova nyúljon (pl. grub elszáll, rossz kernel, megakad a boot folyamat, mdadm szétesik, DRBD split-brain, hálózatról nem érhető el a dom0, csak egy monitorod és billentyűzeted CLI-vel)

Írjatok kérlek hasonlókat windowsra.

Köszönöm szépen!

Hozzászólás megjelenítési lehetőségek

A választott hozzászólás megjelenítési mód a „Beállítás” gombbal rögzíthető.

AD-ben az első szabály: Az AD hibák 150%-át a DNS hibája okozza :)
A másik az idő elcsúszása.

Nem értem teljesen az aktív-passzív node-os dolgot, meg az aktív node leszakad a hálóról dolgot.

Ha a két Hyper-V hoszt csak VM-et futtat önmagán, nem értelmezett.
AD-ban sincs aktív-passzív, a DC-k egyenrangúak az 5 FSMO szerepkört eltekintve.
A WSUS kiszolgálót se kell túlmisztifikálni, ha elszáll, elszáll. Újratelepít, újraépít, újraszinkronizál.

A GUI nélküli Hyper-V menezsment jó móka. Már akinek :)

A diszkhibát meg jó esetben a hardveres kártyának kellene kezelni, csak a menedzsment felületét kell felrakni. Viszont a HW miatt meg a Windows/Linux nem nagyon értelmezett.

Így elsőre, olyan nagyon havária helyzetet direkt előállítani, aminél direkt arra megy ki a játék, hogy az "ifjú" kollegák meg tudják-e oldani, háááát....

"A GUI nélküli Hyper-V menezsment jó móka. Már akinek :)"

Hat, itt ugye az is kerdes, hogy konkretan GUI nelkul akarja a jovoben managelni, vagy GUI nelkuli rendszert rak es pl egy Win10-es Remote Server Administration Tools (https://www.microsoft.com/en-us/download/details.aspx?id=45520) segedelmevel. (Ez lenyegeben fullos GUI managementet ad, remote CLI-s win-serverekhez, Hyper-V node(free) hez is)

Ket node eseten nem jobb egy failover cluster inkabb, mint ez a aktiv/passziv dolog...?

Diskek RAID-ban vannak azert, nem? Ahogy hnorbi irta, ez mar inkabb RAID vezerles kerdese, nem virtualizacio szinten kell kezelni.

Nem artana atgondolni azt is, hogy mire van szukseg? Kell AD egyaltalan? Ha igen, akkor mindenkepp Windows kell, nem jo valami mas domain controller? (UCS, Zentyal, etc)

Igen, jó ez az RSAT is, az elején próbáltam ki ezt a CLI-s Hyper-V-t, de nem állt kézre. Driver telepítés, a HP menedzsment cuccokkal is valahol befürödtem, és a kísérleti rendszerből hamar GUI-s gép lett (nah jó, picit változtak az igények is; tudom hamar feladtam; de volt menekülő út, így elmentem a könnyebb ellenállás felé)

Nem temaba vago...
Ehhez mar nem olyan draga bedobni egy storage-ot plusz vmware alapverzio is megfizetheto.
Win szervert indokolja vmi? Pld exchange vagy barmi mas?
Ha semmi akkor inkabb fizessetek ki a win kollegak linux tanfolyamait a licenc koltsegekbol vmi jo munkaszerzodessel. :)

Alternativa meg az Ovirt, az ingyen van :)

En pont ket hasonlo hardverbol csinaltam egy Ovirt Data centert (ket cluster, egy-egy node) De pl 3 hostbol mar konkret HA clustert (Gluster Hyperconverged) lehet csinalni Ovirt-al + GlusterFS es akkor nem kell egy kulso NAS sem storage-nek. (azt most nem talalom, hogy melyik fajta volume-ot csinalja ilyenkor, de gyanitom nem sima distributed, hanem replicated, szoval megvan a HA)

> vmi jo munkaszerzodessel

a trénert nem munkaszerződéssel szokás alkalmazni

(direkt értettem félre, ha egy munkáltató által előírt tréninget át akartok hárítani a munkavállalóra, az nem szép dolog)

Egy cégnél van 2 linuxos kolléga majd lett 2 windowsos kolléga elsődlegesen munkatársak supportjára. Mióta windowsosok is vannak...

Itt most kinek mi a munkaköre? Ha jól értem akkor a linuxosok foglalkoznak a szerverekkel a 2 Windowsos kolléga meg a desktopokkal? Mert akkor az nem gyenge feszkó lehet. :) Ennek a 4 embernek van kompetens főnöke? :) Tehát jelenleg van 2 linux expert, de ha célt érne a desktop kollégák álma akkor egy hatalmas beruházás után a végén lenne mindenhol csak Windows 1db experttel. A 2 linuxos felmond, a végredmény egy csomó pénz elköltése után 2 ember helyett 1.5 ember ugyanarra a munkára (szerverek+desktopok). Vagy újabb rakás pénzért el lehet küldeni a Linuxos embereket Windows tanfolyamra, ha érdekli őket. A júzerek és az üzletmenet szempontjából változás azaz a megtérülés meg....?? rövidebb ideig fut egy olyan üzleti folyamat ami plusz bevételt hoz? ugyenrre a Linux nem képes? olcsóbb lesz (mennyivel?) az IT? magasabb lesz (mennyivel?) a rendelkezésre állás? üzletileg hol éri meg ez a váltás? Aztán jön majd egy harmadik aki szerint a Citrix a király és mindent migráltok arra Hyper-V-ről? Aztán jön egy következő aki a VMWare-re esküszik és migráltok VMWare-re Hyper-V-ről? Nincs baj azzal hogy legyen változás ha egyrészt az valódi fejlődéssel jár másrészt ennek a fejlődésnek van értelmes/értékelhető hozadéka, magyarul ha megéri.

Ezt irtam konkretan. elso korben uljetek le es pontrol-pontra vegyetek at, milyen pluszt adna most egy full MS irany? (azt leszamitva, hogy a Windowsos kollegak ugy erzik, nekik az jobban fekudne...)

Az aktiv/passziv dologra visszaterve meg, eleg nagy hulyeseg, mar bocs...:) Tuzfalaknal/routernek hasonlok, meg OK a "Cold Spare" (bar esetedben nem is teljesen az) viszont Virtualizacional erre talaltak ki a HA clustert...

Ebben az a szép, hogy kissé ellentmondásossá vált a dolog:
majd lett 2 windowsos kolléga elsődlegesen munkatársak supportjára
vs.
A törekvés zárása az lenne, hogy minden linuxos VM átkerüljön a Hyper-V

És ha minden linuxos rendszer Hyper-V felett fog futni, akkor onnantól a virtualizáció működésének biztosítása a windows-os emberek felelőssége, linuxos kollégák munkaköri leírásában gondolom nem szerepel a Hyper-V üzemeltetése.

Hirtelen ezek jutnak eszembe:

  • leszaggatom a netet (egyszer az egyik, egyszer a másik)
  • beletörlök a rendszerbe valahol, ahol nem kellene (esetleg fs corruption)
  • leakasztok egy partíciót/diszket
  • a két fizikai node nem látja egymást (split-brain)
  • belenyúlhatsz windows registrybe is esetleg
  • valamelyik service nem indul el (automatikus service-t kézire állítasz/megoldod, hogy ne induljon el)
  • terhelésteszt (disk full, memory full, cpu kipörgetve, hálózatot kitömni, stb.)
  • tűzfal/vírusírtó (példa: windowson levő DB-t hol elérte, hol nem a távoli rendszer, mert mint kiderült a vírusírtó frissítéssel bekerült egy throttling szabály, ami annyira alacsonyan ült a network stackben, hogy még a wireshark sem látta a kiszűrt csomagokat)
  • hazavágsz egy linux guestet
  • windows update :)
  • low res monitor van csak (datacenterben volt, hogy windows serverre rádugva a monitor közöltte, hogy resolution out of range)
  • duplicate IP/MAC a hálózaton (host, guestek, bármi)

Meg igen, még egyszer nekiugorva a posztnak, nem jött szembe az, hogy ez miért is lenne jó.
Ha Windows kliensek vannak, akkor bizonyos körülmények között egy AD indokolt lehet; bár ez még mindig nem elég indok, az alapgép Windows-e vagy Linux.
Licensz miatt a GUI-s Hyper-V úgy is be fog játszani, mert ha a 2-3 Win VM-et lelicenszeled, akkor még talán jobban is jársz, ha nem a VM-et, hanem a Host-ot licenszeled.
A két win-es "desktopsupportos" kolléga, ha a support helyett üzemeltetni fog, akkor ki fog supportolni?
Meg mi a kifejezett indok, hogy a Linuxot ki akarják nyírni, a nagy egységesítésen túl?
Illetve mi lesz a két linuxos kollegával.

Szóval kicsit olyan érzésem van, hogy nem tudjátok/tudják hogy mit is akarnak, miért is akarják, meg miért is jó/jobb az amit...
Meg a Hyper-V miért vonzza magával a DC1, DC2, stb-t.

Szóval itt kicsit azt érzem, hogy egy "koncepció" nélküli hálózat átalakításába ugranátok bele. Mondom ezt úgy, hogy tizenéve elsősorban Windowsos környezetet üzemeltetek, némi Linux-sszal.

Van egy olyan mondás, hogy ami nem rossz, azt ne javítsd meg.

Illetve ha nekem idejönne valaki, és azt mondaná, hogy változtassunk ezt meg azt, ennyi munkaóra, annyi új hardver, akkor az lenne az első kérdésem, hogy OK, de mi ennek a célja? Mi lesz az az előny, ami miatt megéri ennyi befektetés.

A fenti írásból ez nem derül ki számomra.

Ide nem teszt kell, hanem előbb egy hozzáértő vezető, aki eldönti, milyen irányba menjen az IT.

Tehát semmi win-only dolgot nem vezettetek be.
Akkor minek a hatalmas, SPOF-okkal teli infrastruktúra?

"A két node aktív-passzívként működik, x időnként egyikről a másol elvileg minden diffet. Mindkét node local diszkkel rendelkezik csak. Az elmélet szerint, ha az aktív node kihal, a passzív átveszi a helyét."

Arra tippelek, hogy Hyper-V Replica-ra gondolnak itt a kollégák, ez nem ismer automatikus failovert (bár PS-el belegányolhatok), viszont tesztelni tudtok failovert és a replikáció állapota ellenőrizhető.

Failover Cluster esetén sem feltétlenül kell shared storage, de quorum disk viszont igen és ezt nem bíznám egy desktop gépre, ha nincs más szerveretek.
Nagyon rossz tapasztalataim vannak a két node-es Failover Cluster-el (függetlenül a shared disk-től és quorum-tól), nem ajánlanám.

Nem írtál róla, hogy az infrastruktúra szolgáltatásokon kívül mik futnának a szervereken, ha csak az előbbi, akkor jobban jártok két Domain Controllerrel, DNS-el, DHCP-vel és DFS-el a fileshareknek, mint HA-t építeni ebből a két szerverből.

Egyébként, ha csak a HyperV role fut egy szerveren, akkor Standard kiadás esetén is jogosult vagy két Windows Server guest-et futtatni.