sziasztok
Hoszting cégnél bérlünk viszonylag erős konfigurációt (32 core, sok ram), amire egy külső storage van kötve, 8x3TB 7200 rpm merevlemezekkel RAID 6-ba szervezve. A host gépen egy Debian Squeeze van KVM-el szerelve. Öt VM-et hoztunk létre, négy Debian, egy Windows 2012 Server. Nincs is velük probléma (az io teljesítmény VM-en belül teljesen jó, VM-ek között is), egész addig, amíg valamelyik VM-en nem hajtjuk ki a diszkeket.Példa: ftp kapcsolat, nagy (~100 GB) fájl másolása LAN-on lévő másik szerverről - ez ugye 40+ Mbyte / s-t jelent. Ezt szépen tartja is, csak épp néhány perc elteltével a többi VM teljesen leül, használhatatlanokká válnak. Leállítva a processt, a helyzet azonnal normalizálódik.
Próbálkoztunk VM szinten nice, ionice parancsokkal, de egyrészt nem oldották meg a problémát, másrészt nem gondoljuk hogy itt kellene ezt szabályozni.
A kérdésem az lenne, hogy a KVM szintjén milyen lehetőségek vannak az i/o sáv korlátozására? Egyáltalán megoldható-e? Deadline ütemező használata megoldást jelenthet-e erre a problémára? Azt sajnos még nem sikerült kideríteni, pontosan milyen összeköttetés van a szerver és a storage között, de ez számít-e vajon? Vagy a raid 6 lehet a ludas?
Minden linuxon Virtio drivereket használunk, Windows Serveren sima IDE-t, mert Virtio-val használva az Eszközkezelőben egy frissítésre kattintva fixen le lehetett fagyasztani az oprendszert (USB-s eszközként látta az SCSI drivert - gondolom ezért). De mint írtam, a diszkek teljesítménye VM-en belül jó, csak épp (ezt feltételezzük) a közös storage miatt elveszik egymástól a sávot.
előre is köszi,
aboy
- 10294 megtekintés
Hozzászólások
lehet limitálni: http://wiki.qemu.org/Features/DiskIOLimits/Requirements
De érdemes azért kideríteni, mi a gyenge láncszem a történetben..
Milyen technológián van kiadva a storage a hostnak (issci, nfs, stb)?
---------------------------------------------------
Hell is empty and all the devils are here.
-- Wm. Shakespeare, "The Tempest"
- A hozzászóláshoz be kell jelentkezni
nos, közben kiderült (nem én intéztem a dolgot), hogy nem is külső storage-ben vannak a diszkek, hanem ez egy Supermicro CSE-826E16-R500LPB 2U magas szerver és ebbe vannak rakva, tehát ez közvetlen SATA (pci) csatlakozást jelent. Ilyen esetben mit lehet tenni? Nem kellene ennek azért jobban bírnia a terhelést? A qemu linket megnézzük, köszi!
- A hozzászóláshoz be kell jelentkezni
Szoftveres vagy hardveres raid van?
- A hozzászóláshoz be kell jelentkezni
hardveres
- A hozzászóláshoz be kell jelentkezni
Másolás közbeni top-ot tudsz rakni a host gépről?
- A hozzászóláshoz be kell jelentkezni
A képen látható pillanatban a db0 nevű vm-re sftp-ztem egy lan-on lévő (de fizikailag különálló) gépről egy nagy fájlt, kb 35-40 mbyte/s-el). Kb 10 percig 10 alatt marad a load, majd felugrik 20 fölé. 15-ös load-ig még egész jól bírja a többi vm, de 20 felett megnyekkennek. Sftp leállítása után egy percen belül normalizálódik a helyzet.
Közben még valami eszembe jutott: számít-e hogy milyen raid controller van a szerverben? (amúgy lspci szerint LSI Megaraid, nehéz infót kicsikarni a hoszting cégtől)
- A hozzászóláshoz be kell jelentkezni
Hello,
na, mondom a tutit :)
Szóval:
- probléma 1.: SATA vinyók...
- probléma 2.: nem megállapítható RAID vezérlő: sajnos az LSI megaraidnek is van olyan verziója, ami fake raid, gyanítom itt van a probléma gyökere, illetve ez és a nem SAS, vagy legalább NL-SAS vinyók (full SCSI command set, párhuzamos kommunikációs csatorna, többek között)
- probléma 3.: raid 6.: RAID10-ben jobb lenne, gyanítom a tárterület maximalizálása volt a cél
- probléma 4.: még, ha gyenge is a "raid" vezérlő, lehetséges, hogy letiltja a szokásoknak megfelelően a merevlemezek saját cachét. Raid kártya Cache és BBU nélkül persze nagy gond lehet, ha összeomlik a rendszer.
nem véletlen, hogy a VMWare például nem támogat szoftver raidet, illetve a minőségi hw raidet támogatja. A RAID6 miatt ugyanakkor sokkal több művelet van, mint akár egy RAID1-nél.
Az a rossz hírem, hogy ez sokkal jobb nem lehet, csak HW cserével.
üdv,
Ago
- A hozzászóláshoz be kell jelentkezni
+1 vagy inkább +sok. Hozzátéve, hogy szerintem az is baj, hogy nagyon nagyok a diszkek, és emiatt kevesen vannak, és ezért a párhuzamos terhelés kevesebb részre oszlik. Nem mindegy ugyanis, hogy hat, vagy tizen-huszon valahány diszkre vannak szétszórva az adatok.
- A hozzászóláshoz be kell jelentkezni
Jaja. 18db SATA diszk RAID10-ben már nem is olyan lassú.
- A hozzászóláshoz be kell jelentkezni
apropó, vmstat 5 10 parancs mit mutat? Sok a végén a wa - wait - érték?
- A hozzászóláshoz be kell jelentkezni
lspci kimenetből pontosan megtudod határozni milyen kártya van benne, megacli segítségével pedig a kártya is konfigurálható.
- A hozzászóláshoz be kell jelentkezni
lspci:
82:00.0 RAID bus controller: LSI Logic / Symbios Logic MegaRAID SAS 2208 [Thunderbolt] (rev 05)
- A hozzászóláshoz be kell jelentkezni
Ez konkrétan egy elég jó kártya. Firmware verzió? Néha szokott segíteni. Meg a kernel modul, vagy ezek kombója tud érdekes jelenségeket produkálni. Van egy olyan érzésem, hogy a kártya teljes sávszélessége eloszlik az összes vinyó között + a mechanika ördöge is benne van.
- A hozzászóláshoz be kell jelentkezni
Leginkább az segít rajta, ha van rajta akksi, és ÍGY be szabad kapcsolni a write-behind cache-t. Anélkül a RAID5/6 nagyon gyengusz lesz IOPS terén.
- A hozzászóláshoz be kell jelentkezni
Ki a szolgáltató?
- A hozzászóláshoz be kell jelentkezni
Itt a baj:
8x3TB 7200 rpm merevlemezekkel RAID 6
igazából ha elfogy az a kevés IO teljesítmény, ami rendelkezésre áll, akkor nincs mit tenni.
- A hozzászóláshoz be kell jelentkezni
Véleményem szerint ettől nem kéne 40 megabájt/sec-tól elhalnia.
Nem lehet hogy a storage ugyanazon az 1 GBit-es kábelen csatlakozik amin a másolás megy és annak fogy el a sávszélessége?
- A hozzászóláshoz be kell jelentkezni
Ha csak 1gbiten csatlakozik a storage a vm szerverhez, az már régen rossz, pláne 6vm esetén.
- A hozzászóláshoz be kell jelentkezni
12x2T 7200RPM (sima desktop HDD-k, HW RAID6): linearis atvitelnel a 3G-s backplane korlatoz (4x3G, 1-1.1GBps siman megvan a tomb elejen), onmagara gond nelkul masol 300-500MBps sebesseggel, itt meg -- igaz kevesebb vinyoval, de hasonlo kornyezetben -- 40MBps-ekrol beszelunk... (es szinten kb. linearis atvitelrol (100GB meretu file masolasa))
Nem hinnem, hogy az IO teljesitmennyel van a gond.
- A hozzászóláshoz be kell jelentkezni
+1. RAID6 esetén rohadt drága művelet az írás (ha perverz módon szoftveres raid, akkor pláne), elsősorban i/o-ban. Ráadásul nagyon nagyok a diszkek, tehát kevéssé van a terhelés szétszórva a lemezek között. Ekkora diszkeknél persze a raid10 eléggé lutri - de legalább gyors tud lenni... (Azért lutri, mert ha 1+1 diszk hal meg egy raid10 tömbből, akkor Murphy szerint párban teszik...)
- A hozzászóláshoz be kell jelentkezni
Ezért illik(illene) hotspare-t is definiálni.
- A hozzászóláshoz be kell jelentkezni
POntosan. Csak akkor meg a 7+1hs felállásból van nagyjából nettó 5 diszknyi kapacitás, ami ugyan atombiztos, cserébe nagyon lassú, hiszen átlagosan kevesebb, mint egy diszk teljesítménye jut egy vm-nek. Most (hs nélkül) nagyjából egy diszk "jut", de kevés.
- A hozzászóláshoz be kell jelentkezni
12 fiókos rendszernél (a citált), simán lehet 10+1(2)-es konfigot összerakni.
A mostani raid tömb nettó 6 diszk.
A 10 diszkes RAID10 ugyan csak nettó 5 diszk, de IO-ban egy hangyaphaßnyival jobb.
- A hozzászóláshoz be kell jelentkezni
ekkora meretnel, egy sorozatu HDD-nel? semmi ertelme, inkabb lepjunk tovabb a kovetkezo redundancia kategoriaba, sokkal tobbet fog erni, mivel a diszkek nagy valoszinuseggel egyutt fognak meghalni, es nem lesz ido resyncelni...
- A hozzászóláshoz be kell jelentkezni
+1
Azonos gyártó, azonos széria, nagyjából egyforma sorozatszám: pár napon belül halnak el és az egy lemez kiesése utáni hotspare beállás még gyorsít is a dolgon.
- A hozzászóláshoz be kell jelentkezni
Érdekes, én eddig nem tapasztaltam, hogy egy szériaszámú winyók egyszerre halnának meg, ez saját tapasztalat, vagy csak feltevés?
- A hozzászóláshoz be kell jelentkezni
Sajat tapasztalat. Nem is egyszer sajnos. Azota a policy tobb gyartotol nagyjabol egyforma tudasu lemez.
- A hozzászóláshoz be kell jelentkezni
A régebbi KVM-ek I/O teljesítménye elég gyatra volt, állítólag 1.x től jobb lett, viszont Squeeze ben régi van. Alapban 0.12-es verzió. Próbáld meg felrakni backportsból az 1.1 est.
Fedora 19, Thinkpad x61s
- A hozzászóláshoz be kell jelentkezni
ez a verzió van fenn: QEMU emulator version 1.1.2 (qemu-kvm-1.1.2+dfsg-6, Debian), Copyright (c) 2003-2008 Fabrice Bellard
- A hozzászóláshoz be kell jelentkezni
uname -msr?
--
Ki oda vagyik, hol szall a galamb, elszalasztja a kincset itt alant.
- A hozzászóláshoz be kell jelentkezni
RAID6 gond. RAID10 jobb lenne.
Raid vezérlőn RAM? BCC? Policy?
Host szinten mit nyom a cucc diszk random read/write-ban?
Win-es VirtIO driver verzió száma?
- A hozzászóláshoz be kell jelentkezni
Win-en nem használjuk a virtio-t a nyitó poszt-ban leírtak miatt (amúgy virtio-win-0.1.59.iso -val próbálkoztunk). Többi adatnak utána kell kérdeznem..
- A hozzászóláshoz be kell jelentkezni
Szövegértéssel nem szokott -általában- gondom lenni.
Olvastam, hogy dobtátok a virtio-t, de azért kérdeztem rá, mert nekünk nincs vele gondunk. Szintén 0.1.59.
- A hozzászóláshoz be kell jelentkezni
De nektek is úgy települt mit nekünk? Szóval hogy az usb-s eszközök között a tray-ben ott volt az scsi driver és egy kattintással ki lehetett dobni (amit persze azonnali fagyás követett). Nem mertük így hagyni éles üzemre...
- A hozzászóláshoz be kell jelentkezni
Igen, ott figyel nálunk is. De még senkinek nem sikerült leválasztani.
Admin joggal valóban seperc alatt lehet.
- A hozzászóláshoz be kell jelentkezni
nyilván nem a kattintással történő leválasztás aggasztó (bár..), mi inkább attól tartottunk, hogy ha az Eszközkezelőben a sima Refresh BSOD-t okoz, akkor ezt később már éles üzemben akár egy nyomtató vagy más driver telepítése is előidézheti, ki tudja mi történik a háttérben..
- A hozzászóláshoz be kell jelentkezni
feliratkozás
- A hozzászóláshoz be kell jelentkezni
+1
- A hozzászóláshoz be kell jelentkezni
+1
- A hozzászóláshoz be kell jelentkezni
Ha már fölmerült, én kiváncsi lennék, hogy a deadline schedulerrel más e a helyzet, én azt szoktam váalsztani mindig, és elvileg a párhuzamos ionál ott igazságosabban van elosztva, mint a cfqnál.
- A hozzászóláshoz be kell jelentkezni
köszönöm mindenkinek az eddigi hozzászólásokat!
- A hozzászóláshoz be kell jelentkezni
Csak hogy részemről valami lezárás féle is legyen ezen a szálon, úgy néz ki sikerült megoldani, vagy legalábbis nagyot javítani a helyzeten azzal, hogy a rendszergazdánk noop schedulert állított be a kvm hoston (valahol olvastuk hogy hardver raid esetén jó választás lehet) illetve hogy a vm-eken default helyett writeback cache módot és native io módot választott (gyanítom ez utóbbi volt a fontosabb). Azóta szinte egyáltalán nem tapasztaltunk io miatti lassulást. Köszi a segítséget mégegyszer.
- A hozzászóláshoz be kell jelentkezni
Mi is, jo tudni.
- A hozzászóláshoz be kell jelentkezni