Virtualizáció

Usb probléma: Az INF-fájl szolgáltatástelepítési szakasza érvénytelen

Fórumok

Felállás:
Virtualbox, Ubuntu 13.04 host. Windows XP guest

A virtuális gépen megjelenik rendben az "új eszköz csatlakoztatva", de az eszközkezelőben ott a szép nagy sárga kérdőjel. Ha törlöm az eszközt és újra telepítem, megmutatva neki a saját *.inf -jét, akkor a hibaüzenet:
Az INF-fájl szolgáltatástelepítési szakasza érvénytelen
Bemásoltam neki egy élő XP (tehát nem virtuális!!!) gépből ugyanezt a *.inf - et, de ugyanez van. (Lehet, hogy hiba volt?)
A neten egy thread szerint ugyanilyen esetre Win7 guest alatt az hozott megoldást, hogy törölni kellett valami inf-cache-t, de a jó öreg XP-ben nincs olyan könyvtár és file. (Nem emlékszem, mi volt a neve, mikor az XP-n nem találtam a megfelelőjét, tovább léptem és már nem találom, mi volt.)
Gondolom, itt is valami manuálisan törlendő a guest XP-ben - de mi?

iozone read teljesítmény

Fórumok

Van egy iSCSI SAN storage, 10GE hálózattal, többféle RAID konfigurációban. Egy 5 core-os VM-ből tesztelek, 1G RAM-mal (jóval kisebb, mint a tesztméret), tuning nélküli XFS fájlrendszeren, de nem tudom megmagyarázni az értékeket, amit kapok.

Az alábbi RAID tömbök vannak beállítva: 16xNL RAID6, 8xNL RAID6, 12xSAS RAID10, 6xSAS RAID10, 4xSSD RAID10.

Az eredmény (KByte/s):


==> nl16.out <==
"  Initial write "  174892.64 
"        Rewrite "  177409.53 
"           Read "   89866.91 
"        Re-read "   89458.35 
"   Reverse Read "  136514.81 
"    Stride read "  130289.59 
"    Random read "  123989.94 
" Mixed workload "  128971.42 
"   Random write "  109424.61 
"         Pwrite "  171844.11 
"          Pread "   78092.59 
"         Fwrite "  206706.51 
"          Fread "  120193.95 
==> nl8.out <==
"  Initial write "  172386.68 
"        Rewrite "  171303.85 
"           Read "   31847.70 
"        Re-read "   32406.69 
"   Reverse Read "  118080.43 
"    Stride read "   88513.28 
"    Random read "   94344.85 
" Mixed workload "   76036.84 
"   Random write "   62973.51 
"         Pwrite "  174623.90 
"          Pread "   40463.15 
"         Fwrite "  129705.99 
"          Fread "  109302.90 
==> sas12.out <==
"  Initial write "  182865.68 
"        Rewrite "  190358.26 
"           Read "   88738.38 
"        Re-read "   87874.86 
"   Reverse Read "  193360.81 
"    Stride read "  169870.44 
"    Random read "  166412.40 
" Mixed workload "  182050.26 
"   Random write "  159604.15 
"         Pwrite "  179278.33 
"          Pread "   81023.45 
"         Fwrite "  246322.21 
"          Fread "  136634.53 
==> sas6.out <==
"  Initial write "  188787.84 
"        Rewrite "  181053.20 
"           Read "   33086.15 
"        Re-read "   39773.37 
"   Reverse Read "  181778.89 
"    Stride read "  155211.04 
"    Random read "  154880.11 
" Mixed workload "  110508.15 
"   Random write "   93077.77 
"         Pwrite "  182160.37 
"          Pread "   35638.91 
"         Fwrite "  140125.15 
"          Fread "  106811.08 
==> ssd.out <==
"  Initial write "  236415.00 
"        Rewrite "  195825.30 
"           Read "  488113.80 
"        Re-read "  488705.16 
"   Reverse Read "  428612.38 
"    Stride read "  418147.24 
"    Random read "  438113.96 
" Mixed workload "  258436.49 
"   Random write "  173594.83 
"         Pwrite "  197614.69 
"          Pread "  468519.34 
"         Fwrite "  218078.57 
"          Fread "  717935.75

Látható, hogy az SSD-t leszámítva a többi köteten drasztikusan rosszabb a normál olvasási teljesítmény, mint az írási, miközben a random és a visszafelé olvasás már jobb. Mitől lehet ez? Az értékek eleve meglehetősen rosszak, de ezt a nem igazán finomhangolt virtualizációra (KVM, virtio) és a csekély párhuzamosításra (5 szál) fogom. De az olvasás visszaesését nem tudom mivel magyarázni.

A naiv dd-s teszt is kisebb olvasási teljesítményt nyújt, mint írásit (kivéve az SSD-nél), de itt 10-20% csak a különbség.

Az iozone-t így indítottam: iozone -R -t 5 -I -F /mnt/TESZTELTKOTET/test{1,2,3,4,5} -s 3.5G -r 512k -e.

Egy nagy vas, vagy több kicsi?

Fórumok

Sziasztok,

Szeretnék véleményt kérni arra, hogy több relatív kis gépet egy nagy, vagy több kis gépen volna-e érdemes virtualizálni.

Pontosabban, mondjuk
1db HP DL380g8, 2 fizikai CPU (sok mag) sok RAM, SAS lemezek, etc
vagy
1db ASUS twinblade
ebből van kicsi (single cpu) vagy nagy (akár dual E-series Xeon).
1db 2U házba 4db "blade"-et lehet rakni, blade-enként 3 lemezzel, ami lehet SATA v (külön vezérlővel) SAS.

mindkét esetben több mag lenne, mint amennyit elhasználnánk.
Főképp redundancia és teljesítmény miatt érdekelne a dolog. Ugye az Asus megoldás önmagában lehetne
redundáns, a HP-ból kéne mégegy...

vagy rosszul gondolom?

(paravirt lenne, valószínűleg 1 v 2 gép lenne ami több magot kapna, a többiek akár osztozhatnak a maradékon)

Köszi a tippeket :-)

vmdk gyorsabb feltöltés

Fórumok

Sziasztok!

Adott egy ESXi 5.1, amibe egy frissen konvertált Windows 2008 SBS-t töltenék fel.

Csakhogy miután kiírja (annak ellenére hogy 1GBit a LAN) hogy már csak 750 perc van hátra, arra gondoltam, hogy esetleg tudtok gyorsabb feltöltést, mint a sima upload a klienssel.

Amire gondoltam:

Boot CD-vel felmountolni a vmware vmfs datastore-t és mellé az NTFS vinyót amin a vmdk-flat file található, és akkor nem LANon kellene másolni.

Hmm? Ötlet valakinek? Köszi,

KVM közös storage io probléma

Fórumok

sziasztok

Hoszting cégnél bérlünk viszonylag erős konfigurációt (32 core, sok ram), amire egy külső storage van kötve, 8x3TB 7200 rpm merevlemezekkel RAID 6-ba szervezve. A host gépen egy Debian Squeeze van KVM-el szerelve. Öt VM-et hoztunk létre, négy Debian, egy Windows 2012 Server. Nincs is velük probléma (az io teljesítmény VM-en belül teljesen jó, VM-ek között is), egész addig, amíg valamelyik VM-en nem hajtjuk ki a diszkeket.Példa: ftp kapcsolat, nagy (~100 GB) fájl másolása LAN-on lévő másik szerverről - ez ugye 40+ Mbyte / s-t jelent. Ezt szépen tartja is, csak épp néhány perc elteltével a többi VM teljesen leül, használhatatlanokká válnak. Leállítva a processt, a helyzet azonnal normalizálódik.

Próbálkoztunk VM szinten nice, ionice parancsokkal, de egyrészt nem oldották meg a problémát, másrészt nem gondoljuk hogy itt kellene ezt szabályozni.

A kérdésem az lenne, hogy a KVM szintjén milyen lehetőségek vannak az i/o sáv korlátozására? Egyáltalán megoldható-e? Deadline ütemező használata megoldást jelenthet-e erre a problémára? Azt sajnos még nem sikerült kideríteni, pontosan milyen összeköttetés van a szerver és a storage között, de ez számít-e vajon? Vagy a raid 6 lehet a ludas?

Minden linuxon Virtio drivereket használunk, Windows Serveren sima IDE-t, mert Virtio-val használva az Eszközkezelőben egy frissítésre kattintva fixen le lehetett fagyasztani az oprendszert (USB-s eszközként látta az SCSI drivert - gondolom ezért). De mint írtam, a diszkek teljesítménye VM-en belül jó, csak épp (ezt feltételezzük) a közös storage miatt elveszik egymástól a sávot.

előre is köszi,
aboy

XEN 4 && Pacemaker conf dokumentáció

Fórumok

Nos eljött a nap amikor meg kell pingelnem a nagy közös tudatot. Nincs kizárva, hogy egy-két napja hegesztőszemüvegben netezek vagy csak a gugli mostanában nem annyira a barátom, kerestem egy értelmes netes doksit a xen 4 és a pacemaker együttműködéséről.
(konfigurálás érthetően - nem a mexokott írd be ezt a sort és akkor jó lesz - ja nem ugyanazokat az alverziókat használod? Buktad :) Ja meg még kifelejtettem két sort mert az nekem triviális volt :)
Idáig amikbe belefutottam, nem voltak túl bőbeszédűek (egy-két mondat, igen van xen resource is, létezik és annyi), többnyire csak apache HA.
vagy oldtimerek 8-as ubi + xen 3.2 + drbd + script migrálás, ami egyébként süti, de most ezt hagyjuk.
debian alapú leírásról persze csak álmodok már :), de ez legyen a legnagyobb gondom. Jó az rh is.

Idáig amit találtam, és még nem néztem bele valójában, de erős izgalmi állapotba hozott amikor a ctrl+F-re sok-sok xen felíratot találtam a mexokott mennyiséghez képest az alábbi:
(ha esetleg más is keresi nem csak én)

https://www.suse.com/documentation/sle_ha/singlehtml/book_sleha/book_sleha.html

Szóval ha valaki esetleg tud ilyen linket big thx előre is!

Wow...Linux Foundation és XEN

Fórumok

Már amikor, olvastam a hírt, hogy a Linux Foundation átveszi a XEN dédelgetését, akkor azt gondoltam, hogy talán picit szervezettebb formába kerül a dokumentálása, közösségi támogatása, ami sok guglizástól menti meg az embert. Hogy valójában jók lesznek-e a megérzéseim majd elválik. Viszont (nem) véletlen rátévedtem ismét az oldalukra és a kezdés egész jónak tűnik. Ha valakit esetleg érdekel és még nem nézte...http://www.xenproject.org/

VPS Hosting Security Breach

Fórumok

Kerestem aktuális topikot, hátha már más szóba hozta, de nem találtam. Szóval Host1 -nál áll a bál rendesen... Meg persze a szerverek is! :P Aki ingyenes szolgáltatásra épít is bármit, az meg is érdemli. Ugyanakkor, ha jól értem, ez most érinti a fizetősöket is. Eddig azt hittem, hogy ez egy jó szolgáltató! De most komolyan!? Mi alapján szűrjön/válogasson az ember a hatalmas piacon!? :/

http://networkedblogs.com/MevH1

Virtualbox VM , virtuális lemez a RAM-ban, mégis lassú (80 MB/s másolás)

Fórumok

Szeretnék egy kisebb lemezigényű, gyors Linuxot (pl. Xubuntu) virtuális gépként futtatni, úgy hogy a virtuális HDD a RAM-ban legyen. A /dev/shm-be bemásoltam a virtuális lemezt fájlt, elindítottam a gépet de nem vagyok elégedett a teljesítményével (I/O). SSD-n lévő virtuális lemez esetén 40 MB/sec körül másolgat, ha a lemez a RAMban van, akkor 80MB/sec körül.

A RAM azért ennél sokkal gyorsabb:

dd if=/dev/zero of=/dev/shm/1GBfajl bs=1M count=1024
1024+0 records in
1024+0 records out
1073741824 bytes (1,1 GB) copied, 0,381615 s, 2,8 GB/s

Valamit rosszul közelítek meg, de mit? Milyen más virtualizációs megoldással érdemes próbálkoznom?