Virtualizáció

Dedikált ARM szerverek (Odroid-XU4) bérlése

Fórumok

Sziasztok!

Mostanában nézegetek VPS szolgáltatókat.
És több helyen is látom, hogy dedikált ARM lapokat lehet bérelni.

Néhány példa:
Hetzner: https://www.hetzner.de/hosting/produkte_rootserver/ax10
12 EUR-tól, 10TB adatforgalom.

Scaleway: https://www.scaleway.com/pricing/
3EUR/hótol 200Mbit/unmetered

Valaki használt már ilyet? Igazából gondolkodok, hogy mire is lenne használható, a teljesítménye egy gyengébb Atom-os processzor csak.

Viszont egy 200Mbit/unmetered internetnél, pl. lehetne egy relay szervernek használni, vagy openvpn-t telepíteni rá.
Egy gyengébb honlapot is ki tudna szolgálni.

Valaki belevágott már ilyenbe? Én itthon próbálkoztam Raspberry pi-jal párszor, de már van 4 sd kártyám ami tönkrement, 2 2.5" merevlemez ami behalt (csak kattog, ha usb-re dugom). Szóval itthoni körülmények között egy picit befürödtem. De van itt ssd és eMMC is.

Szóval tapasztalat valakinek?

Magyar szolgáltató, ahol a nested KVM engedélyezett

Fórumok

Sziasztok!

Tesztelési jelleggel szeretnék KVM virtuális gépen belül további virtuális gépeket létrehozni (2db-ot), és ehhez keresek magyar szolgáltatót, aki árul ilyen VPS gépet.
Amelyiknél én vagyok, ott ez tiltott.

Így lehet ellenőrizni:

$ ls /sys/module/ |grep kvm
kvm
$ modprobe kvm-amd
modprobe: ERROR: could not insert 'kvm_amd': Operation not supported

$ modprobe kvm-intel
modprobe: ERROR: could not insert 'kvm_intel': Operation not supported

A hypervisorban is kellene engedélyezni, tehát ha valahol nem akarják, ott egy kernelfordítás se segít elvileg.

Amit igazából szeretnék: egy szolgáltatást/programot (java + mysql + cassandra) tesztelni, hogy úgy nézzen ki a túloldalon, mintha helyi hálózatban (10.0.0.3) lenne. És utána úgy tudjam mozgatni a virtuális gépet, hogy ne tűnjön fel, hogy máshova került. (ugyanazt a lokális ip-t kapná).
A programokat egy sima user/pass-sal lehetne telepíteni ssh-n keresztül.

Két irányt tudok elképzelni:
a) VPS VPS-en belül (nem találok szolgáltatót)
b) LXC/Docker és telepítek amit kell bele (java, sshd, mysql, cassandra)

A lényeg, hogy egy komplett gépnek nézzen ki a másik oldalon.

Valaki próbálkozott már ilyennel?

KVM guest root FreeNAS-ról redundánsan

Fórumok

KVM host-ok (Ubuntu + Libvirt) alá szeretnék redundáns SAN-t építeni - egyelőre - FreeNAS-ból. (később szeretném céleszközre cserélni - ami egyébként néhány felvetődő problémát oob megold - de egyelőre kénytelen vagyok felpattanni a szopórollerre)

Ezért konstruktív véleményeket, ötleteket várnék a lenti felvetéseimre - első sorban a vázolt "low budget" lehetőségek között

Amit - jelen eszközökkel - a legtisztább megoldásnak látnék:
- FreeNAS-ról zvol iSCSI LUN-ként kiajánlva
- KVM guest disk-nek iSCSI LUN közvetlen behúzva

DE ebben nincs semmi redundancia, mert:
- FreeNAS önmagában nem tud HA-t
- Libvirt-scsi nem tud multipath I/O-t

Lehetőségek:
1., iSCSI LUN-t a KVM host-ra csatolom fel dm-mpio-val, majd ezt a raw device-t adom a guest-nek
- DE, mennyi a teljesítmény overhead?
- Egy újraindítás vagy migrálás után a megfelelő device-ok a megfelelő helyre kerülnek-e?
2., Egy nagy iSCSI LUN-t csatolok be dm-mpio-val, arra húzok LVM-et és LV-kat osztok ki guest diskeknek
- Szintén overhead kérdés?
- Nem migrálhatóak a VM-ok, hacsak nem cLVM-et használok
1+2+, Mindkét esetben RAID1-ben tükrözném a disk-et 2 NAS között, vagy a KVM guest-en mdadm-al, vagy a KVM host-on LVM mirror-al

Mennyire eszement őrültség mindez? Mennyire feleslegesen duplán terhelem az amúgy is szűkös hálózati kapacitást? Mi lehetne jobb megoldás? (Mi az élet értelme, a világmindenség, meg minden?)

Virtualbox 5.0.x-re érdemes már átváltani?

Fórumok

A Virtualbox 4.x változatait többnyire megelégedéssel használtam és elgondolkodtam, hogy 5.x-re merjek-e váltani. Csak egy virtualizálásra alkalmas rendszerem van, a kettőt egy rendszeren párhuzamosan nem lehet működtetni (ha jól tudom). A 4.x frissítéseket mindig föltettem, azok sosem okoztak bajt.

Linux host és mindenféle guest felállásban mik a tapasztalatok? Öngólt fogok rúgni, ha most átváltok?

[MEGOLDVA] CentOS 7 vmware -> xen

Fórumok

Sziasztok!

Kaptam néhány VMDK és VMX fájlt, amelyek vmware alatt futtathato CentOS rendszereket tartalmaznak. A feladatom az, hogy Xen alatt futtassam őket. Feltettem a gépemre egy VMWare playert, amin hiba nélkül fut egy ilyen virtuális gép.

A disk image típusa RAW, ezért könnyedén blokkeszközzé alakítottam a loop driver segítségével, majd a kpartx paranccsal elérhetővé tettem a rajta levő partíciókat, végül aktiváltam a rajta levő LVM köteteket, és fel is tudtam mountolni őket, hogy körülnézhessek a rendszeren. Chroottal indítottam egy shellt a rendszeren, és megpróbáltam új initrd-t létrehozni, amely tartalmazza az ata_piix, valamint a xen hálózati és block drivert. Ezután mindent lemountoltam, megpróbáltam bebootolni Xen alatt.

Úgy tűnik, nem jártam sikerrel az említett driverek initrd-be integrálásával, mert mind HVM üzemmódban indítva (ehhez kellett az ata_piix driver), mint PV üzemmódban indítva bebootolt ugyan a kernel, és elindult az initrd-ben levő rendszer, de nem találta a harddisket, tehát a root fájlrendszer mountolása előtt elakadt a boot folyamat.

A kérdésem az, hogy egyáltalán milyen kernelre van szükségem a CentOS 7 Xen domU-ban történő futtatásához? Megfelel a VMWare környezetben használt 3.10.0-229.7.2.el7.x86_64, vagy le kell cserélnem egy kifejezetten Xen domU rendszerhez való kernelre. Ha igen, hogyan? Ha nem, hogy tudom beintegrálni a megfelelő Xen specifikus drivereket (kernel modulokat) a kernelbe. (Sajnos nem vagyok jártas a dracut és a grub2 világában.)

############# SZERK. 2015.09.11.:

Az elejétől fogva jól gondoltam, hogy a problémát az okozza, hogy pár xen domU specifikus driver hiányzik az initramfs-ből. A megoldás:

A RAW image-et blokkeszközzé alakítottam a loop driver segítségével, majd a kpartx paranccsal elérhetővé tettem a rajta levő partíciókat, végül aktiváltam a rajta levő LVM köteteket, és felmountoltam őket, valamint --bind mounttal a /proc, a /sys és a /dev könyvtárakat is aktiváltam a vendég rendszeren. Ezek után chroottal indítottam egy /bin/bash shellt az összeállított rendszerben, és újrageneráltam az initramfs-t, hogy benne legyenek a szükséges driverek. Ezt úgy értem el, hogy a /etc/dracut.conf fájlba felvettem a add_drivers+="xen_blkfront xen_netfront" opciót, majd a dracut paranccsal újrageneráltam az initramfs-t. Ezután a /etc/dracut.conf fájlon eszközölt módosításokat már vissza lehet vonni, mert a Xen-en futó rendszer már külön utasítás nélkül is rájön majd, hogy szüksége van ezekre a driverekre.

Az initramfs újragenerálása után kiléptem a chroot shellből, lemountoltam a vendég fájlrendszereket, lebontottam a RAW image-re épülő LVM blokkeszköz-fát, kpartx-szel eltávolítottam a partíciókat, majd magát a loop eszközt is, hogy semmilyen virtuális blokkeszköz ne használja az image fájlt. Ezek után létrehoztam egy PVHVM típusú virtuális gépet az image-hez. Ez azonnal teljesen működőképes volt, leszámítva a soros konzol (xm console) hiányát. Ezt úgy oldottam meg, hogy a virtuális framebufferen futó virtuális konzolba belépve kiadtam az alábbi parancsot:

systemctl enable serial-getty@ttyS0.service

Ezzel elértem, hogy a következő bootoláskor a Xen által biztosított virtuális /dev/ttyS0 soros porton is hallgatózzon egy getty. Ugyanez a rendszer egyébként teljesen paravirtualizál módban (PV) is elindul, amikor mindenféle trükközés nélkül azonnal működik az xm console típusú hozzáférés a /dev/hvc0 paravirtualizált porton keresztül, azonban a CentOS kernele nem támogatja a paravirtualizált framebuffert, tehát nem lesz VGA konzolunk, viszont minden más tökéletesen működik (leszámítva, hogy a PV üzemmód rosszabb teljesítményt ad, mint a PVHVM).

Lassulás

Fórumok

Van egy Ubuntus (Quantal) virtuális gépem, amely mintha lassabb lenne most, mint régebben. Egy-egy 7zip látványosan megfekteti.
Van valami olyan parancs, amivel lehet jellemezni (a virtuális kliensgépből) azt, hogy milyen sebességgel dolgozik? Nincs hozzáférésem a vmware-es gazdagéphez. Sejtésem: a gazdagépen futó egyéb virtuális gépek lassítják be a környezetemet.

Docker vs. Config management

Fórumok

Egy ideje ismerkedem a Dockerrel, de nem igazán sikerült dűlőre jutnom vele, hogy igazából miért is lenne nekem jó.
Az első problémám, hogy konfiguráció menedzsment eszközökkel (Puppet, SaltStack, etc) ugyanúgy kényelmesen tudom kezelni a környezeteket akár Dockerrel. A második pedig, hogy vannak vele IO problémák, ha az alkalmazásom például használ MySQL-t/MariaDB-t, akkor érzékelhetően visszaesik a performancia, annak így pedig nem látom értelmét, hogy az alkalmazás környezetének egy részét konténerekbe pakolom, a másik fele meg marad a hoszt gépen.

Ha valakinek van mélyrehatóbb tapasztalata a témában, azt szívesen meghallgatnám.

Előre is köszönöm!

[Megoldva] XEN xm probléma

Fórumok

Tudom hogy hamarosan elavulttá válik az xm parancs, de most ezzel kell dolgoznom.

Egy áramszünet után visszajött a gép és az xm list parancs minden domaint kilistáz, de egyet nem. Ha simán megpróbálom elindítani akkor:


WARNING: xend/xm is deprecated.
Error: Domain 'develop' does not exist.

A virt-manager sem tud elindulni, tehát azon keresztül sem tudom konfigurálni az eddigi domaineket.


Unable to connect to libvirt.

internal error: Error adding file to config list

Verify that:
 - A Xen host kernel was booted
 - The Xen service has been started

Megoldás:
Nagyon elkeseredésemben az XM-ről átálltam az XL toolkitre és láss csodát egy reboot után megy minden mint a karikacsapás.

Az /etc/xen alatt meg van a develop.cfg, hogy tudom visszavarázsolni a működő állapotát?