Virtualizáció

root pass

Fórumok

Hali,

Nagyon idióta kérdés, ég a pofám miatta, de kénytelen vagyok feltenni, hátha.

Van kb. 100 darab, vmware-rel virtualizált linux.
Ismeretlen root jelszó (meg úgy általában senki nem tud semmit).
Nincs vmi mód arra, hogy a gépek rebootja nélkül, vmware-en át (vcenter, vsphere client, akármi) be lehessen lépni és/vagy root pass-t lehessen cserélni?

Thx.

Openstack Mitaka - Ubuntu 16.06 - Booting from hard disk...

Fórumok

Sziasztok,

Elore is jelzem, hogy keves informacioval inditom a topicot, mivel nem tudom egyelore, hogy mi lehet a gondom.

A tortenetunk a kovetkezo:
Egy Openstack Mitaka kornyezetet rakok ossze - megharcolva a semmirekello dokumentacioval, ami 2-3 verzioval korabbi - es miutan eljutottam oda, hogy egyatalan letre tudok hozni egy instance-ot, meredeken a foldbe zuhantam.

Az instance letrejon de nem jut el a boot elinditasaig. Ha megnyitom az aktualis konzolt, akkor annyi fogad (Fedora 23 qcow2 image eseten):

Booting from Hard Disk...
.

Ha masik image-t probalok (Ubuntu) akkor a Booting from Hard DIsk... es egybol restart.

Probaltam Volume-rol bootolni ami szinten sikeretlen, ugyanez a szituacio all fenn.
A volume eseten megprobaltuk iSCSI NetApp LUN es CEPH RBD-vel is. A helyzet valtozatlan.

Apparmort mart kikapcsoltam, mielott valaki megkerdezi.

A libvirt.xml -> http://pastebin.com/e74aq3Uz
Az instance logja -> http://pastebin.com/Uh9mv6Ge

Barmilyen mas logot/configuraciot tudok mutatni ha igeny van ra...

Tud esetleg valaki tippet adni, hogy mi az eg lehet a gondja ?

Udv.
Arpad

openstack 2. compute node hozzaadas problema

Fórumok

Vegigmentem az openstack (mitaka) proof of concept install guide-jan, amiben 1 controller + 1 compute node van (a provider network opciot valasztottam). Szoval demo user belep a horizon-on, csinal vm-eket, azok rendben elindulnak, kilatnak a netre, de jo.

Na de, adjunk meg egy compute node-ot a konfighoz, es amikor egy uj instance-ot akarok csinalni, az alabbi hibat kapom:

Error: Failed to perform requested operation on instance "inst1", the instance has an error status: Please try again later [Error: Build of instance 4edd7829-9b94-40dc-ba36-2e4ba896ecc4 aborted: Unable to establish connection to http://127.0.0.1:9696/v2.0/extensions.json].

Amint kiveszem a compute2 node-ot, ujbol lehet uj instance-ot letrehozni. Talalkozott mar valaki hasonlo hibaval?

[Megoldva] ESXi host hálózat megáll egy idő után

Fórumok

Sziasztok,

Otthon egy HP microserveren fut egy ESXi 5.5. Minden alap, semmi különöset nem állítottam be rajta.
Van benne két host. Egy Win7 és a Debian Jessie. (Korábban egy 6-os debian volt, de a problléma ott is jelentkezett)
Tehát az történik, hogy a hálózat egy idő - tipikusan kb. 1 nap -, után megáll a linuxon. Csak ott és csak részlegesen. Ping megy kifelé, de apt-get update illetve ssh külső hostra nem. Otthoni hálón megy minden.
Ssh befelé megy.
Amiket próbáltam:
- vmware tools telepítve/anélkül
- /etc/init.d/networking restart
- network offload kikapcsolása (egy fórumon olvastam ilyesmit)

Ha újraindítom a hostot, megint minden működik, ahogy előtte.
A linux nem csinál egyébként mást, mint hogy naponta ötször rsync-el lehúz egy másik szerverről adatokat.
Az az érdekes, hogy pl ha ez nem sikerül neki - mert "beakad" a hálózat -, akkor erről e-mailt viszont tud küldeni :) (postfix, gmail smtp)

Tudna valaki tippet adni, hogy mit nézzek/változtassak meg?

Köszi!
Üdv: redman

KVM, ARM9E supported CPU kerdes

Fórumok

Sziasztok!

Szeretnek egy egy ipari gepet virtualizalni KVM-el.
Image-m van az eszkozrol es amit tuok hogy a CPU az:
ARM926EJ-S, ami wiki szerint ARM9E (ARMv5TE architektúra)

A kvm-em az alabbi CPU-kat tamogatja:

akita Akita PDA (PXA270)
borzoi Borzoi PDA (PXA270)
canon-a1100 Canon PowerShot A1100 IS
cheetah Palm Tungsten|E aka. Cheetah PDA (OMAP310)
collie Collie PDA (SA-1110)
connex Gumstix Connex (PXA255)
cubieboard cubietech cubieboard
highbank Calxeda Highbank (ECX-1000)
integratorcp ARM Integrator/CP (ARM926EJ-S)
kzm ARM KZM Emulation Baseboard (ARM1136)
lm3s6965evb Stellaris LM3S6965EVB
lm3s811evb Stellaris LM3S811EVB
mainstone Mainstone II (PXA27x)
midway Calxeda Midway (ECX-2000)
musicpal Marvell 88w8618 / MusicPal (ARM926EJ-S)
n800 Nokia N800 tablet aka. RX-34 (OMAP2420)
n810 Nokia N810 tablet aka. RX-44 (OMAP2420)
none empty machine
nuri Samsung NURI board (Exynos4210)
realview-eb ARM RealView Emulation Baseboard (ARM926EJ-S)
realview-eb-mpcore ARM RealView Emulation Baseboard (ARM11MPCore)
realview-pb-a8 ARM RealView Platform Baseboard for Cortex-A8
realview-pbx-a9 ARM RealView Platform Baseboard Explore for Cortex-A9
smdkc210 Samsung SMDKC210 board (Exynos4210)
spitz Spitz PDA (PXA270)
sx1 Siemens SX1 (OMAP310) V2
sx1-v1 Siemens SX1 (OMAP310) V1
terrier Terrier PDA (PXA270)
tosa Tosa PDA (PXA255)
verdex Gumstix Verdex (PXA270)
versatileab ARM Versatile/AB (ARM926EJ-S)
versatilepb ARM Versatile/PB (ARM926EJ-S)
vexpress-a15 ARM Versatile Express for Cortex-A15
vexpress-a9 ARM Versatile Express for Cortex-A9
virt ARM Virtual Machine
xilinx-zynq-a9 Xilinx Zynq Platform Baseboard for Cortex-A9
z2 Zipit Z2 (PXA27x)

Az alabbika mogott oda is van irva konkret CPU


integratorcp ARM Integrator/CP (ARM926EJ-S)
musicpal Marvell 88w8618 / MusicPal (ARM926EJ-S)
realview-eb ARM RealView Emulation Baseboard (ARM926EJ-S)
versatileab ARM Versatile/AB (ARM926EJ-S)
versatilepb ARM Versatile/PB (ARM926EJ-S)

Melyikkel fog menni?
Melyikkel probalkozzak ?

Koszi elore is!

Tud-e valaki újabb infót a VMware Workstation további sorsáról?

Fórumok

Az addig megvan, hogy kirúgták a teljes brigádot akik a Workstationt/Fusiont fejlesztették. A fórumokban 2 héttel ezelőtt azt írták, hogy állítólag lett egy új team akik most kezdik átvenni a kódokat. Tud valaki bővebbet? Lesz ez még fejlesztve? Vagy kuka?

Szerk: A második link legutolsó hozzászólása alapján nincs ok az aggodalomra. Előbb kellett volna olvasnom... Csak az UI csapat lett elbocsátva, ami nem UI ott nincs személyi változás, az új UI csapatban kétszer annyian vannak. Akkor talán csak a csocsó asztallal együtt kirakták a brigádot is...

virt-managerben az "Autoresize VM with window" nem működik

Fórumok

A cím csak részben igaz. A host Fedora 24, a guest szintén, de ha a guest Fedora 23, akkor sem működik. Ellenben Windows XP guest esetében igen. QXL a virtuális gép VGA-ja, és Spice manageli az egészet, a virtualizáció pedig qemu-kvm.

A guest-en fut a spice-vdagentd, továbbá a desktopra bejelentkezve a kliens is, azaz a spice-vdagent. Eddig minden jó. Ugyanakkor az ablak átméretezése a guest kijelző felbontásának módosítását nem vonja maga után. Természetesen be van pipálva az autoresize. Amúgy majdnem jó, egy bash daemon-nal meg tudnám oldani, ugyanis az xrandr -q azt mondja, hogy az aktuális felbontás 1024x768, a preferred ('+' jel) pedig az, amekkorára húztam az ablakot. Éppen ezért egy guest-en kiadott

xrandr --output Virtual-0 --auto

parancs manuálisan megoldja a problémát. Ez vajon bug, vagy valami konfigurációs hülyeség, amit nem veszek észre? Tulajdonképpen arra vonatkozik a kérdésem, mennyire csinálok hülyét magamból, ha jelzem a fejlesztők felé.

redundáns storage letrehozása

Fórumok

Sziasztok

Van egy kb 3 éves rendszerünk 3 host, ami Vmware esxi-t futtat valamint egy EMC storage FC felett, valamint 10Gbps-es gerinc switch-ek. Lassan újabb tárhelyre lenne szükségünk, amire rendelkezésre áll kb 2 millió Ft keret, így megvizsgáltuk a lehetőségeinket, és a következőre jutottunk:
- EMC storage bővítés: kb 20 disk jönne ki, ha 900-as sas disk-ekkel számolunk, ez kb 13 TB helyet jelentene (raid, spare diskek, kerekítések figyelembe vételével), viszont a support költségek növekedését jelentené, és akkor "csak" SAS disk-ekről beszélnénk
- redundáns storage építése: a fizikai szerverekbe raknánk SSD meghajtókat. 3 hostba 6-6 disk férne be, amit ha 1TB-os ssd-vel számolunk, akkor beleférünk a keretbe. Ez esetben kb 7-8 TB tárhelyet és SSD disk sebességeket kapnánk SAS disk helyett.A második megoldással kapcsolatban szeretném kérni a segítségeteket, véleményeteket, javaslataitokat.
Amennyiben a fizikai szerverekbe tesszük az SSD-ket, akkor ahhoz, hogy a rendszerben a virtuális gépeket szabadon mozgathassuk, illetve egy host kiesését kibírja a rendszer adatok elérhetetlensége nélkül, akkor redundáns storage-ot kell a 3 hostból építeni.

Eddig a következő verziók jutottak eszünkbe:
Vmvare Virtual SAN : license díja miatt kiesett
Vmware vSphere Storage Appliance : essential plus kit license miatt használhatjuk, de csak vcenter mellé lehet telepíteni windows-ra, nekünk vcenter Appliance van, így ehhez új MS servert kellene telepíteni (szívesen elkerülnénk)
"Saját" megoldást "fejlesztünk" a problémára:
3 hostra 1-1 virtuális gépet teszünk, ami a gépben lévő local diskeket kezeli linux (Fedora) felett.
A 3 gép valamilyen megoldással, redundánsan tárolja az adatokat, majd ezeket a redundáns tárolókat valamilyen redundáns kapcsolatot használva elérhetővé tesszük a vmware felé (NFS/ISCSI), ami majd a virtuális gépek disk-jeit tárolja majd rajta.

Valahogy így:
,-------------ISCSI/NFS---------------------,
`--|HOST-6 disk| -- |VM drbd/gluster| --`
|
,--|HOST-6 disk| -- |VM drbd/gluster| --,
`-------------ISCSI/NFS-------------------`

Erre eddig két-három lehetőséget teszteltünk, ami eddig megvalósíthatónak tűnik:
-DRBD sync a 3 host között primary-primary módban, amit iscsi-n keresztül redundáns útvonalakon keresztül elér a vmware. Itt a tárolóhely vesztés csökkentése és a könnyebb konfig miatt a diskeket 2 csoportra osztva 1-1 másik gépre szinkronizálnának (Host 1 disk A-2B;2A-3B;3A-1B). Ez primary-primary módban redundáns iscsi útvonallal működőképes.
-Gluster(fs) segítségével vagy az előzőhöz hasonlóan elosztva az adatokat, vagy a 3 host felett Striped Replicated módban 1 nagy volume, amit a vmware NFS-el el tud érni. Az NFS sajnos nem támogat redundáns kapcsolatot, így e felett valamilyen cluster megoldással biztosítani kell, hogy egy ip-n folyamatosan elérhető legyen valamelyik host-on keresztül a volume. (Vmware-en akkor lehet azonos névvel felcsatolni a storage-ot, ha minden host-on a beállítás megegyezik, tehát nem tudjuk megtenni, hogy minden host-on a rajta futó disk kezelő rendszer ip-jével vesszük fel. Ha minden igaz csak így valósítható meg a vmotion.) Vagy a volume-on egy file-t létrehozva a file-t iscsi-n publikálva tesszük elérhetővé a kötetet (tesztek során ebben a megoldásban extrém lassú sebességeket mértünk).

Valakinek van-e jobb ötlete a probléma megoldására?
DRBD vagy Gluster(fs)?
ISCSI vagy NFS?
Kinek milyen tapasztalata van a fenti 4 technológiával kapcsolatban?
DRBD primary-primary megoldás tapasztalatok? Tesztes során sajnos többször sikerült egy szimpla újraindítással kizökkentenünk őket.
Ki melyiktől intene minket óva?
Szóba jöhet ebből az árból egy újabb storage, ami valóban redundáns (nem csak a disk)?
Vélemények, ötletek (építő jellegűek)?

Üdv

M

[Megoldva] Guest csak a lokális hálózatot „lássa”

Fórumok

Ott tartok, hogy a host-on fut a samba szerver, guest és host között így van filemegosztás. Azt szeretném elérni lehetőleg egyszerűen, hogy a guest-ek ne tudják elérni az internetet a host-on keresztül, miközben a host-nak szükségképpen és természetesen van internet elérése, ugyanakkor a guest-ek a host samba megosztását lássák. Az nem jó, hogy a guest-en a névfeloldást elrontom, mert attól még ki tud nézni a netre, legfeljebb nem domain névre hivatkozva.

Hogyan lehet ezt egyszerűen megoldani?

Megoldás