Virtualizáció

Hyper-V to ESXi converter problema

Fórumok

hello,

adott egy elso generacios hyper-v, amirol a migracio ESXi 5.5 -re folyik, a Linux-ok es a Win 2k3 es Win7 gond nelkul atsuhant az ESXi-re, de Win 2008 -ak a vegtelensegig konvertalodnak, kb 150Kbit/s sebesseggel...ugyanazon a halon mint a tobbi gep tette ezt normalisan.

Ami kozos, hogy az osszes ilyen gep 2008 SP2...az SSL-es kikapcsolos trukkot mar probaltuk, de semmi...valakinek otlet? WinImage nem jott be, mert utana a VM blue die safe mode-ban is...

koszi

XenServer 6.2: vhd-util kinyírja a gépet és leállítani sem lehet.

Fórumok

Sziasztok,

A XenServer-t másfél éven át szinte hibamentesen futtattuk (pár újraindítás volt DomU téren, a VM-eket gyakrabban indítottuk újra), mostanában egy olyan hiba jött, amire széttártuk a kezünket. A DELL által biztosított eszközökkel nem találtunk hardware hibát.

A szerverünk paraméterei az alábbiak:

DELL T420
- Intel(R) Xeon(R) CPU E5-2407 (4 Core)
- 32GB RAM (ECC) -- egy procival csak 24GB lát :-)
- 4 x 1 TB HDD (RAID 10)

Összesen 5 VM-et futtatunk (mind Debian Linux). Az első Hosting VM 12 GB rammal rendelkezik, levelezés, web, dns, mysql van rajta (2 darab 200 GB-s VHD-t tartalmaz LVM-ben). Van egy 4 GB-s sandbox, ami ilyen binhost és fejlesztünk rajta (50 GB-s VHD). Plusz még három bérbe adott VM (mind a háromban 2 GB ram és 100 GB VHD van). Figyeltünk rá hogy a VHD ne haladja meg a 300 GB-t sehol.

A hibajelenség a következő:

Kb. úgy keltünk, hogy a szerver elérhetetlenen, DomU processzor használat 100% minden CPU-n, "vhd-util" és a "tapdisk" a toplista élén. A VM-ek halottak, max 2 MB/s I/O. Elsőnek RAID kártyára vagy DISZK-re gyanakodtunk, de a hosszú hibavadászat eredménye: egy egyszerű teljes újratelepítés és patch-elés. A csereszerverről visszaköltöztünk, és két hétre rá előjött megint ugyanez a hiba, teljesen újrarakott környezetben. A plusz poén, hogy közben egy sokáig halogatott Debian 6 -> Debian 7 frissítést is megcsináltunk. És ismét csereszerveren vagyunk :-).

A hiba egyébként terhelés alatt bukott ki: Szóval minden este szokott hajnali 2-3 óra között teljes vagy növekményes mentés menni, a CPU használat alapján ez pont a backup 3/4-énél jött elő.

A XenServer Dom0 telepítés teljesen szabvány volt, nem tértünk el semmitől.

Nos találkozott-e már valaki hasonlóval? :-)

Vmware Tükörszerver

Fórumok

Üdv mindenkinek.

Olyan problémám (kérdésem) lenne, hogy szeretnék egy Vmware Tükörszerver-t készíteni.
A kérdésem "egyszerű": Mi kell ahhoz, hogy ezt megvalósítsam?

Jelenleg ESXi 5.5 -t használok, de 60 napos teszt verziót szereztem be a vSphere Essentials Kit-ből (Azt mondták mások, ebben megtalálok mindent).
De fizikailag, elég 2 Szerver és azon futtatok 1-1 db Vmware-t plusz egy gép amin Win2008R2 szerver fút (ezen megy a Vcenter).
De mégis mi kell ahhoz, hogy a 2 Szerver tartalmát (Virtuális gépeket) teljesen szinkronba tartsa, hogy ha bármilyen hiba legyen az Szoftveres vagy Hardveres miatt kiesik az egyik gép akkor a másik vegye át az szerepét?

Olyan megoldás kellene amihez nem kell egy 3. VMDK-k tárolására használt eszköz, NAS vagy Storage.
Úgy tudom Vmware-ben valahogy megoldható... Tudomásom szerint a Microsoft hyper-v -hez ez elengedhetetlen.

Válaszokat előre is köszönöm.

OpenStack networking kérdés

Fórumok

Sziasztok,

Egy kollégám ismerkedik az OpenStackkel, illetve megpróbál összerakni egy CEPH + OpenStack környezetet, ami nagyjából össze is állt, csak a hálózati dolgok nem akarnak úgy menni, ahogy szeretnénk.
A konkrét kérdés, hogy Neutronnal hogy kell beállítani a provider és a tenant networkinget.
Az IP cím ugyan abból az osztályból lenne allokálva, mint amiben a compute node-ok eth0-ás interfészei vannak.
Fontos lenne, hogy meg tudjuk adni, hogy melyik vm, melyik ip címen legyen elérhető internet felől.
Van valakinek ötlete erre? Esetleg példa, hogy ezt hogy lehetne beállítani?
Előre is köszi!

ui: Az is érdekelhet, ha valaki ebben otthon van és megfelelő anyagi ellenszolgáltatásért konzultálna (tel/Skype/akármi) a kollégával néhány órát (szerintem 1-3 óra elég lehet). Ezzel kapcsolatban nyugodtan keressetek privátban és megbeszéljük a részleteket.

Köszi,
Bekény

VMplayerből eltűnnek a guestek

Fórumok

Van egy roppant zavaró hibája a VMplayernek, eltűnnek belőle a korábban telepített guestek. Nem törlődnek a guest fájljai, csak a VMplayer indítójából tűnnek el. Újra meg kell nyitni őket új gépekként és akkor rendben működnek. De elég zavaró mindig keresgélni a .vmx fájlokat. Gondoltam arra, hogy shortcutokat rakok a guest .vmx fájlokra, arra meg is nyílik a társított VMplayer de egyből felmegy a cpu fogyasztás 100%-ra és lefagy.
Miért tűnnek el listából a már beállított guestek?

LXC + CentOS 7 + bridge + DBUS + systemd-journal-flush.service probléma

Fórumok

Sziasztok!

Felraktam a CentOS 7 host-ra az LXC-t, majd:

lxc-create -t centos -n pelda1

lxc-start -n pelda1

lxc-start: failed to attach 'veth4C55BC' to the bridge 'virbr0' : No such device
lxc-start: failed to create netdev
lxc-start: failed to create the network
lxc-start: failed to spawn 'mysql6'
lxc-start: The container failed to start.
lxc-start: Additional information can be obtained by setting the --logfile and --log-priority options.

Ez a tartalma:

/etc/lxc/default.conf

lxc.network.type = veth
lxc.network.link = virbr0
lxc.network.flags = up

Úgy akarom beállítani, hogy a konténerek ne lássák az internetet, adok nekik privát IP-ket, majd a host gépre port forwardolom a szolgáltatásokat, az lát ki majd netre és viszont. De most csak helyben tesztelem.

Mit kell a bridge-nek beállítani, hogy működjön ez?

Köszönöm.

UPDATE 1:

Ha elindítom a létrehozott konténert, ez történik, kb 5 perc alatt, 0 processzor használattal:

lxc-start -n proba1
systemd 208 running in system mode. (+PAM +LIBWRAP +AUDIT +SELINUX +IMA +SYSVINIT +LIBCRYPTSETUP +GCRYPT +ACL +XZ)
Detected virtualization 'lxc'.

Welcome to CentOS Linux 7 (Core)!

Cannot add dependency job for unit display-manager.service, ignoring: Unit display-manager.service failed to load: No such file or directory.
[ OK ] Reached target Remote File Systems.
[ OK ] Listening on Delayed Shutdown Socket.
[ OK ] Listening on /dev/initctl Compatibility Named Pipe.
[ OK ] Listening on Journal Socket.
Starting Journal Service...
[ OK ] Started Journal Service.
Mounting Debug File System...
Mounting Configuration File System...
Starting Create static device nodes in /dev...
Mounting POSIX Message Queue File System...
Mounting Huge Pages File System...
[ OK ] Reached target Encrypted Volumes.

Eddig jut. Még 5 perc alatt még 1-2 sor...
Mi az oka?

UPDATE 2:

Kipróbáltam ezt, hogy CentOS 7 a host változatlanul:

lxc-create -t download -n p1 -- -d ubuntu -r trusty -a amd64
lxc-start -n p1

tökéletesen működik a konténer így
Csak CentOS esetén nem, amit én készítettem.

De kipróbáltam kész Centos esetén is:

lxc-create -t download -n p2 -- -d centos -r 7 -a amd64

lxc-start -n p2

Ugyanúgy elhasal indításnál, kb 5 perc alatt jut át a következőre.

Mi lehet a baj?

UPDATE 3: kb 1 óra alatt eljutott oda, hogy látok hibát:

[FAILED] Failed to start Trigger Flushing of Journal to Persistent Storage.
See 'systemctl status systemd-journal-flush.service' for details.

Starting Trigger Flushing of Journal to Persistent Storage...
<27>systemd-update-utmp[27]: Failed to get D-Bus connection: Failed to authenticate in time.
[FAILED] Failed to start Update UTMP about System Reboot/Shutdown.
See 'systemctl status systemd-update-utmp.service' for details.
[DEPEND] Dependency failed for Update UTMP about System Runlevel Changes.
[FAILED] Failed to start Trigger Flushing of Journal to Persistent Storage.
See 'systemctl status systemd-journal-flush.service' for details.

Starting Trigger Flushing of Journal to Persistent Storage...
<28>systemd-sysctl[63]: Failed to write '4294967295' to '/proc/sys/kernel/shmmax': Read-only file system

Ezek a hibás részek.

UPDATE4:

Tehát egy alap, default CentOS 7 minimum install + LXC + gyári LXC CentOS template nem működik, de bármilyen más, nem CentOS distro meg igen.
Ez furcsának tűnik, hogy ilyen alap helyzet előfordulhat.
Javasolták, hogy az LXC-t libvirt -en keresztül használjam. Ezt még nem próbáltam ki. Ennek mi az előnye?

Akinek van CentOS 7 felrakva, kipróbálná ezt nekem, hogy neki működik-e ez:

lxc-create -t download -n proba1 -- -d centos -r 7 -a amd64
lxc-start -n proba1

Nekem is elindul, majd kb 1 óra alatt jut el a boot-ig, DBUS hiba miatt.
Minden más distro, például Ubuntu vagy Fedora pár másodperc alatt boot-ol be és jut el a login-ig.
Csak a saját CentOS nem működik, ez a vicc. 2 különbözően feltelepített CentOS 7-en is néztem, mindkettővel ez a hiba.

Nem akarom elhinni, hogy ez létezhet, hogy én vagyok az egyetlen, aki CentOS 7-en akarok a hozzá adott LXC-n CentOS 7 konténerben bármit is futtatni, és az alap csomagokból rakom fel az LXC-t és a sablonokat, amit adnak és nem működik, de bármilyen más Linux esetén jó.

KVM /libvirt/ bridged network (fedora/centos)

Fórumok

Üdv!

KVM alatt (fedora20 ill. majd centos7) szeretném megoldani, hogy a VM-eket el lehessen érni kívülről (bridged nic).
Be is állítottam, de kintről (LAN-ból) nem érhető el a gép. Milyen beállítás kell neki?
Ez tesztgép és van rajta VBox, VMware Player, KVM. Mennek ezek egymás mellett?


# ifconfig
em1: flags=4163 mtu 1500
inet 192.168.1.54 netmask 255.255.255.0 broadcast 192.168.1.255
inet6 fe80::ba70:f4ff:fee0:d493 prefixlen 64 scopeid 0x20
ether b8:70:f4:e0:d4:93 txqueuelen 1000 (Ethernet)
RX packets 249214 bytes 119919697 (114.3 MiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 280834 bytes 163709049 (156.1 MiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
device interrupt 16

lo: flags=73 mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10
loop txqueuelen 0 (Local Loopback)
RX packets 817027 bytes 784159620 (747.8 MiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 817027 bytes 784159620 (747.8 MiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

virbr0: flags=4163 mtu 1500
inet 192.168.122.1 netmask 255.255.255.0 broadcast 192.168.122.255
ether fe:54:00:96:81:b7 txqueuelen 0 (Ethernet)
RX packets 47079 bytes 2832884 (2.7 MiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 82782 bytes 119714645 (114.1 MiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

vmnet1: flags=4163 mtu 1500
inet 172.16.57.1 netmask 255.255.255.0 broadcast 172.16.57.255
inet6 fe80::250:56ff:fec0:1 prefixlen 64 scopeid 0x20
ether 00:50:56:c0:00:01 txqueuelen 1000 (Ethernet)
RX packets 71 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 2696 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

vmnet8: flags=4163 mtu 1500
inet 172.16.48.1 netmask 255.255.255.0 broadcast 172.16.48.255
inet6 fe80::250:56ff:fec0:8 prefixlen 64 scopeid 0x20
ether 00:50:56:c0:00:08 txqueuelen 1000 (Ethernet)
RX packets 67 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 2702 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

vnet0: flags=4163 mtu 1500
inet6 fe80::fc54:ff:fe96:81b7 prefixlen 64 scopeid 0x20
ether fe:54:00:96:81:b7 txqueuelen 500 (Ethernet)
RX packets 32758 bytes 2294382 (2.1 MiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 60447 bytes 89631620 (85.4 MiB)

Első körben ezt néztem: public bridge, Solution 1

--
G.