Virtualizáció

VMplayerből eltűnnek a guestek

Fórumok

Van egy roppant zavaró hibája a VMplayernek, eltűnnek belőle a korábban telepített guestek. Nem törlődnek a guest fájljai, csak a VMplayer indítójából tűnnek el. Újra meg kell nyitni őket új gépekként és akkor rendben működnek. De elég zavaró mindig keresgélni a .vmx fájlokat. Gondoltam arra, hogy shortcutokat rakok a guest .vmx fájlokra, arra meg is nyílik a társított VMplayer de egyből felmegy a cpu fogyasztás 100%-ra és lefagy.
Miért tűnnek el listából a már beállított guestek?

LXC + CentOS 7 + bridge + DBUS + systemd-journal-flush.service probléma

Fórumok

Sziasztok!

Felraktam a CentOS 7 host-ra az LXC-t, majd:

lxc-create -t centos -n pelda1

lxc-start -n pelda1

lxc-start: failed to attach 'veth4C55BC' to the bridge 'virbr0' : No such device
lxc-start: failed to create netdev
lxc-start: failed to create the network
lxc-start: failed to spawn 'mysql6'
lxc-start: The container failed to start.
lxc-start: Additional information can be obtained by setting the --logfile and --log-priority options.

Ez a tartalma:

/etc/lxc/default.conf

lxc.network.type = veth
lxc.network.link = virbr0
lxc.network.flags = up

Úgy akarom beállítani, hogy a konténerek ne lássák az internetet, adok nekik privát IP-ket, majd a host gépre port forwardolom a szolgáltatásokat, az lát ki majd netre és viszont. De most csak helyben tesztelem.

Mit kell a bridge-nek beállítani, hogy működjön ez?

Köszönöm.

UPDATE 1:

Ha elindítom a létrehozott konténert, ez történik, kb 5 perc alatt, 0 processzor használattal:

lxc-start -n proba1
systemd 208 running in system mode. (+PAM +LIBWRAP +AUDIT +SELINUX +IMA +SYSVINIT +LIBCRYPTSETUP +GCRYPT +ACL +XZ)
Detected virtualization 'lxc'.

Welcome to CentOS Linux 7 (Core)!

Cannot add dependency job for unit display-manager.service, ignoring: Unit display-manager.service failed to load: No such file or directory.
[ OK ] Reached target Remote File Systems.
[ OK ] Listening on Delayed Shutdown Socket.
[ OK ] Listening on /dev/initctl Compatibility Named Pipe.
[ OK ] Listening on Journal Socket.
Starting Journal Service...
[ OK ] Started Journal Service.
Mounting Debug File System...
Mounting Configuration File System...
Starting Create static device nodes in /dev...
Mounting POSIX Message Queue File System...
Mounting Huge Pages File System...
[ OK ] Reached target Encrypted Volumes.

Eddig jut. Még 5 perc alatt még 1-2 sor...
Mi az oka?

UPDATE 2:

Kipróbáltam ezt, hogy CentOS 7 a host változatlanul:

lxc-create -t download -n p1 -- -d ubuntu -r trusty -a amd64
lxc-start -n p1

tökéletesen működik a konténer így
Csak CentOS esetén nem, amit én készítettem.

De kipróbáltam kész Centos esetén is:

lxc-create -t download -n p2 -- -d centos -r 7 -a amd64

lxc-start -n p2

Ugyanúgy elhasal indításnál, kb 5 perc alatt jut át a következőre.

Mi lehet a baj?

UPDATE 3: kb 1 óra alatt eljutott oda, hogy látok hibát:

[FAILED] Failed to start Trigger Flushing of Journal to Persistent Storage.
See 'systemctl status systemd-journal-flush.service' for details.

Starting Trigger Flushing of Journal to Persistent Storage...
<27>systemd-update-utmp[27]: Failed to get D-Bus connection: Failed to authenticate in time.
[FAILED] Failed to start Update UTMP about System Reboot/Shutdown.
See 'systemctl status systemd-update-utmp.service' for details.
[DEPEND] Dependency failed for Update UTMP about System Runlevel Changes.
[FAILED] Failed to start Trigger Flushing of Journal to Persistent Storage.
See 'systemctl status systemd-journal-flush.service' for details.

Starting Trigger Flushing of Journal to Persistent Storage...
<28>systemd-sysctl[63]: Failed to write '4294967295' to '/proc/sys/kernel/shmmax': Read-only file system

Ezek a hibás részek.

UPDATE4:

Tehát egy alap, default CentOS 7 minimum install + LXC + gyári LXC CentOS template nem működik, de bármilyen más, nem CentOS distro meg igen.
Ez furcsának tűnik, hogy ilyen alap helyzet előfordulhat.
Javasolták, hogy az LXC-t libvirt -en keresztül használjam. Ezt még nem próbáltam ki. Ennek mi az előnye?

Akinek van CentOS 7 felrakva, kipróbálná ezt nekem, hogy neki működik-e ez:

lxc-create -t download -n proba1 -- -d centos -r 7 -a amd64
lxc-start -n proba1

Nekem is elindul, majd kb 1 óra alatt jut el a boot-ig, DBUS hiba miatt.
Minden más distro, például Ubuntu vagy Fedora pár másodperc alatt boot-ol be és jut el a login-ig.
Csak a saját CentOS nem működik, ez a vicc. 2 különbözően feltelepített CentOS 7-en is néztem, mindkettővel ez a hiba.

Nem akarom elhinni, hogy ez létezhet, hogy én vagyok az egyetlen, aki CentOS 7-en akarok a hozzá adott LXC-n CentOS 7 konténerben bármit is futtatni, és az alap csomagokból rakom fel az LXC-t és a sablonokat, amit adnak és nem működik, de bármilyen más Linux esetén jó.

KVM /libvirt/ bridged network (fedora/centos)

Fórumok

Üdv!

KVM alatt (fedora20 ill. majd centos7) szeretném megoldani, hogy a VM-eket el lehessen érni kívülről (bridged nic).
Be is állítottam, de kintről (LAN-ból) nem érhető el a gép. Milyen beállítás kell neki?
Ez tesztgép és van rajta VBox, VMware Player, KVM. Mennek ezek egymás mellett?


# ifconfig
em1: flags=4163 mtu 1500
inet 192.168.1.54 netmask 255.255.255.0 broadcast 192.168.1.255
inet6 fe80::ba70:f4ff:fee0:d493 prefixlen 64 scopeid 0x20

ether b8:70:f4:e0:d4:93 txqueuelen 1000 (Ethernet)
RX packets 249214 bytes 119919697 (114.3 MiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 280834 bytes 163709049 (156.1 MiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
device interrupt 16

lo: flags=73 mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10
loop txqueuelen 0 (Local Loopback)
RX packets 817027 bytes 784159620 (747.8 MiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 817027 bytes 784159620 (747.8 MiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

virbr0: flags=4163 mtu 1500
inet 192.168.122.1 netmask 255.255.255.0 broadcast 192.168.122.255
ether fe:54:00:96:81:b7 txqueuelen 0 (Ethernet)
RX packets 47079 bytes 2832884 (2.7 MiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 82782 bytes 119714645 (114.1 MiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

vmnet1: flags=4163 mtu 1500
inet 172.16.57.1 netmask 255.255.255.0 broadcast 172.16.57.255
inet6 fe80::250:56ff:fec0:1 prefixlen 64 scopeid 0x20

ether 00:50:56:c0:00:01 txqueuelen 1000 (Ethernet)
RX packets 71 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 2696 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

vmnet8: flags=4163 mtu 1500
inet 172.16.48.1 netmask 255.255.255.0 broadcast 172.16.48.255
inet6 fe80::250:56ff:fec0:8 prefixlen 64 scopeid 0x20

ether 00:50:56:c0:00:08 txqueuelen 1000 (Ethernet)
RX packets 67 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 2702 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0

vnet0: flags=4163 mtu 1500
inet6 fe80::fc54:ff:fe96:81b7 prefixlen 64 scopeid 0x20

ether fe:54:00:96:81:b7 txqueuelen 500 (Ethernet)
RX packets 32758 bytes 2294382 (2.1 MiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 60447 bytes 89631620 (85.4 MiB)

Első körben ezt néztem: public bridge, Solution 1

--
G.

VMWare ESXi 5.5 HP ProLiant ML310e G8 szerver install és tapasztalatok

Fórumok

Üdv!

Elég régen néztem utoljára VMWare-t és az ESXi-t nem is próbáltam még.
Most van lehetőségem egyet próbálni. :)
Egy HP ProLiant ML310e G8 szerver lenne a delikvens: 2*1TB WD RED HDD, 16GB RAM.

Raid1-ben lesznek a HDD-k és VMWare ESXi-t teszek fel rá. Egyébként az ESXi szoftveres raid-et támogat? (A szerverben van hw raid, ezért itt nem kell sw raid-ben gondolkodni.)

Egyelőre 3 db VM lenne benne. A 16GB-ból mennyit memóriát lehet adni a gépeknek? A hypervisor-nak mennyi kellene?

Van esetleg tapasztalata valakinek a konfiggal kapcsolatban?

--
G.

SAP BO vmware -> virtualbox

Fórumok

Üdv!

Egy VMWare vSphere-ből át lehet tenni az SAP Busines (Win2k8, MSSQL) One-t pl. egy Virtualbox-ba valahogy? Anno (2009 körül) egy német cég rábeszélt egy ismerőst, hogy VMWare vSphere-t vegye meg az SAP-hez a szerverre, mert azzal stabilabb. Mert az ingyenes nem stabil. Szerintem h@@@ség, de most már mindegy.

Szóval csinált már valaki ilyet pl.? Milyen lehetőségek vannak még?

--
G.

VirtualBox autostart

Fórumok

Üdv!

VB-ot hogyan lehet beállítani, hogy automatikusan induljon a VM? (centos,fedora)
Ezt találtam:

1.
#/etc/default/virtualbox
VBOXAUTOSTART_DB=/etc/vbox
VBOXAUTOSTART_CONFIG=/etc/vbox/vbox.cfg

2.
# /etc/vbox/vbox.cfg vagy /etc/vbox/autostart.cfg
# Default policy is to deny starting a VM, the other option is "allow".
default_policy = deny
# Create an entry for each user allowed to run autostart
myuserid = {
allow = true
}

3.
sudo chgrp vboxusers /etc/vbox
sudo chmod 1775 /etc/vbox

4.
sudo usermod -a -G vboxusers USERNAME

5.
VBoxManage setproperty autostartdbpath /etc/vbox
VBoxManage modifyvm --autostart-enabled on
(This will create a myuserid.start file in /etc/vbox directory.)

6.
sudo service vboxautostart-service restart

Az 5. pontnál már megakad nálam:
VBoxManage setproperty autostartdbpath /etc/vbox
/etc/vbox/vbox.cfg: sor: 2: default_policy: parancs nem található
/etc/vbox/vbox.cfg: sor: 4: myuserid: parancs nem található
/etc/vbox/vbox.cfg: sor: 5: allow: parancs nem található
/etc/vbox/vbox.cfg: sor: 6: szintaktikai hiba „}” váratlan token közelében
/etc/vbox/vbox.cfg: sor: 6: `}

Mit néztem rosszul?

--
G.

Proxmox: ext3 vs ext4

Fórumok

Sziasztok!

A Proxmox alapesetben ext3-at használ.
De a telepítés során lehetőség van ezt befolyásolni és ext4-re állítani.
(forrás itt: http://pve.proxmox.com/wiki/Debugging_Installation )

Aki használja, ismeri a Proxmox-ot meg tudja mondani, hogy a Proxmox miért preferálja az ext3-at az ext4-el szemben?
Milyen előnye, hátránya van az ext3-nak az ext4-el szemben, és fordítva?

Érdemes átállítani a Proxmox telepítése során ext4-re, vagy hagyjam az ext3-at?

(Különben ma jelent meg a Proxmox 3.3-as verziója)