Virtualizáció

Proxmox 4.1 LXC a VM tárolóhelye

Fórumok

A Proxmox 3-ban az egyik oka az volt amiért szerettem OpemVZ konténereket használni, mert nem raw fájlban, hanem egy könyvtárban tárolta a gép fájlrendszerét. Ez azért jó, mert hiába osztok ki a gépnek egy viszonylag nagy lemez tárterületet, a gazdagépen csak annyi helyet fog használni amennyi adat van benne.
És ez így működött Clusterben is, ha a konténer a cluster meghajtón (SAN-NAS) volt és a live-migrációt is tökéletesen végrehajtotta.
Nemrégen migráltam a Proxmox 3-at 4.1-re. Meglepően egyszerűen lezajlott a dolog. A VM-ek ugyanúgy működnek mint korábban.
Az OpenVZ konténereket is átkonvertáltam a leírás szerint LXC konténerekké és ekkor lepődtem, meg, hogy minden LXC konténerben lévő gépnek készített egy raw-fájlt. Ha a GUI-n készítek új LXC konténert az is így készül, hogy egy raw-fájlt készít a lemezegységnek. Ha a raw-fájlt kibontom egy könyvtárban és a PVE alatt az lxc könyvtárban lévő hozzátartozó konfigot is átírom, akkor működik a könyvárat használva is. A méretét viszont nem tudom beállítani, mindenképpen az adott gazda meghajtó teljes méretét engedélyezi. a ",size=30G" hatástalan.
Ráadásul ebben az esetben a live-migráció sem megy. :(

Leírom a két config fájl különbségét.
RAW meghajtó esetében: (így megy a live-migráció is!)
rootfs: nfs-vm-netapp:2250/vm-2250-disk-1.raw,size=30G

Könyvtár használat esetén: (így nem megy a live-migráció!)
rootfs: /mnt/pve/nfs-vm-netapp/images/2210/vm-2210-disk-1/,size=30G
(itt a vm-2210-disk-1 egy könyvtár!)

Persze, látom a különbséget.
De a "rootfs: nfs-vm-netapp:2250" után csak raw meghajtót fogad el, könyvtárat nem.

Az nfs-vm-netapp ide van mountolva: /mnt/pve/nfs-vm-netapp (alapértelmezetten ide tette amikor a cluster Datacenterben csatoltam az nfs meghajtót)

Két kérdésem lenne.
1. LXC konténerben ha könyvtárat használok a rendszerben meghajtóként, akkor hogy lehet korlátozni, beállítani a meghajtó méretét, mint ahogy ezt OpenVZ esetén is lehetett?
2.) Ha könyvtárat akarok megadni meghajtóként azt hogy lehet megtenni úgy hogy a cluster mindegyik tagja tudja használni és menjen a live-migráció is.

Megoldva: OVFtool - export

Fórumok

Hello,

Szeretnem megszolitani a VMware szakembereket itt a HUP-on egy szamukra remelem pofonegyszeru kerdessel amire nekem sajnos google nem tudott megfelelo valaszt adni:

Hogy tudok ugy exportalni egy VM-et, hogy egy bizonyos vmx opcio is belekeruljon az ovf fajlba ugy, hogy azt importalaskor ne kelljen kezzel beallitani ujra ?

A kerdeses vmx opcio: "disk.enableUUID=true" es ennek kene importalaskor is leteznie, hogy ne kelljen a felhasznalokra hagyatkoznom.

Probaltam az "--extraConfig" opciot hasznalni, de sajnos semmi sem valtozott es ugyanugy nem kerult bele az opcio az OVF-be...

Az esetleges otleteket elore is koszonom ;)

--
Vegulis a megoldas pofonegyszeru volt. Elbenaztam. :)

ovftool --compress=9 --allowAllExtraConfig --extraConfig:disk.EnableUUID=true --privateKey=/path/to/signing.pem vi://hajdua:XXXXXXX@192.168.XXX.XXX/CCL_Development/vm/TestExport /exports

Az egyik hiba, hogy nem kellett namespacekent hasznalni a "vmx." elotagot mint ahogy egy masik peldaban irtak. Tanulsag: inkabb bongesszuk a mar elkeszult OVF-et, mint hagyatkozzunk egy hasznalati utasitasra...

A masik hibam pedig, hogy lehagytam az "--allowAllExtraConfig" opciot. Azzel egyutt szepen belekerult az OVF-be az opcio amit importalaskor fel is dolgozott es az importalt vmx-ben is szerepel.

Windows Nano Server - Vagrant

Fórumok

Sziasztok!

Van valakinek tapasztalata ezzel kapcsolatosan?

A probléma a következő: Frontend fejlesztéshez szeretnénk egy nagyon pici VM-et, ami kevesett fogyaszt és képes futtatni egy IIS és MSSQL servert. Sajnos a CMS, ami a projekt mögött van .NET-ben írodott, viszont a fejlesztők Linux / OS X rendszeren dolgoznak.

A következőt szeretném megoldani:

  • VM-en legyen IIS7 vagy IIS10
  • VM-en legyen MSSQL server
  • A projekt fájlokat megtudjam osztani a guest gépben lévő IIS-sel

Update 1
Ez a box jó kiindulás alatt, viszont a Nano Serverben nem telepíthető – egyelőre nem tudok rá megoldás – a Vbox guest additionals, így csak látszólag mountolódnak fel a vagrant file-ban szereplő sync folderek.

http://www.hurryupandwait.io/blog/a-packer-template-for-windows-nano-se…

[megoldva] proxmox 4 boot fail

Fórumok

Sziasztok!

Adott egy proxmox 4-es cluster és az egyik node újraindítás után nem akar elindulni.

Itt a bootlogja, azt látom hogy hol a gond, viszont azt nem tudom hogy lehet elhárítani.

Loading Linux 4.2.6-1-pve ...
Loading initial ramdisk ...
[ 1.803356] i8042: No controller found
Loading, please wait...
fsck from util-linux 2.25.2
/dev/mapper/pve-root: clean, 61832/3801088 files, 775228/15204352 blocks
[ 4.270940] systemd-sysv-generator[268]: Ignoring creation of an alias umountiscsi.service for itself
[ 7.087438] Error: Driver 'pcspkr' is already registered, aborting...
[ TIME ] Timed out waiting for device dev-pve-data.device.
[DEPEND] Dependency failed for /var/lib/vz.
[DEPEND] Dependency failed for Local File Systems.
[DEPEND] Dependency failed for File System Check on /dev/pve/data.
[ TIME ] Timed out waiting for device dev-pve-swap.device.
[DEPEND] Dependency failed for /dev/pve/swap.
[DEPEND] Dependency failed for Swap.
Starting Proxmox VE Login Banner...
Starting Proxmox VE firewall logger...
[ OK ] Stopped Getty on tty1.
[ OK ] Stopped Serial Getty on ttyS0.
[ OK ] Stopped getty on tty2-tty6 if dbus and logind are not available.
[ OK ] Stopped target Graphical Interface.
[ OK ] Stopped target Multi-User System.
[ OK ] Stopped Deferred execution scheduler.
[ OK ] Stopped target ZFS startup target.
[ OK ] Stopped ZFS file system shares.
[ OK ] Stopped ZFS Event Daemon (zed).
[ OK ] Stopped PVE VM Manager.
[ OK ] Stopped PVE SPICE Proxy Server.
[ OK ] Stopped PVE API Proxy Server.
[ OK ] Stopped Kernel Samepage Merging (KSM) Tuning Daemon.
[ OK ] Stopped OpenBSD Secure Shell server.
[ OK ] Stopped PVE Status Daemon.
[ OK ] Stopped Self Monitoring and Reporting Technology (SMART) Daemon.
[ OK ] Stopped PVE Local HA Ressource Manager Daemon.
[ OK ] Stopped LXC Container Initialization and Autoboot Code.
[ OK ] Stopped FUSE filesystem for LXC.
[ OK ] Stopped LXC network bridge setup.
[ OK ] Stopped PVE Cluster Ressource Manager Daemon.
[ OK ] Stopped Proxmox VE watchdog multiplexer.
[ OK ] Stopped PVE API Daemon.
[ OK ] Stopped Cgroup management proxy.
[ OK ] Stopped Cgroup management daemon.
[ OK ] Stopped /etc/rc.local Compatibility.
[ OK ] Stopped Permit User Sessions.
[ OK ] Stopped D-Bus System Message Bus.
[ OK ] Stopped Login Service.
[ OK ] Closed D-Bus System Message Bus Socket.
[ OK ] Reached target Login Prompts.
[ OK ] Stopped LSB: Start NTP daemon.
[ OK ] Stopped target Mail Transport Agent.
[ OK ] Stopped LSB: Postfix Mail Transport Agent.
[ OK ] Stopped LSB: start the RRDtool data caching daemon.
[ OK ] Stopped Regular background program processing daemon.
[ OK ] Stopped System Logging Service.
[ OK ] Stopped target Basic System.
[ OK ] Reached target Timers.
[ OK ] Stopped target System Initialization.
Starting Commit Proxmox VE network changes...
Starting Create Volatile Files and Directories...
Starting LSB: Raise network interfaces....
[ OK ] Closed Syslog Socket.
[ OK ] Reached target Sockets.
Starting Emergency Shell...
[ OK ] Started Emergency Shell.
[ OK ] Reached target Emergency Mode.
[ OK ] Started Proxmox VE firewall logger.
[ OK ] Started Commit Proxmox VE network changes.
[ OK ] Started Create Volatile Files and Directories.
Starting Update UTMP about System Boot/Shutdown...
Starting Network Time Synchronization...
[ OK ] Started Update UTMP about System Boot/Shutdown.
Starting Update UTMP about System Runlevel Changes...
[ OK ] Started Update UTMP about System Runlevel Changes.
[ OK ] Started Network Time Synchronization.
[ OK ] Reached target System Time Synchronized.
[ OK ] Started udev Wait for Complete Device Initialization.
Starting Activation of LVM2 logical volumes...
Starting Copy rules generated while the root was ro...
[ OK ] Started Copy rules generated while the root was ro.
[ OK ] Started Proxmox VE Login Banner.
Activating swap /dev/pve/swap...
[ OK ] Activated swap /dev/pve/swap.
[ OK ] Started Activation of LVM2 logical volumes.
[ OK ] Reached target Encrypted Volumes.
Starting Import ZFS pools by device scanning...
Starting Activation of LVM2 logical volumes...
Starting File System Check on /dev/pve/data...
[ 99.467895] systemd-fsck[753]: /dev/mapper/pve-data: clean, 19/9428992 files, 639771/37686272 blocks
[ OK ] Started File System Check on /dev/pve/data.
Mounting /var/lib/vz...
[ OK ] Started Activation of LVM2 logical volumes.
Starting Monitoring of LVM2 mirrors, snapshots etc. ...ress polling...
[ OK ] Mounted /var/lib/vz.
[ OK ] Started Import ZFS pools by device scanning.
Welcome to emergGive root password for maintenance
(or type Control-D to continue):

VMware Player gui nélküli gép indítása nem megy

Fórumok

Sziasztok!

Ubuntu 12.04-en próbálok gui nélküli VMware virtuális gépet indítani, amihez a VMware-Player-12.1.0-3272444.x86_64
és VMware-VIX-1.15.0-2985596.x86_64 van feltelepítve.
Az érdekesség az, hogy ugyanazzal a userrel, ugyanarról a terminálról a

vmrun -T player start /pfSense-vmware/pfSense.vmx gui

parancsra grafikus felülettel működik a virtuális gép, viszont egy

vmrun -T player start /pfSense-vmware/pfSense.vmx nogui

-ra csak annyit ír ki, hogy 'Error: Unknown error'.
A két futás logjait összehasonlítva azt vettem észre, hogy míg a guis esetben a log "Log for VMware Player pid=14259 version=12.1.0 build=build-3272444 option=Release" sorral kezdődik, a nogui opció használatakor "Log for VMware Workstation pid=13713 version=12.0.0 build=build-2985596 option=Release" az első sor, aminek a miértjét a "-T player" mellett nem igazán értem.
Az indulás ott akad el, hogy a /root/.vmware mappát szeretné létrehozni, amihez nincs joga (lévén nem root nevében futtatom).


[msg.util.msde.mkdir] Cannot create directory "/root/.vmware": Permission denied.
I125: ----------------------------------------
I125: MsgHint: msg.hostPosix.userdir
I125+ VMware Workstation needs to store user preferences and other information in the directory "~/.vmware". Do you want to continue although VMware Workstation was unable to create that directory?

A hibaüzenet akkor is maradt, amikor tesztként kézzel létrehoztam a /root/.vmware a mappát, és a+rwx jogot adtam rá.
Régebben 6-os VMWare Player + 1.13-as VIX párossal ment a gép gui nélkül is. Frissítéskor először mindkettőt letöröltem, utána telepítettem az új verziókat.

Ötlet? Ha kell, felteszem valahova a teljes logokat és a gép konfigját is.

Köszi a segítséget!

Xen szerver alol COM port biztosítása guest-nek

Fórumok

Üdv Mindenkinek!

Adott egy debian 8.0-ás xen szerver, amin szeretnék biztosítani egy dedikált fizikai COM portot az egyik guest rendszernek, mivel a virtuális gépen egy fax szolgáltatás fog futni amit pedig egy régi zyxel u-1496E modem biztosít com kapcsolaton keresztül.

Van esetleg ötletetek hogyan tudom ezt kivitelezni?

Előre is köszönöm.

vzfs szabad hely 0% pedig nincs tele

Fórumok

Sziasztok, segítséget szeretnék kérni.
Egy ismerősőm vps-e lerottyant, több domain webkiszolgálása és levelezése fut(na) rajta.
Azt vettem észre hogy a mysql nem indul mert a lemezen nincs szabad hely.
Nosza megnéz:
root@158253:~# df -h
Fájlrendszer Méret Fogl. Szab. Fo.% Csatol. pont
/dev/vzfs 220G 138G 0 100% /

Ez egy parallels power paneles felülteről elérhető webtropiás vps, szerintem openvz konténerrel,
de én nem nagyon értek a virtualizáció üzemeltetéséhez max virtualbox alapokon :)

A power panel resources lapján ez áll a diskről:
Disk Usage
Resource Used Free Total
Disk Space 137.95 GB 55.2% 112.05 GB 250.00 GB
Disk Inodes 349,593 7% 4,650,407 5,000,000

Mi a teendő ilyenkor?

OpenVZ - Cannot allocate memory

Fórumok

Egy relatív nagy cégnél ( nem garázs kategória ) bérlünk néhány VPS -t. Egyelőre nem szeretnék nevet említeni.
Az a gond, hogy ha megpróbálok több RAM -ot elfoglalni a gépen ( 60% + ), akkor Cannot allocate memory hibával elszáll az app, annak ellenére, hogy még van egy rakás szabad hely. Írtam a support -nak, ők azzal oldották meg, hogy adtak swap -ot, de szerintem ez nem az igazi. Mieőtt elkezdenék jobban panaszkodni az szeretném tudni, hogy igazam van, vagy az OpenVZ esetében az 1Gb RAM, az nem 1Gb ( pl bizonyos OS process -eket en nem látok, de elfoglalja a memóriát ).
A RAM az garantált 1Gb ( nem burstable ). Szerintem több mint valószínü, hogy ők trükköznek valamit, de előbb meg szerettem volna kérdezni a nagyérdeműt.
Köszönöm!

Ezek az adatok meg a swap létezése előttiek:

# stress --vm 2 --vm-bytes 250M --timeout 10s
stress: info: [4367] dispatching hogs: 0 cpu, 0 io, 2 vm, 0 hdd
stress: FAIL: [4368] (495) hogvm malloc failed: Cannot allocate memory
stress: FAIL: [4367] (395) <-- worker 4368 returned error 1
stress: WARN: [4367] (397) now reaping child worker processes
stress: FAIL: [4367] (452) failed run completed in 0s

#free -m
total used free shared buffers cached
Mem: 1024 556 467 0 0 328
-/+ buffers/cache: 227 796
Swap: 0 0 0

vmstat -s
1048576 K total memory
570224 K used memory
430028 K active memory
124732 K inactive memory
478352 K free memory
0 K buffer memory
337048 K swap cache
0 K total swap
0 K used swap
0 K free swap
3123149 non-nice user cpu ticks
2603 nice user cpu ticks
577221 system cpu ticks
1802164518 idle cpu ticks
4306327 IO-wait cpu ticks
0 IRQ cpu ticks
0 softirq cpu ticks
0 stolen cpu ticks
287080164 pages paged in
343489320 pages paged out
28702 pages swapped in
25742 pages swapped out
0 interrupts
669704461 CPU context switches
1444077898 boot time
1449849 forks

cat /proc/user_beancounters
Version: 2.5
uid resource held maxheld barrier limit failcnt
116088: kmemsize 12889646 44695552 9223372036854775807 9223372036854775807 0
lockedpages 724 806 262144 262144 0
privvmpages 167093 262144 262144 262144 3047
shmpages 10508 17546 9223372036854775807 9223372036854775807 0
dummy 0 0 9223372036854775807 9223372036854775807 0
numproc 76 183 9223372036854775807 9223372036854775807 0
physpages 223190 262210 262144 262144 0
vmguarpages 0 0 262144 9223372036854775807 0
oomguarpages 68632 148935 262144 9223372036854775807 0
numtcpsock 57 84 9223372036854775807 9223372036854775807 0
numflock 8 14 9223372036854775807 9223372036854775807 0
numpty 2 10 9223372036854775807 9223372036854775807 0
numsiginfo 0 27 9223372036854775807 9223372036854775807 0
tcpsndbuf 2141872 11423520 9223372036854775807 9223372036854775807 0
tcprcvbuf 953904 6798272 9223372036854775807 9223372036854775807 0
othersockbuf 57024 343968 9223372036854775807 9223372036854775807 0
dgramrcvbuf 0 188048 9223372036854775807 9223372036854775807 0
numothersock 39 212 9223372036854775807 9223372036854775807 0
dcachesize 6870816 38070645 9223372036854775807 9223372036854775807 0
numfile 1136 1455 9223372036854775807 9223372036854775807 0
dummy 0 0 9223372036854775807 9223372036854775807 0
dummy 0 0 9223372036854775807 9223372036854775807 0
dummy 0 0 9223372036854775807 9223372036854775807 0
numiptent 24 33 9223372036854775807 9223372036854775807 0

xen virtuális gép indítása drbd alól

Fórumok

Sziasztok!

Sikerült megoldanom azt, hogy pygrub-bal induljon a xen-es gép drbd alól, vagyis nem kell kimásolni a kernelt.

# vim /etc/xen/vm/debian-proba.cfg
bootloader = '/usr/lib/xen-4.4/bin/pygrub'

vcpus = '1'
memory = '512'

#
# Disk device(s).
#
root = '/dev/xvda2 ro'
disk = [
'drbd:/dev/drbd/by-res/debian-proba/0,xvda2,w',
'drbd:/dev/drbd/by-res/debian-proba/1,xvda1,w',
]

Vagyis az erőforrást kell megadni és a teljes útvonalat!

A gondom annyi, hogy elindul a virtuális gép, de itt megáll és nem megy tovább:
xenbus_probe_frontend: Waiting for devices to initialise: 25s...

Valami ötlet?