Virtualizáció

Ovirt Pool - Win. Server 2016+Terminal licensz

Fórumok

Sziasztok!

Teszt kornyezetben letrehoztam Ovirt-al egy Pool-t, Win10 alapon. A mukodese: Elore definialt pool darabszam (teszt kornyezetben 3) 1 VM automatikus inditasa, ha nincs tobb szabad VM. Spice konzollal VM laallitas Konzol becsukasara.

Ez igy tok jol mukodik, viszont azon kezdtem el gondolkodni, hogy Csupan Ovirt es spice segitsegevel megvalosithato-e ennel komolyabb, mar-mar VDI szintu cucc is?

Az elkepzelesem: 3 Win. Server 2016, mondjuk 5 terminal server licenszel (ez ugye 15 parhuzamos belepes) A pool ugy mukodne, hogy elso 5 felhasznalo VM1, aztan VM2 etc... Ha valaki kilep a VM1-rol akkor nyilvan oda tegye be a kovetkezot. A VM2 csak akkor induljon el, ha a VM1 user szama elerte a maximumot (lehetne pre-start, mondjuk ha a VM1-en mar van 3 felhasznalo, inditsa a VM2-ot), a VM3 szinten. ha egy VM-rol "elfogynak" a userek, kapcsoljon le.

Nezegettem a konfigot, de nem lattam csak olyan lehetoseget, hogy egy userhez tobb VM hozzarendelere, olyat nem, hogy egy VM-hez fix darabszamu user...

Letezik ilyen opcio, megvalosithato a fonti dolog csak Ovirt-al?

(Nyilvan Citrix es/vagy RDS-el mukodik a dolog, az erdekel, a fonti konfiggal is menne-e)

VirtualBox vs LAN

Fórumok

Udv!

Adva van egy windowsos gep, amin fut egy VirtualBox. Utobbin van egy debian image (parameterek lejjebb). A halozatban van egy osregi debian 10.1.0.1- es IP- vel, ami dhcp- kent (is) uzemel. A windowsos gep latja a 10.1.0.1- et, tudja pingelni, 10.1.0.1- es IP- n 80- as port elerheto (a windowsos gepet 10.1.0.27- kent latja). A VirtualBoxon levo debian image viszont nem latja a helyi halozatot, es azt szeretnem, ha latna. Az image jelenlegi beallitasa igy nez ki:

[code]
cat /etc/network/interfaces | grep -v \#

source /etc/network/interfaces.d/*

auto lo
iface lo inet loopback

allow-hotplug eth0
iface eth0 inet dhcp

auto eth1
iface eth1 inet static
address 10.1.0.55
netmask 255.255.255.0
network 10.1.0.0

-----

/sbin/ifconfig
eth0 Link encap:Ethernet HWaddr 08:00:27:9b:f8:8b
inet addr:10.0.2.15 Bcast:10.0.2.255 Mask:255.255.255.0
inet6 addr: fe80::a00:27ff:fe9b:f88b/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:785351 errors:0 dropped:0 overruns:0 frame:0
TX packets:478685 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:530087752 (505.5 MiB) TX bytes:114038753 (108.7 MiB)

eth1 Link encap:Ethernet HWaddr 08:00:27:46:b0:7f
inet addr:10.1.0.55 Bcast:10.1.0.255 Mask:255.255.255.0
inet6 addr: fe80::a00:27ff:fe46:b07f/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:12519 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:0 (0.0 B) TX bytes:1898834 (1.8 MiB)

lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
inet6 addr: ::1/128 Scope:Host
UP LOOPBACK RUNNING MTU:65536 Metric:1
RX packets:1767649 errors:0 dropped:0 overruns:0 frame:0
TX packets:1767649 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:719439599 (686.1 MiB) TX bytes:719439599 (686.1 MiB)

[code]

. A VirualBox beallitasai az imagehez:

Adapter1: NAT, Cable Connected, MAC: 0800279BF88B
Adapter2: Internal Network, Name: Intnet, Cable Connected, MAC: 08002746B07F

.

Hogyan kellene beallitani az adaptereket ahhoz, hogy a mostani beallitasok megmaradjanak (tehat pl. a shared konyvtar a host es a guest kozott megmaradjon), es lathassam is a LAN- t (pl. 10.1.0.1)? Hogyan kell ehhez az image- ben levo interface- ket igazitani?

Windows: 8.1
VirtualBox: 5.2.6 r120293
Debian: 8.6

.

Koszonom a valaszokat!

Hyper-V - scheduling policy

Fórumok

Sziasztok

VMware alatt VCenter/Vmotion-al megoldhato a hostok kozotti utemezett (egyedi utemezes szerinti) eroforras megosztas, live migration-al, mi jelenleg ezt hasznaljuk. RHEV/Ovirt alatt az Engine szinten tudja ezt, a kerdesem, hogy Hyper-V alatt ehhez a funkciohoz mindenkepp kell a Microsoft System Center (meg a licensz)? Mert pl failover Cluster-hez eleg egy Windows Server Licensz is.

Ovirt - one node Gluster FS

Fórumok

Sziasztok!

Teszt kornyezetben szeretnek letrehozni egy Ovirt node-t Gluster FS alatt. adott hozza az official howto:

https://www.ovirt.org/documentation/gluster-hyperconverged/chap-Single_…

az en configom az alabbi:

https://pastebin.com/qTq6ykbq

Viszont folyamatosan megall az alabbi hibaval:

failed: [node01.localdomain.local] (item=/dev/gluster_vg1/engine_lv) => {"changed": false, "cmd": "/usr/sbin/mkfs.xfs -f -f -K -i size=512 -d '' '#Ignored' in case of jbod,su=256k -n size=8192 /dev/gluster_vg1/engine_lv", "item": "/dev/gluster_vg1/engine_lv", "msg": "mkfs.xfs: Specify data sw as multiple of su, no unit suffix", "rc": 1, "stderr": "mkfs.xfs: Specify data sw as multiple of su, no unit suffix\n", "stderr_lines": ["mkfs.xfs: Specify data sw as multiple of su, no unit suffix"], "stdout": "", "stdout_lines": []}

VMware downgrade

Fórumok

Sziasztok. Egy Forcepoint VM miatt downgrade-elnem kell a 6.7-es hostot, amit egy hete húztam fel. Sajnos a vm nem hajlandó felmenni csak 6.5 alá.
Ezzel nincs is gond, de a licensz kód jó lesz 6.5 alá?

Hogy tudom legkisebb fájdalommal megtartani a már rajta lévő vm-eket, amelyek egy külön datastore-ban vannak?

van egy RAID1-es tömb a VMware OS-nek és egy másik RAID5 a vm-eknek.

libvirt KVM web gui

Fórumok

Sziasztok

Adott több libvirtes KVM szerver. Ehhez keresek legalább egy alap webes felületet (start, stop, console, esetleg vm create).
Proxmox nem jó, mert az nem libvirtet használ és nem kompatibilis a linuxos virt-manager nevű programmal (https://virt-manager.org), amivel linux alól lehet birizgálni.
A cél az, hogy az új webes felületekhez szokott kollégák és a régi vágású konzolos, linuxos manager programot használó kollégák is jól érezzék magukat.

Anélkül, hogy mindet végigpróbálnám innen: http://www.linux-kvm.org/page/Management_Tools
Van akinek bevált valamelyik? Esetleg ezen kívül ismer használhatót?
Köszönöm!

ESXi és alaplapi BIOS RAID - van megoldás?

Fórumok

Sziasztok,

Van egy ASUS H97I plus miniITX alaplapunk és benne 4 HDD, amiket két tömbbe szerveztem az alaplapi intel RAID-vezérlővel. Egy "sima" oprendszer mint a Windows, vagy a Linux, ezeket szépen kezeli is, de sajnos ESXi 6.7-et kellene felraknom rá, és ott azzal szembesültem, hogy "átlát" az Intel BIOS-os RAID-jén és csak a 4 HDD-t látja ahova datastore-t tudok csinálni.

Létezik olyan custom ESXi image, vagy driver, amivel átverhető az ESXi? Látott valaki ilyet működni?

ESXi - Halokartya nem latszik

Fórumok

Sziasztok,

Adott egy ESXi 6.0 (U3), amibe az alabbi halokartya van: Intel® Ethernet Converged Network Adapter X520-SR2 (SN: E10G42BFSR)

Mar van benne egyeb halokartya, 0-8-ig fol is ismeri a NIC-eket a VMware. a 9-10 viszont nem latszik a halozati eszkozok kozott...

Viszont, ha lekerem a PCI eszkozoket CLI-vel, szepen latszik a NIC9-10... valamint VMware alatt PCI Passthrough-al is latszik az eszkoz...

Probaltam 3 kulonbozo kartyat (2 E10G42BFSR 1 E10G42BTDA ) de semmi eredmeny, nem latja a VMware... Probaltam frissiteni a drivert, de ugy sem... Masik Hostban ezek a kartyak mukododtek.

Nincs otletem, a CLI szerint ugye ott van az eszkoz, tehat hardveresen nincs gond, csak a VMware nem latja.

A host, amiben mukodott, szinten ESXi 6.0 (U3).

ESXI + SSD = no trim?

Fórumok

ESXI 6.7 alatt van egy Samsung 850 Pro. Sima datastore, ezen vannak a VM-ek. Látszólag jól felismeri az ESXI, hogy SSD-ről van szó, de nemrég egy HD Sentineles ellenőrzésnél azt mondta, hogy a TRIM támogatott de nem aktív, így 80% a teljesítmény.
Keresgéltem, de csak régi találatokat dobott a google. Nem tudom mihez nyúljak, hogy bekapcsoljam, vagy legalább ellenőrizzem a TRIM(vagy annak ESXI megfelelőjének) állapotát ESXI alatt.

Hol lehetne elindulni?