Virtualizáció

VirtualBox, támogatott kernel

Fórumok

Sziasztok!

Tudom kezdő kérdés, de tudja valaki, hogy hol találok listát arról, hogy a VirtualBox DKMS milyen kernel verziókat támogat?

Mindig frissítem a rendszerem alatt futó kernel-t, de a VirtualBox ezt nem szereti, viszont most használni szeretném, ezért szeretnék a lehető legfrissebb, támogatott kernel-re visszaállni, viszont semmilyen dokumentációt nem találok arról, hogy pontosan milyen kernel verziók a támogatottak. Amit találtam az csak annyi információt ad, hogy melyik disztribúció a támogatott, de az is megállt az Ubuntu 17.04-nél, nálam meg 18.04.1 (development) van fenn.

Docker és IPv6

Fórumok

Építek egy weboldalt websocket-tel, angular-ral, django alapon szép fancy technológiákkal. A projektet docker-be csomagoljuk. IPv4-en minden működik szépen.

IPv6-on több problémám is van. A megfelelő doksikat átnéztem, a google első 50 találatában nem leltem válaszokra. Hátha itt van. Az alap probléma, hogy fix IPv6 címet szeretnék beállítani az AAAA recordnak a webserver-nek (nginx).

A kérdéseim:
- hogy tudom ellenőrizni egy docker image IPv6 címét? A docker inspect látszólag nem jó, mert a használatával nem látom, hogy lenne bármilyen IPv6 cím a container-en. Míg ha mellécsomagolok néhány csomagot (iproute2, iputils-ping), akkor tudja pingelni IPv6-on a hup.hu-t,
- van mód arra, hogy docker-compose-ból állítsak fix IPv6 címet a container-eknek (version '3')? Ha nem:
- DigitalOcean-nál NDP proxy-t kell használnom, mert /124-es block-ot kap csak a host. Ott mi alapján lehet tudni a kiosztott IPv6 címeket? Determinisztikus, hogy ugyanaz a container ugyanazt az IP-t kapja két build után (pl. a neve miatt)?
- pont ezért lehet, hogy a hetzner-hez költözöm (ott /64-et kap a host), ez esetben simán használható az IPv6 forward: mi alapján kap MAC címet a docker container (ott ugye az IPv6 cím a MAC address alapján determinisztikus), (Ezt közben megtaláltam.) Meg azt is, hogy nem biztos, hogy segít ... este kipróbálom. :/
- a legegyszerűbb persze az lenne, ha a host IPv6 címét tudná használni az nginx és minden más akár maradhat is IPv4-en a docker-en belül. Létezik ilyen proxy (maga a docker az IPv4-ekhez is készít proxy-kat). Ha jól értem a doksit, ez az irány (IPv6 NAT) nincs.

Vagy ti hogy csináljátok/oldjátok meg ezeket?

Köszönöm!

Proxmox alá hardver

Fórumok

Sziasztok!

Szeretnék összerakni egy Proxmox szervert, amin 3-4 virtuális gép futna. Windows és Linux lenne rajta használva.

Az összegkeret 300e (max 400e)HUF és mindenképpen új hardverben gondolkodok.

Első körben gondolkodtam egy DELL T130-as szerverben (32GB RAM, 2db 240GB SSD RAID 1-ben, 1db HDD mentéseknek). Ezzel a masinával az összeghatárt túllépném.

A második gondolatom, hogy a gépet én raknám össze, de olvasva a Proxmox leírását kedveli a hardveres RAID kártyát. RAID kártya területén nincs tapasztalatom.

Tudnátok pár tanácsot adni, hogy maradjak a T130-nál vagy rakjam össze én valami jó RAID kártyával?

Szívesen olvasnék olyan konfigokról, amiket Proxmox szerver üzemeltetéséhez használtok.

Köszönöm

Ovirt Pool - Win. Server 2016+Terminal licensz

Fórumok

Sziasztok!

Teszt kornyezetben letrehoztam Ovirt-al egy Pool-t, Win10 alapon. A mukodese: Elore definialt pool darabszam (teszt kornyezetben 3) 1 VM automatikus inditasa, ha nincs tobb szabad VM. Spice konzollal VM laallitas Konzol becsukasara.

Ez igy tok jol mukodik, viszont azon kezdtem el gondolkodni, hogy Csupan Ovirt es spice segitsegevel megvalosithato-e ennel komolyabb, mar-mar VDI szintu cucc is?

Az elkepzelesem: 3 Win. Server 2016, mondjuk 5 terminal server licenszel (ez ugye 15 parhuzamos belepes) A pool ugy mukodne, hogy elso 5 felhasznalo VM1, aztan VM2 etc... Ha valaki kilep a VM1-rol akkor nyilvan oda tegye be a kovetkezot. A VM2 csak akkor induljon el, ha a VM1 user szama elerte a maximumot (lehetne pre-start, mondjuk ha a VM1-en mar van 3 felhasznalo, inditsa a VM2-ot), a VM3 szinten. ha egy VM-rol "elfogynak" a userek, kapcsoljon le.

Nezegettem a konfigot, de nem lattam csak olyan lehetoseget, hogy egy userhez tobb VM hozzarendelere, olyat nem, hogy egy VM-hez fix darabszamu user...

Letezik ilyen opcio, megvalosithato a fonti dolog csak Ovirt-al?

(Nyilvan Citrix es/vagy RDS-el mukodik a dolog, az erdekel, a fonti konfiggal is menne-e)

VirtualBox vs LAN

Fórumok

Udv!

Adva van egy windowsos gep, amin fut egy VirtualBox. Utobbin van egy debian image (parameterek lejjebb). A halozatban van egy osregi debian 10.1.0.1- es IP- vel, ami dhcp- kent (is) uzemel. A windowsos gep latja a 10.1.0.1- et, tudja pingelni, 10.1.0.1- es IP- n 80- as port elerheto (a windowsos gepet 10.1.0.27- kent latja). A VirtualBoxon levo debian image viszont nem latja a helyi halozatot, es azt szeretnem, ha latna. Az image jelenlegi beallitasa igy nez ki:

[code]
cat /etc/network/interfaces | grep -v \#

source /etc/network/interfaces.d/*

auto lo
iface lo inet loopback

allow-hotplug eth0
iface eth0 inet dhcp

auto eth1
iface eth1 inet static
address 10.1.0.55
netmask 255.255.255.0
network 10.1.0.0

-----

/sbin/ifconfig
eth0 Link encap:Ethernet HWaddr 08:00:27:9b:f8:8b
inet addr:10.0.2.15 Bcast:10.0.2.255 Mask:255.255.255.0
inet6 addr: fe80::a00:27ff:fe9b:f88b/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:785351 errors:0 dropped:0 overruns:0 frame:0
TX packets:478685 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:530087752 (505.5 MiB) TX bytes:114038753 (108.7 MiB)

eth1 Link encap:Ethernet HWaddr 08:00:27:46:b0:7f
inet addr:10.1.0.55 Bcast:10.1.0.255 Mask:255.255.255.0
inet6 addr: fe80::a00:27ff:fe46:b07f/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:12519 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:0 (0.0 B) TX bytes:1898834 (1.8 MiB)

lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
inet6 addr: ::1/128 Scope:Host
UP LOOPBACK RUNNING MTU:65536 Metric:1
RX packets:1767649 errors:0 dropped:0 overruns:0 frame:0
TX packets:1767649 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:719439599 (686.1 MiB) TX bytes:719439599 (686.1 MiB)

[code]

. A VirualBox beallitasai az imagehez:

Adapter1: NAT, Cable Connected, MAC: 0800279BF88B
Adapter2: Internal Network, Name: Intnet, Cable Connected, MAC: 08002746B07F

.

Hogyan kellene beallitani az adaptereket ahhoz, hogy a mostani beallitasok megmaradjanak (tehat pl. a shared konyvtar a host es a guest kozott megmaradjon), es lathassam is a LAN- t (pl. 10.1.0.1)? Hogyan kell ehhez az image- ben levo interface- ket igazitani?

Windows: 8.1
VirtualBox: 5.2.6 r120293
Debian: 8.6

.

Koszonom a valaszokat!

Hyper-V - scheduling policy

Fórumok

Sziasztok

VMware alatt VCenter/Vmotion-al megoldhato a hostok kozotti utemezett (egyedi utemezes szerinti) eroforras megosztas, live migration-al, mi jelenleg ezt hasznaljuk. RHEV/Ovirt alatt az Engine szinten tudja ezt, a kerdesem, hogy Hyper-V alatt ehhez a funkciohoz mindenkepp kell a Microsoft System Center (meg a licensz)? Mert pl failover Cluster-hez eleg egy Windows Server Licensz is.

Ovirt - one node Gluster FS

Fórumok

Sziasztok!

Teszt kornyezetben szeretnek letrehozni egy Ovirt node-t Gluster FS alatt. adott hozza az official howto:

https://www.ovirt.org/documentation/gluster-hyperconverged/chap-Single_…

az en configom az alabbi:

https://pastebin.com/qTq6ykbq

Viszont folyamatosan megall az alabbi hibaval:

failed: [node01.localdomain.local] (item=/dev/gluster_vg1/engine_lv) => {"changed": false, "cmd": "/usr/sbin/mkfs.xfs -f -f -K -i size=512 -d '' '#Ignored' in case of jbod,su=256k -n size=8192 /dev/gluster_vg1/engine_lv", "item": "/dev/gluster_vg1/engine_lv", "msg": "mkfs.xfs: Specify data sw as multiple of su, no unit suffix", "rc": 1, "stderr": "mkfs.xfs: Specify data sw as multiple of su, no unit suffix\n", "stderr_lines": ["mkfs.xfs: Specify data sw as multiple of su, no unit suffix"], "stdout": "", "stdout_lines": []}

VMware downgrade

Fórumok

Sziasztok. Egy Forcepoint VM miatt downgrade-elnem kell a 6.7-es hostot, amit egy hete húztam fel. Sajnos a vm nem hajlandó felmenni csak 6.5 alá.
Ezzel nincs is gond, de a licensz kód jó lesz 6.5 alá?

Hogy tudom legkisebb fájdalommal megtartani a már rajta lévő vm-eket, amelyek egy külön datastore-ban vannak?

van egy RAID1-es tömb a VMware OS-nek és egy másik RAID5 a vm-eknek.