Virtualizáció

Guest op rendszeren NAS

Fórumok

Sziasztok!

Gondolom, már a kérdés is szentségtörés, de....
Egy darab szervert állítok be munkára, Proxmox-al.
Egy 8 magos xeon 2689 és 64 GB RAM lesz a proxmox alatt.

Nem tervezek egy dedikált gépet adni külön egy NAS-nak.

Mennyire istentől elrugaszkodott ötlet, hogy a 3db 2TB -os disket, direktben, fizikailag odaadom egy guest vm -nek, amire meg telepítenék egy Truenas-t ??

A többi virtuális gépeknek már nem tervezek innen továbbadni tárhelyet, de akkor a virtuális NAS lenne itthon a fájl szerver. Asztali gépnek, telefonnak, media playernek, a stb.

Szerintetek számíthatok valami vad sebességvesztésre. Vagy egyéb szívásra, amit a nálam okosabbak előre látnak?

Köszönöm szépen

VMware snapshot + szabad hely, Veeam

Fórumok

Sziasztok
 

Kis parázsvita alakult ki több kolléga között, nem vagyok maximálisan jártas a témában, szeretném kérni a szakik segítségét.

Adott egy VMware 6.5-ös 3 node-os cluster. A közös storage-ban az egyik VM 5TB-s diszkkel rendelkezik. Állítólag egy nagyon érzékeny sql jellegű förmedvény van benne, amit szeretnénk konzisztens lementeni tokkal vonóval, mielőtt átalakítjuk. Nem állhat a szolgáltatás fél napot, míg lehúzzuk az 5TB-t.

Az ötlet: snapshot  -> export egy felcsatolt NFS datastore-ra és utána nyúlunk csak hozzá.
Válasz: nem lehet snapshotolni, mert +5TB-t akar lefoglalni.
(XenServernél találkoztam ilyennel, ott is a teljes diszket még1x le akarta foglalni, szemben a sima linux lvm-nél megszokott 0bájt majd folyamatosan növekedő snapshot mérettel).
Felmerült, hogy a Veeam jó lehet ide. De utánaolvasva viszont úgy látom, hogy az is vmware storage snapshotra támaszkodik, tehát bukónak tűnik.

Kérdések:

A VMware snapshot tényleg mégegyszer lefoglalja a teljes diszket? Le lehet erről beszélni?
A Veeam ugyanerre a snapshotra épül vagy valamit jobban csinál?
Veeam nélkül hogy szoktak VMware alól menteni automatizálva mondjuk hetente?

Köszönöm!

Létezik usb elosztó VMware hostokhoz?

Fórumok

Sziasztok,

adott egy hardver, amit USB-n lehet lekérdezni/programozni. Ez egy VMware hostba van dugva, és a megfelelő virtuális gépnek van átadva. Eddig minden jó, működik.

Ám a dolog szépséghibája, hogy ez a virtuális gép ehhez a hosthoz van rögzítve. Nem lehet migrálni, csak ha átdugom az USB kábeleket.

Induljunk ki abból, hogy ezekből az USB-s eszközökből nincs ethernetes változat, még legalább két évig velünk lesznek. Van olyan USB-HUB, ami megoldaná a problémámat?

(Bár sose néztem utána, de úgy tudom, hogy a klasszikus USB-HUB egy gép egy portját osztja több felé, hogy több eszközt is ráköthess. Nekem pont fordítva kellene, egy USB-s eszközt kellene három szerverre rákötni.)

[Megoldva] Vbox ext pack indulásnál hiba

Fórumok

A konkrét hiba:

A virtuális gép elindítása sikertelen: win7.

Failed to load R0 module /usr/lib/virtualbox/ExtensionPacks/Oracle_VM_VirtualBox_Extension_Pack/linux.amd64/VBoxEhciR0.r0: RTLdrGetBits failed (VERR_SYMBOL_VALUE_TOO_BIG).

Failed to load ring-0 module 'VBoxEhciR0.r0' for device 'usb-ehci' (VERR_SYMBOL_VALUE_TOO_BIG).

Eredmény kód: NS_ERROR_FAILURE (0x80004005)
Komponens: ConsoleWrap
Interfész: IConsole {872da645-4a9b-1727-bee2-5585105b9eed}

Látom, hogy az ext pack verzióval van hiba. Gondoltam nem egyezik a verziószám a vbox verziójával. De sajnos miután felcsatoltam az azonos verziójú ext pack-ot utána is ugyanez a hiba.

LUN expand ZFS alatt

Fórumok

Sziasztok!

Olvasgatok, elvileg működik, de mivel éles rendszeren is meg kellene csinálnom, ezért szeretném gyakorlottabbak tapasztalatát is meghallgatni.

Az volna a cél, hogy Unity storage-ról FC-n osztott LUN-t menet közben átméretezzek, úgy hogy a Proxmox által futtatott VM ne érezze meg. A Proxmoxon ZFS storage van készítve az adott LUN-ból. A VM diskjét nem érintené a változás, csak annyi lenne a cél, hogy a pool-ban több hely legyen. Elvileg autoexpand property ON esetén figyel a maga alatt történő méretváltozásra, de van bennem bizonytalanság. Ezek volnának a parancsok.

# zpool set autoexpand=on zfsvol
# zpool online -e zfsvol /dev/sdc
# zpool export zfsvol
# zpool import zfsvol

Az export hatására szerintem átmenetileg elveszítem a pool-t, tehát nem futhat közben a VM, ami ebből a pool-ból kapta a diszket. Jól gondolom? Ez a lépés mindenképpen kell?

OpenStack bandwidth aware scheduling

Fórumok

Az OpenStack szakértők segítségét szeretném kérni a címben említett témában. Az egyik speciális erőforrástípus esetében felmerült, hogy a nova placement logikában vegyük figyelembe a sávszélességet (pontosabban az adott gép maximális sávszélességét) is, mert garantálni kellene igény szerinti mennyiséget. Tehát ha van egy Compute host-od, amiben van 2x10G NIC, akkor mondjuk 10 darab 1G igényű VM-nél ne kerüljön több rá. Első körben oversubscription nem érdekel, ez lehetne későbbi improvement, ha van egy baseline, és itt-ott van teaming is. Most nem nagyon okoskodunk bele a default placement-be, az egyetlen dolog ami pluszban van az anti-affinity a clusterelt megoldások esetén.

Lehet rossz helyen nézelődök, de egy napos keresgélés után azt látom, hogy nincs ilyen megoldás készen, ami fura tekintve, hogy elvileg sok szolgáltató használ OpenStack-et és a BW garancia szinte mindenhol alap. A gondom az, hogy a bejáratott host modellek esetében mindig a NIC a szűk keresztmetszet (RAM meg CPU van bőven) tehát a fenti példánál maradva 10 gép nem pörgeti ki az összes erőforrást és jöhetne rá még több később, ami nem ideális.

A mostani ötletem elég favágó: csinálni kell egy-két új AZ-t, amiben csak olyan gépek lennének, amikben kevesebb a RAM, CPU és ide csak ez a speciális típus kerülhetne, és mire elérjük a BW szempontjából elméleti maximumot addigra kipörög a többi erőforrás és a probléma megoldja önmagát.

Ismertek erre szép megoldást? Merre érdemes nézelődnöm? Vagy van ilyen megoldás csak én vagyok vak, és a lenti dolgok inkább a dinamikus BW scheduling-re vonatkoznának (ami nekem nem kell)?

https://specs.openstack.org/openstack/nova-specs/specs/stein/implemente…

https://specs.openstack.org/openstack/neutron-specs/specs/rocky/minimum…

https://docs.openstack.org/nova/latest/admin/configuration/schedulers.h…

VMWare Fusion - hosts file "ne menjen at" macOS-rol a guest OS-be

Fórumok

Regen Parallels-t hasznaltam. hosts file-os adblock megoldasom van. Amikor kikapcsoltatjak velem az adblockot egy oldalon, az hosts fajllal szivas. De elinditottam a Parallells-ben egy VM-et es megneztem ugy, ha tenyleg annyira erdekelt.

De atalltam VMWare Fusionre. Es ott eszrevettem, hogy ami 127.0.0.1-re van kuldve a hoston, az a guesten is. At lehet ezt valahogy allitani, hogy a guest OS ne ismerje a host OS hosts fajljat, hanem hasznaljon mindig DNS-t? (Win es Linux guesten is fennallo problema, es a Linux guestrol fixen allitom, hogy amugy ures a hosts fajl)

Otthoni mini server KVM (Proxmox) alapon - Legyen Hyper-threading vagy ne + PCI passthrough?

Fórumok

Sziasztok!

Egy i3 5005U CPU-s fanless PC szolgalt ki eddig, 3 VM-el (egy altalanos Ubuntu VM, egy Home Assistant OS es egy OPNsense)

Ez lesz most update-elve egy i3-8145U-s gepre. (a valtas fo oka, hogy az elozo gep nem tudta ki-NAT-olni PPPoE-vel a 1Gbit-es optikai netet, csak kb olyan 6-700Mbit-et max (Amugy teljesen eleg volt a teljesitmenye). Az elozo gepen engedelyezve volt a Hyper-threading, de itt is es mashol is olvastam, hogy virtualizacio ala nem ajanlott. Ezzel kapcsolatos a kerdesem, a gepcsere utan legyen HT vagy ne?

A Masik tema az egyik ethernet port(WAN) PCI passthrough-ja. Ennek szerintetek lesz erdemi haszna, vagy eleg a virtio? (elozo gepen virtio volt)

Az uj gepben ilyen halokartyak vannak:

Dual Gigabit LAN
Dual network with two RJ45 ports
Used network chips:
1) Intel i211 Ethernet Controller with MAC, PHY and PCIe interface
2) Intel i219LM PHY connected to the MAC of the processor

 

Ez sem teljesen vilagos, hogy mi a pontos kulonbseg a ket port kozott? Ha jol ertem, az elso dedikalt, a masodik integralt szoval a CPU-t terheli? Melyiket erdemes WAN-ra hasznalni (ha egyaltalan szamit...) es persze  virtio vagy passthrough?

VM futattása Proxmoxxal

Fórumok

Sziasztok

Van egy asztali számítógépem amin fut egy KVM dom ezt teszt rendszerek készítésére szoktam használni. A KVM-en belül fut további két Proxmox amin a failover lehetőségeket tesztelném, a probléma azzal van ha VM-et szeretnék létrehozni a Proxmox rendszeren akkor a telepítés elszáll. Átnézetm a logokat nem panaszkodik semmire, a google-ben sem találtam kifejezetten  erre a problémára megoldást.

Találkozott már valaki hasonlóval?

Előre is köszönöm.