Virtualizáció

Proxmox VLAN "érdekesség"

Fórumok

Hi!

 

3 node-s Proxmox 6.3-4, a VLAN-okkal gyűlt meg a bajom, pontosabban 1 VLAN-al. Lássuk a felállást:

VLAN221 (management):
- node1: 192.168.221.101
- node2: 192.168.221.102
- node3: 192.168.221.103

VLAN206  VLAN207 (ring0, ring1)
- node1: 192.168.206.101    192.168.207.101
- node1: 192.168.206.102    192.168.207.102
- node1: 192.168.206.103    192.168.207.103

VLAN17 belső hálózati címek.

Egy VM-ben lévő debian 2 hálózati interfacet kap, ebből az elsőt szerettem volna a VLAN221-be betenni, de sajnos meg sem mozdul. 
Lássunk magának a Node2-nek a konfigját:

=======Node2============

auto eno33np0
iface eno33np0 inet manual

auto eno34np1
iface eno34np1 inet manual 

auto bond0
iface bond0 inet manual
        bond-slaves eno33np0 eno34np1
        bond-miimon 100
        bond-mode 802.3ad
        bond-xmit-hash-policy layer3+4

auto vmbr0
iface vmbr0 inet manual
        bridge-ports bond0
        bridge-stp off
        bridge-fd 0
        bridge-vlan-aware yes
        bridge-vids 2-4094

auto vmbr0.17
iface vmbr0.17 inet manual

auto vmbr0.221
iface vmbr0.221 inet manual

auto vlan221
iface vlan221 inet static
        address 192.168.221.102/24
        gateway 192.168.221.9
        vlan-raw-device bond0
=============================

 

A "Tesztmasina" VM network beállításai:
=================================

Network device (net0)    virtio:3E:D1:E1E8:DB:E9,bridge=vmbr0,tag=221
Network device (net1)    virtio:......

===================================

 

Magában a Tesztmasina VM--ben az ens18-as interface minden VLAN nélkül, "sima" hálózati interface-nak van felkonfigolva, az IP-je pedig 192.168.221.33.

Az inteface feljön, de nem pingelhető egyik node, de még az átjáró sem, de ezt a gépet sem lehet pingetni.

Amennyiben a VM "Network device (net0)" résznél átteszem a VLAN-t a "tag=17"-be és a VM-ben belül is ebbe a tartományba helyezem az IP-t (192.168.17.33) akkor viszont minden szépen megy, látja a VLAN17 átjáróját!! 

Próbáltam, hogy a VM "Network device (net0)" résznél nem tettem rá VLAN tag-et, de a VM-ben ens18.221-ként húztam fel az interfacet (tehát a VM-en belül tettem rá a VLAN tag-et), de az sem segített.

A tűzfal - ahol csak találtam - ki lett kapcsolva. 

Esetleg valakinek valami tippje, hogy a VM-be miért nem sikerül a VLAN221-ből forgalmazni, mit nézek el?

 

Előre is köszönöm!

VPS szolgáltatás, mire használhatok egy VPS -t

Fórumok

Hosszas tépelődés után döntöttem vps -t fogok bérelni. Mivel 5 napos a teszt időszak amit kihasználhatok, rá kell készülnöm.
A szolgáltatónak már küldtem egy email -t a kérdéseimmel, de van amiben ti is tudtok segíteni.

A szolgáltató (a legfapadosabb csomaghoz) 30T forgalmat kapcsol, amiből 90% belföldi és 10% külföldi lehet, vagyis a külföldi ck. 3T nem kevés, de ezt ha kilépek az internetre nemigen tudom befolyásolni, illetve csökken az értelme az internet kapcsolatnak. Nagyon furcsa feltétel számomra. Van valami lehetőségem, hogy a szolgáltatótól függetlenül ellenőrizhessem, felügyelhessem, esetleg beavatkozhassak ebbe? A szolgáltató ezt hogy méri?

A szolgáltató egy VLAN -t alapból nyújt/szolgáltat. Én azt találtam, hogy a VLAN egy olyan kiterjesztése a LAN -ak  ami egy hálózaton belül, azt internet használata nélkül épül fel (pl. egyesít több C osztályú hálózatot), a VPN az ami az internet hálózat felhasználásával lehetővé teszi a kapcsolatot két(vagy több) földrajzilag távoli végpont között, titkosítva.
Mi értelme van egy VLAN -ak egy, az internetről elérhető virtuális szerver kapcsán?
Erre azt a választ kaptam, hogy akkor játszik ha több szerverem is van náluk (csak feltételezem, hogy az ftp mentést is ezen végzik).

Miután tisztáztuk a VLAN kérdést, rákérdeztem a VPN -re (OpenVPN már most használok OpenWRT router -en). Mire azt a választ kaptam, hogy az OpenVPN -t tudják telepíteni, ami egy külön szolgáltatás és 4.990,- Ft/hó.
Mire rákérdeztem, hogy az OpenVPN reguláris csomag a Linux disztribúciókban, nem telepíthetem magamnak?
Azóta nem kaptam több választ :(

Most akkor mire használhatok egy vps -t? Miért zavarja őket a VPN, amikor a forgalom már amúgy is korlátozott?
Esetleg a vps (szintén) virtuális ethernet -e nem alkalmas egy ilyen egyszerű VPN -hez sem?

OFF: Eddig azt tapasztaltam (windows 10 Debian -on, VirtualBox -ban), hogy egy virtuális gép hálózati csatolója nagyon is megengedőleges.

Guest op rendszeren NAS

Fórumok

Sziasztok!

Gondolom, már a kérdés is szentségtörés, de....
Egy darab szervert állítok be munkára, Proxmox-al.
Egy 8 magos xeon 2689 és 64 GB RAM lesz a proxmox alatt.

Nem tervezek egy dedikált gépet adni külön egy NAS-nak.

Mennyire istentől elrugaszkodott ötlet, hogy a 3db 2TB -os disket, direktben, fizikailag odaadom egy guest vm -nek, amire meg telepítenék egy Truenas-t ??

A többi virtuális gépeknek már nem tervezek innen továbbadni tárhelyet, de akkor a virtuális NAS lenne itthon a fájl szerver. Asztali gépnek, telefonnak, media playernek, a stb.

Szerintetek számíthatok valami vad sebességvesztésre. Vagy egyéb szívásra, amit a nálam okosabbak előre látnak?

Köszönöm szépen

VMware snapshot + szabad hely, Veeam

Fórumok

Sziasztok
 

Kis parázsvita alakult ki több kolléga között, nem vagyok maximálisan jártas a témában, szeretném kérni a szakik segítségét.

Adott egy VMware 6.5-ös 3 node-os cluster. A közös storage-ban az egyik VM 5TB-s diszkkel rendelkezik. Állítólag egy nagyon érzékeny sql jellegű förmedvény van benne, amit szeretnénk konzisztens lementeni tokkal vonóval, mielőtt átalakítjuk. Nem állhat a szolgáltatás fél napot, míg lehúzzuk az 5TB-t.

Az ötlet: snapshot  -> export egy felcsatolt NFS datastore-ra és utána nyúlunk csak hozzá.
Válasz: nem lehet snapshotolni, mert +5TB-t akar lefoglalni.
(XenServernél találkoztam ilyennel, ott is a teljes diszket még1x le akarta foglalni, szemben a sima linux lvm-nél megszokott 0bájt majd folyamatosan növekedő snapshot mérettel).
Felmerült, hogy a Veeam jó lehet ide. De utánaolvasva viszont úgy látom, hogy az is vmware storage snapshotra támaszkodik, tehát bukónak tűnik.

Kérdések:

A VMware snapshot tényleg mégegyszer lefoglalja a teljes diszket? Le lehet erről beszélni?
A Veeam ugyanerre a snapshotra épül vagy valamit jobban csinál?
Veeam nélkül hogy szoktak VMware alól menteni automatizálva mondjuk hetente?

Köszönöm!

Létezik usb elosztó VMware hostokhoz?

Fórumok

Sziasztok,

adott egy hardver, amit USB-n lehet lekérdezni/programozni. Ez egy VMware hostba van dugva, és a megfelelő virtuális gépnek van átadva. Eddig minden jó, működik.

Ám a dolog szépséghibája, hogy ez a virtuális gép ehhez a hosthoz van rögzítve. Nem lehet migrálni, csak ha átdugom az USB kábeleket.

Induljunk ki abból, hogy ezekből az USB-s eszközökből nincs ethernetes változat, még legalább két évig velünk lesznek. Van olyan USB-HUB, ami megoldaná a problémámat?

(Bár sose néztem utána, de úgy tudom, hogy a klasszikus USB-HUB egy gép egy portját osztja több felé, hogy több eszközt is ráköthess. Nekem pont fordítva kellene, egy USB-s eszközt kellene három szerverre rákötni.)

[Megoldva] Vbox ext pack indulásnál hiba

Fórumok

A konkrét hiba:

A virtuális gép elindítása sikertelen: win7.

Failed to load R0 module /usr/lib/virtualbox/ExtensionPacks/Oracle_VM_VirtualBox_Extension_Pack/linux.amd64/VBoxEhciR0.r0: RTLdrGetBits failed (VERR_SYMBOL_VALUE_TOO_BIG).

Failed to load ring-0 module 'VBoxEhciR0.r0' for device 'usb-ehci' (VERR_SYMBOL_VALUE_TOO_BIG).

Eredmény kód: NS_ERROR_FAILURE (0x80004005)
Komponens: ConsoleWrap
Interfész: IConsole {872da645-4a9b-1727-bee2-5585105b9eed}

Látom, hogy az ext pack verzióval van hiba. Gondoltam nem egyezik a verziószám a vbox verziójával. De sajnos miután felcsatoltam az azonos verziójú ext pack-ot utána is ugyanez a hiba.

LUN expand ZFS alatt

Fórumok

Sziasztok!

Olvasgatok, elvileg működik, de mivel éles rendszeren is meg kellene csinálnom, ezért szeretném gyakorlottabbak tapasztalatát is meghallgatni.

Az volna a cél, hogy Unity storage-ról FC-n osztott LUN-t menet közben átméretezzek, úgy hogy a Proxmox által futtatott VM ne érezze meg. A Proxmoxon ZFS storage van készítve az adott LUN-ból. A VM diskjét nem érintené a változás, csak annyi lenne a cél, hogy a pool-ban több hely legyen. Elvileg autoexpand property ON esetén figyel a maga alatt történő méretváltozásra, de van bennem bizonytalanság. Ezek volnának a parancsok.

# zpool set autoexpand=on zfsvol
# zpool online -e zfsvol /dev/sdc
# zpool export zfsvol
# zpool import zfsvol

Az export hatására szerintem átmenetileg elveszítem a pool-t, tehát nem futhat közben a VM, ami ebből a pool-ból kapta a diszket. Jól gondolom? Ez a lépés mindenképpen kell?

OpenStack bandwidth aware scheduling

Fórumok

Az OpenStack szakértők segítségét szeretném kérni a címben említett témában. Az egyik speciális erőforrástípus esetében felmerült, hogy a nova placement logikában vegyük figyelembe a sávszélességet (pontosabban az adott gép maximális sávszélességét) is, mert garantálni kellene igény szerinti mennyiséget. Tehát ha van egy Compute host-od, amiben van 2x10G NIC, akkor mondjuk 10 darab 1G igényű VM-nél ne kerüljön több rá. Első körben oversubscription nem érdekel, ez lehetne későbbi improvement, ha van egy baseline, és itt-ott van teaming is. Most nem nagyon okoskodunk bele a default placement-be, az egyetlen dolog ami pluszban van az anti-affinity a clusterelt megoldások esetén.

Lehet rossz helyen nézelődök, de egy napos keresgélés után azt látom, hogy nincs ilyen megoldás készen, ami fura tekintve, hogy elvileg sok szolgáltató használ OpenStack-et és a BW garancia szinte mindenhol alap. A gondom az, hogy a bejáratott host modellek esetében mindig a NIC a szűk keresztmetszet (RAM meg CPU van bőven) tehát a fenti példánál maradva 10 gép nem pörgeti ki az összes erőforrást és jöhetne rá még több később, ami nem ideális.

A mostani ötletem elég favágó: csinálni kell egy-két új AZ-t, amiben csak olyan gépek lennének, amikben kevesebb a RAM, CPU és ide csak ez a speciális típus kerülhetne, és mire elérjük a BW szempontjából elméleti maximumot addigra kipörög a többi erőforrás és a probléma megoldja önmagát.

Ismertek erre szép megoldást? Merre érdemes nézelődnöm? Vagy van ilyen megoldás csak én vagyok vak, és a lenti dolgok inkább a dinamikus BW scheduling-re vonatkoznának (ami nekem nem kell)?

https://specs.openstack.org/openstack/nova-specs/specs/stein/implemente…

https://specs.openstack.org/openstack/neutron-specs/specs/rocky/minimum…

https://docs.openstack.org/nova/latest/admin/configuration/schedulers.h…