( ggallo | 2025. 10. 07., k – 15:24 )

Értem amit írsz. Én sohasem gondolkodok a Proxmox support-ban, mert amit nem tudunk megoldani, azt valaki más meg tudja (neten). Az a jó, hogy teljesen nyílt, szabványos elemekből áll a Proxmox, így nem olyan nehéz hibát keresni, mint a sokszor fekete doboz proprietary szoftvereknél, aminél nem mindig egyértelmű, mi mért történt. Ráadásul a Proxmox előnye, hogy maga a cég nagyon gyorsan reagál a felhasználók által fellelt hibákra, napokon max. belül javítottak eddig mindent, ami bárhol felmerült és többeket érintett.

Így az én nézőpontomból nagyon drága a VMware bármennyiért az ingyenes Proxmox-hoz képest 5-10 fizikai szerverig (nagybb rendszerekkel nem dolgozok jelenleg). Nyilván ha van compliance igény, ahol fel kell mutatni a support-ot, az más kérdés. Ahol meg ennél több gép van, ott már úgy is olyan az IT költségvetés, hogy lehet "drága" fizetős szoftvereken gondolkodni. Nyilván mi, KKV-s üzemeltetők nem a multik IT-saként gondolkodunk a termékekről.

Én nem használom az OpenVSwitch-et, csak sima Linux építőkockákat, és a bonyolultabb konfigot kézzel írom, nem a Proxmox GUI-n sakkozom össze.

Két helyen is úgy működik atomstablian amit kérdezel, hogy Linux bond failover (active-passive) módon a fizikai interfészeken két külön switch-re (nincs MLAG; ha nincs LACP-MLAG, akkor úgy se lesz teljes sávszél kihasználás), és vagy a bond-on vannak a vlan-ok és a vlan-ok különböző bridge-ekben, vagy a bond-ok a bridge-ekben amik vlan aware (hol hogyan használják szívesebben a vlan-okat).

Az egyik Ceph megoldásnál a 2x 10 GbE úgy van konfigolva, hogy a fizikai interfészeken vlan-ok, a vlan-on active-passive bond-ok úgy, hogy az egyik vlan esetében az egyik kártya a master, a másik vlan-nál a másik kártya a master, így amíg mindkét kapcsolat él, addig 2x 10 Gbps sebességgel mehet a kommunikáció (valamiért nem akart az ügyfél több 10 GbE kapcsolatot anno, nem emléxem miért). Az így kialaklult bond-ok meg a Ceph public és replication network-ök. A gyakorlatban ez a rendszer eddig 3-4 Gbps-nél feljebb nem replikált és VM oldalon sem volt 3 Gbps-nél nagyobb igény a Ceph felé, úgyhogy ennél a rendszernékl ez a megoldás féllábas működésnél sem okozna észrevehető lassulást. De persze ahol NVMe diszkek vannak OBS-nek, vagy magas IO-val futó VM-ek, ott ez a trükközés nem játszik, vagy lesz hátránya hálózati probléma esetén.

Amivel az OpenVSwitch többet tudna a "gyári" lehetőségeknél (pl. vxlan), arra eddig nem volt sehol szükség, így arról nem tudok éles könyezeti tapasztalatokat megosztani. De amit írsz, ahhoz lokális hálózat esetén, nem is kell OVS.