Én ezt értem, csak kérdés, hogy ez jó-e. Mind technikai, mind üzleti szempontból.
drága SAN
Ez így értelmetlen :-), de amellett sem igaz. Ethernet alapon is tudsz használni redundáns tárolós rendszert, nem feltétlenül kell drágább dedikált hálózat. Jó, ez esetben az ethernet a SAN, legalább részben, de HCI-nek még erősebb ethernet hálózat kell, mert nemcsak a tároló forgalmat kell kiszolgálnod, hanem a mindenféle egyéb tároló forgalmat. Tehát a Cephnek drágább SAN-ra van szüksége :-)
De gondolom nem ezt akartad mondani, hanem azt, hogy egy redundáns tároló drágább, mint szerverekbe HDD (avagy inkább SSD)-ket pakolni.
Én ebben nem vagyok biztos, ha figyelembe vesszük, hogy:
- tárolóba tipikusan kevesebb lemez kell ugyanazon adatmennyiség és IOps kiszolgálásához. Jó, egy tárolóba kerülő lemez drágább, mint szerverbe való, de tároló esetén üzlet értelemben nincs elhasználódás, ami néhány környezet esetén előnyös szempont (tároló gyártó cseréli, függetlenül attól, hogy elhasználódott vagy sem, szerver esetén nem). A tárolók mostanában elég hatékonyan tárolják az adatokat (kvázi felére "tömörítik", nem tudom, Ceph miként áll ezzel a gyakorlatban.
- HCI esetén akár több szerver is kell, több CPU, több energia
- tároló alapon elkülönült rétegek vannak, tárkapacitás/IOps szerverektől függetlenül növelhető
- VMware esetén kvázi next-next finish egy redundáns rendszer felépítése. Jó, tudni kell, mit kell csinálni, de a redundáns tároló kialakítása mindössze egy VMFS formázás. Egyszeri feladat és felejthető. Nincsenek szinkronizációs szolgáltatások, ahhoz kapcsolódó kockázatok, kínlódások
- a tárolók tipikusan sokkal többet nyújtanak, mint tárterület. Replikáció, pillanatképek, zsarolóvírus elleni védelem és még hosszan lehetne sorolni.
- olcsóbb SAN :-)
Persze, ahol két kisebb szerver elegendő, ott jól jön hasonló technológia, tudom, nagyobb környezetekben is van HCI (lásd VSAN), de nekem sokkal jobban bejön a központi tároló. Minél egyszerűbb legyen valami, minél kisebb komplexitás, minél kevesebb függőség. Az informatika önmagához képest is túl gyorsan halad, egyszerűen túl sok a felesleges macera. Igen, központi tárolóval is lehet gond, volt már a gond a történelem során, de azért alapvetően set&forget technológia.
A jó hír, hogy 9-esben központi tároló irányába is történt elmozdulás, de egy VMFS jellegű megoldás nagyon jó lenne, amikor teljes nyugalommal hajtja álomra a szemét az ember, nem mindenféle tákolmányokon nyugszanak az adatok (vajon ez a szinkronizációs szolgáltatás összecsinálja-e magát vagy sem az éjjel/hétvégén/bármikor). Ha a VMware meg tudta csinálni ~20 éve, számomra érdekes, hogy miért nem csinált még azóta sem senki ilyet Linux alá. Valószínűleg azért, mert túl könnyen elérhető volt a VMware ESX(i).
Én szinte biztos vagyok benne, ha lenne VMFS-hez hasonló technológiája a Proxmoxnak, nagyon sokan sokkal könnyebben mozdulnának.
Egyébként néha olyan érzésem is van, hogy a Proxmox olyan, mint Te (ezt kérlek egyáltalán ne negatív véleményként értelmezd, úgy gondolom jókat tudunk/tudnánk diskurálni): egyszerűen nem tudják, mi a jó egy VMware-es infrastruktúrában, így ez a cél/elképzelés nem is tud a szemük előtt lebegni. Egyszerűen megszoktad a Linuxos világ lehetőségeit/módszereit és elképzelni sem tudod, hogy ESXi/VMFS alapon némely dolog milyen egyszerű, könnyű. A választás lehetősége mindig jó, lásd VMFS/VSAN.
Nagyon kíváncsi vagyok, hogy ez a HCI őrület marad vagy sem, meddig. Például a Nutanix úgy tűnik már mocorog.