Sziasztok!
Most készülök új proxmox clustert építeni és a storage témakörben kissé elakadtam. Eddig glusterfs-t használtam, viszont azt most sikerült megborítanom, plusz az alatta lévő gépeknek már kevés a teljesítményük. Ha meg már mindenképpen új storage akkor már miért ne legyen a proxmoxba beépített ceph megoldás.
Kérdésem az lenne, hogy nagyon ördögtől való dolog lenne ha ugyanabban vagy egy másik clusterben lenne 3 vagy több gép ami csak storage feladatokat látna el proxmox futna rajta? Számomra könnyebben managelhetőnek tűnik és így azt a ceph verziót használhatnám ami adott proxmox verzióban benne is van.
- 2117 megtekintés
Hozzászólások
Mi elvből nem telepítettünk a proxmox clusterre ceph-et, hanem egy teljesen különállót hoztunk létre. Bár nem teljesen értem hogy mit értesz "könnyebben managelhetőnek" az alatt, hogy egybe telepíted az egészet, de ha így teszel, készülj fel arra hogy nem igazán fogod/tudod majd frissíteni a clustert.
// Happy debugging, suckers
#define true (rand() > 10)
- A hozzászóláshoz be kell jelentkezni
Hát 2 verziót találtam ki
A: Teljesen külön álló proxmox claster csak csak tárolásra a compute node-ok külön clasterben
B: Minden 1 cluseterben, viszont a storage node-ok csak tárolásra lennének használva( HA group-ba nem tenném be őket )
- A hozzászóláshoz be kell jelentkezni
"Teljesen külön álló proxmox claster csak csak tárolásra a compute node-ok külön clasterben"
Nah most nem vágom mit szertnél. Ceph != Proxmox (leszámítva hogy a proxmox támogatja a Ceph-et, meg telepíthetsz mellé, meg gyárilag is ott a repo, stb.)
Ami neked kell, egy proxmox cluster, meg egy ceph cluster, lehetőleg külön, ne egyben
// Happy debugging, suckers
#define true (rand() > 10)
- A hozzászóláshoz be kell jelentkezni
Azt tudom hogy nem egyenlő, viszont lehet belőle tárolót is építeni és hypervisort is futtatni egyszerre. Na én ezt szedném külön.
Lenne 3 db proxmox ami csak tároló lenne és semmi virtuális gépet nem futtatna és lennének külön azok a proxmoxok amik viszont csak gépeket futtatnának és nem tárolnának semmit.
Ezt csinálnám meg https://pve.proxmox.com/wiki/Ceph_Server de csak tárolnék rajta gépet nem futtatnának. Ezért kérdeztem, hogy jó ez így vagy nagyon elvetemült dolog.
- A hozzászóláshoz be kell jelentkezni
Ezt a választ kaptad:
Ami neked kell, egy proxmox cluster, meg egy ceph cluster, lehetőleg külön, ne egyben
Akkor most elég értetlennek tűnik a visszakérdezésed. Amúgy nem tudom, milyen verziójú Ceph-et ad a Proxmox, de én már az Luminoussal csinálnám.
- A hozzászóláshoz be kell jelentkezni
az van az 5-ösbe.
- A hozzászóláshoz be kell jelentkezni
Azt azért írtam, mert szerintem nem értette meg mit szeretnék, de lent már pár ember megértette.
Ahogy mások is írták proxmox 5-ben már Luminous van
- A hozzászóláshoz be kell jelentkezni
teljesen értelmetlen proxmox-ot tenni a gépre, ha tényleg csak ceph-re használod. Managelni nem tudod proxmox-ből a ceph-et, így gyakorlatilag semmi értelme
// Happy debugging, suckers
#define true (rand() > 10)
- A hozzászóláshoz be kell jelentkezni
Ha mégis egybe raknád számolj azzal, hogy rebalancenál sokkal több cpu és ram kell a ceph daemonoknak mint amikor a cluster egészséges. Managelésről nem tudom mit mondjak, de ha van hely és gép rakd külön, a performanciád valszeg jobb lesz.
- A hozzászóláshoz be kell jelentkezni
Ha meg nincs megveve a vas en ekkora meretnel rendes storage megoldasban gondolkodnek. Sas, iscsi, fc.
Ha ceph akkor egy tamogatott disztro lenne erre kihegyezve, pl suse enterprise storage. Ar most nincs nyilvanosan de regen 1 usd / tb volt a licence.
- A hozzászóláshoz be kell jelentkezni
Hát azt nem mondtam, hogy pénz is van rá :(
Sajnos csak vasakat tudok elkérni, szoftverre nincs pénz...
- A hozzászóláshoz be kell jelentkezni
Akkor Ubuntu a frissíesség miatt és maradnék a Gluster-nél.
- A hozzászóláshoz be kell jelentkezni
scaleio?
gyors, könnyen telepíthető, linux, win, vmware alá is.
van ingyenesen használható verzió is...
eddig úgy tapasztaltuk sebességben veri mind a glustert, mind a ceph-et
- A hozzászóláshoz be kell jelentkezni
Szép és jó, de Try ScaleIO software for free for an unlimited time, without capacity restrictions, for non-production use only
- A hozzászóláshoz be kell jelentkezni
Az ingyenes csak dev/test célra használható. Amúgy tényleg nem rossz cucc. Csak kicsibe szintén böszme drága.
- A hozzászóláshoz be kell jelentkezni
a non-PROD usage arra szokott utalni, hogy uzemkritikus rendszert nem tehetsz ra, ne varj supportot hozza.
- A hozzászóláshoz be kell jelentkezni
tedd be egy nagy clusterbe a vm futtato node-okat meg a ceph osd-t futtato nodokat. beallitod hogy elobbire mehetnek vm-ek, cephre meg nem. nem erdemes ket fuggetlen clustert csinalni (szerintem nem is mukodne: a vm futtato nodeok nem latnak a cephes datastoret, azt meg kulon at kell ajanlanod iscsi-n)
--
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!
- A hozzászóláshoz be kell jelentkezni
Proxmox-ba hozzá lehet adni RBD datastore-t.
- A hozzászóláshoz be kell jelentkezni
ahogy csardij is írta hozzá lehet adni rdb storage ként, az egy claster max a managelés miatt jó.
Azt hittem csinált már valaki ilyet, és tud tanácsot adni, hogy ez teljesen hülyeség amit kigondoltam vagy működő lehet a dolog.
Az eddig válaszok alapján működő lehet a dolog, csak még az egy cluster vagy külön clustert a kérdéses számomra.
- A hozzászóláshoz be kell jelentkezni
Működik a dolog, teszt szinten csináltunk már ilyet, de végül nem ment élesbe! (nem hozta az elvárt számokat)
Arra gondolom nem kell külön felhívni a figyelmet hogy 10G-s hálózat alatt ebbe bele se vágj! (akár egybe, akár külön rakod)
- A hozzászóláshoz be kell jelentkezni
Ezzel tisztában vagyok, a régi cluster is ez miatt lesz cserélve. Kevés a 2 összefogott gigabit.
Azt megkérdezhetem mit jelentet a nem hozta a számokat?
- A hozzászóláshoz be kell jelentkezni
Pont amit Csardij írt lentebb, mi 6 node-al probáltuk, minden nodeban ha jól emlékszem 4 SATA diszk + SSD cache, 10G hálózat, 3-4 VM futása közben már lesett a disk írás 30-50Megára ...
Azt is igaz hogy sokat nem játszottunk vele, kb. by default + kb. 1-2 óra finomhangolás, de tudtuk hogy ezt nem lehet feltornászni!
Amúgy Proxmox 5-ben van replication!, esetleg azt is nézzétek meg ha Linux VM-ek vannak.
- A hozzászóláshoz be kell jelentkezni
Helló,
Szerintem hülyeség. A CEPH by-design nem hyper-converged storage, ha fontos a performancia mindeképp legyen külön a ceph storage cluster és a proxmox (vagy akármi más) compute cluster.
Mondani se kell, 10G hálózat kell (még sima HDD-khez is!), ha hálózati szintű redundancia nem kell, a compute node-okab 1 tge kártya (ceph public network), ceph storage-be kettő, 1 a private és egy a public networkbe (vagy 1 kétportos kártya, ha a pci-on átfér).
Viszont tapasztalatom alapján a CEPH kicsibe nem jó, lassú. Kevés OSD-vel és node-dal rosszabbul teljesít mint más megoldások. HDD alapú clusternél olyan 5 node / 50 OSD ahol már normális teljesítményt lehet kifacsarni belőle (hdd alapú megoldás).
- A hozzászóláshoz be kell jelentkezni
És milyen szoftveres storage megoldást ajánlanál 30 virtuális gép és 4, 5 compute node alá?
Glustert ismerem, nem is zárkózom el előle. Azt gondoltam ceph jó lehet, de nem úgy néz ki a dolog.
- A hozzászóláshoz be kell jelentkezni
30 virtuális gép és 4, 5 compute node alá?
Jó, de mi az IO igény? Mert ha mondjuk szarrá terhelt RDBMS-t akarnál rajta futtatni, az nagyon nem ugyanaz, mintha Windowsos terminál szervereket MS Wordöt futtató irodista Mancikákkal, akik percenként 10 gombot nyomnak meg...
- A hozzászóláshoz be kell jelentkezni
Ja, meg mekkora a költségvetés ugye.
- A hozzászóláshoz be kell jelentkezni
Ekkora méretre? Egy sima iSCSI storage-ot. Vagy kérdezd meg a hosting szolgáltatódat, hogy ők nem tudnak e adni ilyet.
- A hozzászóláshoz be kell jelentkezni
Igen, azt elfelejtettem. Minimális io, semmi nagy erőforrás igényű szolgáltatás nem fut a vm-eken.
Helyben lesz tárolva minden, a költségvetés 0Ft, vasat tudok szerezni, hdd/ssd már van. Csak a tároló szoftver a kérdés.
- A hozzászóláshoz be kell jelentkezni
Akkor rakj fel egy FreeNAS-t vagy más hasonlót, esetleg egy CentOS-t aztán ajánld ki iSCSI-ként vagy NFS-ként és kész. 0Ft-ból csodát nem lehet várni sajna.
- A hozzászóláshoz be kell jelentkezni
+1
Redundanciát meg lehet csinálni host oldali tükrözéssel, ha a gép kiesése ellen kellene védekezni (két storage gép, volume-ok iSCSI-val párban kiajánlva, host oldalon meg LVM RAID1 rajtuk).
- A hozzászóláshoz be kell jelentkezni
Akkor már inkább glusterfs, azt ismerem is és van benne redundancia.
- A hozzászóláshoz be kell jelentkezni
a gluster fs file alapu replikacio, neked block alapu kene legalabb
// Happy debugging, suckers
#define true (rand() > 10)
- A hozzászóláshoz be kell jelentkezni
Viszont ezt ismerem.
Block alapúból mit tudnál ajánlani ami redundáns és ingyenes?
- A hozzászóláshoz be kell jelentkezni
ceph :D
Viccet félretéve, a file alapú az esetedben kb semmire sem jó, max arra hogy agyonvágd az összes vm-et ha para van.
// Happy debugging, suckers
#define true (rand() > 10)
- A hozzászóláshoz be kell jelentkezni
most lehet értetlennek tűnök, de ezt nem értem? :)
a mostani alatt is ez megy, és még nagyon nem tudtam úgy megborítani, hogy nagy gond legyen belőle. kopp-kopp
- A hozzászóláshoz be kell jelentkezni
nem azt mondtam hogy könnyű megborítani, hanem hogy meglehet (mert jellemzően egy disk image a vm-hez egy file, ami jó nagy, így ezt az egészet replikálod egyben, ami nem a leg előnyösebb ebben az esetben)
// Happy debugging, suckers
#define true (rand() > 10)
- A hozzászóláshoz be kell jelentkezni
A mérettel tisztában vagyok, de nálam azért nincsenek még Tbyte-os vm-ek, csak egy lesz később :)
Tudnál tanácsot adni, hogy te hogy csinálnád a helyemben?
- A hozzászóláshoz be kell jelentkezni
Tudtommal a glusterfs nem az egész fájlt replikálja, csak adott blokkokat.
- A hozzászóláshoz be kell jelentkezni