Fórumok
Hellósztok,
Backup és hasonló fájl tárolásra kéne egy iSCSI szerver, amihez, fogok egy DL180-at, belerakok 12 db 4TB-os HDD-t RAID6-ba, egy TGE kártyát, esetleg egy PCI-os SSD-t cachenek és most jön a kérdés, hogy milyen szoftvert rakjak rá?
Sima Linuxot (CentOS7, ebbe már LIO van alapból)? Vagy valami "NAS" disztribúciót (freenas, meg mittén mi van még)? Utóbbi esetbe melyik tudhat ilyen SSD cache dolgot?
Még nagyon opcionálisan ha thin storage megoldható az is jól jöhet néha.
Tippek, ötletek?
Hozzászólások
Ha backup-nak kell inkabb akkor gondolom iras muveletekre gondoltad elsodlegesen a cache-t, nem egyszerubb lenne egy raid kartya cache-el megoldani hw raid-el?
Mennyi initiator (iscsi kliens) lenne aki csatlakozna hozza, hogy iscsi-n akarod kiajanlani, nem lenne egyszerubb mentoszoftvert tenni arra a gepre?
RAID kártya mindenképp lesz benne, DL180-ba, P410 van 1GB FBWC-vel. Az írás miatt gondoltam igen, mivel elég kis költség van egy mondjuk 256-os PCI expresses Samsung ne túl vészes.
Nem saját felhasználásra lesz, mi csak az infrastruktúrás adjuk, amugy vmware cluster az ahol majd használni fogják.
Mi lesz kliens oldalon? (initiator?)
Vmware.
Én az Openfiler-nél jobbat nem találtam. Igaz, az utóbbi években nem is kerestem. Évek óta használok több Openfiler NAS-t VMware-rel, főként mentésre.
Ha most állnék neki, akkor megnézném a Starwind-et:
https://hup.hu/cikkek/20170506/starwind_virtual_storage_appliance_linux…
--
trey @ gépház
Nekem nem kell cluster meg a többi, egy gépről van szó.
Az openfilert néztem, de mintha nem igen fejlesztenék.
Eddig a legjobb talán a CentOS7, targetcli-vel, lvm fölé, és akkor be lehet rakni oda akár az SSD-t cachenek is.
Nyilván összerakhatod magadnak, ha értesz hozzá.
--
trey @ gépház
Nyilván, csak ha van valami jó kattintos felületes cucc, akkor az kényelmesebb ugye :D
Az, hogy nem fejlesztik az Openfiler-t, elvileg leginkább biztonsági szempontból lehetne aggályos, ha egyébként teszi a dolgát. Normálisan megtervezett, szeparált SAN-on ez elvileg kis jelentőséggel bír, hiszen oda a VMkernel-en kívül elvileg nem nagyon lát más. Ha ezt megtörik, hidd el, nem az lesz a legnagyobb bajod, hogy az Openfiler iSCSI target-je, vagy a menedzsment hálóba lógó webes felülete lyukas. Az utóbbit a konfig után le is állíthatod.
Én is hasonló cipőben járok. Fontolgatom, hogy egy HP C7000 keretben levő storage blade-eken futó HP Lefthand-et leváltok valami nyílt forrásúra. Szintén VMware lenne. De nem vetettem el még a VMware vSAN 6.6 tesztet sem.
Majd írd meg mire jutottál. Érdekel.
--
trey @ gépház
"HP C7000 keretben levő storage blade-eken futó HP Lefthand"
Ennek a kitalálóját fogja a forradalom először a falhoz állítani. Amennyiben van keret vSAN-ra mindenképp érdemes számításba venni, de mindenképp all-flash konfigurációban.
Hát nem tudom, mi teszteltük a vSAN-t egy 5 gépes clusterba, de stabilitási gondok voltak vele (ORACLE alatt volt, valamint windows app serverek), inkább lett véve egy Nimble storage és arra került minden. (tudom, nem ugyanaz a kettő, de végül ez lett a legjobb megoldás).
Nálunk 2 8 hostos clusterben van, "vSAN ready" Cisco UCS vasakon, nem tapasztaltunk problémákat egyelőre. A workload elég vegyes: MSSQL, vegyesen linux és windows app szerverek, fileszerver is van.
Megvan a cucc már évek óta, ügyfél bérelte, de már nem kell neki. Most újrahasznosítanám, de megszabadulnék a licencköteles HP dolgoktól. Szóval a storage blade-ekben levő diszkek (24 x 15 krpm SAS) adottak már. Majd jó lesz valamire. Ha másra nem, játszóháznak.
https://flic.kr/p/UkhsFs
--
trey @ gépház
Jól értem, hogy a community verzió command line only..., ami nem feltétlenül baj, csak akkor egy FreeBSD+ZFS+CTL Target-et is fel lehet dobni. A GUI 30 napig használható.
openindiana zfs comstar ( sw raidz2) fontos JBOD.
Ez min alapszik? Nem találom igy hirtelen az oldalukon.
tapasztalaton.Ram mennyi lesz a gépbe?
Az milyen OS? Nem ismerem.
open solaris
illumos lesz az
------------------------
{0} ok boto
boto ?
Esetleg ez: http://www.esos-project.com/
scst jo dolog nagyon. En magaban hasznalom.
Én csak arról tudok nyilatkozni, ami nálunk bevált. Ez nyilván nem feltétlenül azt jelenti, hogy ez a legjobb szoftver a világon...
Nálunk SCST van, ProLiant szervereken (jellemzően DL380 Gen8-ak vannak, P420 vezérlővel, Mellanox 10 és 40 gigás kártyákkal, mtu 9000) pőre Linuxon. Praktikusan a kernel dolgozik, userspace-ből nem nagyon fut az alap dolgokon kívül semmi, egyébként történetesen DebianDevuanra építkezünk.)
Initiator oldalon pedig VMware. Jelenleg folyik az áttérés 5.5-ről 6.x-re.
Arra figyelj, hogy az iSCSI bazi lassú, és nem javallott IPv6 felett VMware-en. (Nálunk alapból minden dual-stack, de mivel a storage rendszer szeparált VLAN-ban közlekedik, gondoltam, nem kell már oda IPv4, az olyan ósdi huszadik századi. Rosszul gondoltam.)
Lehet azt még IP nélkül is... (iSER + RoCE v1)
"Vagy valami "NAS" disztribúciót"
En ezeket mind nagyivben kerulnem, mert csak szivas es idopocsekolas van veluk, mind nagyon lassu:
- FreeNAS
- Nas4Free
Ami stabil es gyors az a Synology clone: http://xpenology.me/
Stabil VMware-es verzioban is es fizikai vason is.
Milyen értelemben lassú? Kis terheléssel ugyan, de próbáltam mostanában én nem tapasztaltam, igaz otthoni (tehát nem melóhelyi) hálózaton. BTW, használja valaki ezek közül valamelyiket ipari környezetben?
Ha magad akarod mokolni akkor, Freenas vagy Windows Server.
Ha nem, akkor egy iscsi storage akar hasznaltan de nem syno vagy hasonlo.
En inkabb file protokollt javasolnek ha tamogatja a backup rendszer.
Sima Linux-ba lévő iSCSI target lett végül, teljesen jól megy, gyors is.
Sebességben ez mit jelent? Mivel tesztelted?
--
trey @ gépház
Helyileg létrehoztam a RAID tömböt, LVM rá, aztán fio-val leteszteltem, majd ugyanazt kiajánlottam iSCSI-n (10g-n) egy másik linuxnak és ott is megfuttattam a fio-t (ugyanazokkal a paraméterekkel, több fajta tesztet). A latency természetesen rosszabb volt, de a többi paraméter az 10-15%-on belül volt a helyi teszt eredményeihez képest.
Esetleg valami read, write értéket tudnál mondani?
Melyik iSCSI target implementációt nézted?
fileio vagy blockio?
--
trey @ gépház
Hu, nem mentettem el az eredményeket a teszt után :(
Majd futtatok üresjárati időbe mégegyszer tesztet.
blockio, az LVM volumet magát ajánlottam ki.
Mennyivel volt rosszabb a latency?