iSCSI Dell T420 szerverrel MacOS -hez.

Fórumok

Sziasztok!

99% hogy rossz helyre tettem fel a témát viszont nem találtam megfelelő részt kérdésemnek.

Adott egy Dell T420 szerver aminek a gyomrában van 1 darab Dell rendszer SSD és 7x4TB disk raid5-ben.
Szeretném a tömböt egy másik gépen használni iSCSI-vel. A gép csak erre lenne használva később szallagos mentőegység lenne és ha nem elég a tárhely akkor külső Dell DAS. Mivel éri meg nekifutni? 10GBASE-T hállókártyával lenne összekötve egy MacPro-val.

Windows vagy Linux?

Hozzászólások

-Hálókártya
-7 lemeznél már inkább raid6
-Van vmi kifogásod a linux ellen?:)

Tök jó kérdés.
No de milyen anyag tárolására lenne használva ez a jó ki Dell szerver? Ha már a 10G felmerült...
Video vágás?

Első körben azt kéne kitalálni, hogy mi csinálja majd a RAID-et. A szerver vezérlője, vagy az op. rendszer szoftverből. Mert ha az előbbi, akkor nyilván olyan op. rendszert kell választanod, ami jól támogatja a szerver RAID vezérlőjét.

Ha szoftveres RAID lesz, akkor a RAID5 nem lesz sebességbajnok (mondjuk amúgy sem).

Ekkora lemezméreteknél a RAID resync/rebuild csillió évit tart. RAID5-nél egy lemezed pusztulhat, következőnél adatvesztés. Vagyis ha a resync/rebuild alatt még egy lemezed megdöglik, akkor jöhet a backup-ból visszaállás. Ekkora lemezeknél inkább RAID6 + online spare.

Ha iSCSI-t akarsz, nekem Linuxszal több NAS-om is megy évek óta backup célra, VMware datastore-ként, játszós területként felhasználva. Működik.

Ha nem akarsz te sokat szopni, érdemes kifejezetten ilyen célra kitalált NAS op. rendszert választani vagy megnézni (pl. FreeNAS és társai).

Windowst is használtam iSCSI-ra, az is működik. Hogy neked melyik adja a legjobb megoldást, az leginkább teszteléssel fogod tudni kideríteni.

--
trey @ gépház

A vezérlő Dell H710
HW Raid-et szeretnék
Hangstudioba futna a gép 1-3 gépet szolgál ki erre lenne mentve minden kész projekt illetve hangkönyvtár futna rajta (tömörítettlen WAV)

Az 1 disk kiesik és ha meghal a következő nem gond mert szallagos mentőegység is be van kalkulálva.

A dell oldalán Win szerver 2012 Suse és RedHat van írva hogy ezzekkel kompatibilis.

Mivel OSX-et szolgálna ki nekem NFS+ filerendszer lenne a jó. Windows tud ilyet?

Sajnos nem vagyok otthon a szerver világban és iszonyat lassú volt a régi megoldás (Qnap NAS)

Bocs, de legyen inkább csak szalag. :)

NFS esetén szerintem hanyagolhatod a windowst. Plusz, ha már itt vagy, javaslom, h raid6-ba tedd a lemezeket, és tény eléjük 2db lehető legnagyobb ssd cache-t raid1-ben. Mdadm tudja is kezelni a szoftveres raideddel együtt. Szépen megdobja a sebességet.

2 darab SSD-vel és 6 darab 4 terrás diskel amiből ugye 4 darab lenne akkor használható raid 6-ba iszonyat nagy veszteség lenne hisz csak 16TB lenne a használható táhely most jeleneleg 15 TB adatom van.
Én 1 darab SSD-vel rendeltem a Dell-től és diskeket egy másik cégtől veszem de annak is dell-nek kel lennie szóval a gép ára igy is 2.5 milli körül áll meg.

Ha így járok el akkor szükség lenne egy külső DAS-ra már most kezdésnek ami iszonyat nagy plusz költséget jelent.

Ezért döntöttem 1 rendszer ssd és 7x4tb mellet raid 5-ben igy 24tb lehet
De ha kapnék olcsón 6TB lemezeket akkor mehetne a raid6. (Kár hogy a dell vezérlő dell diskeket akar)

Jó ha Win kilőve mi az ami jó lehet linuxba. Szeretnék grafikus felületet mindenkép

"Kár hogy a dell vezérlő dell diskeket akar" - erre azért ne vegyél mérget! ;) (Perc6-os és H710-es Dell-t is pakoltam már tele sima WD lemezekkel)
Ha nem csak "feleslegesen" pénzt költeni akarsz, szerintem fogadd meg a Raid6 javaslatot - jelen helyzetben jót fog tenni a sebességnek! Bár, én a HW raid vezérlőre bíznám és inkább RAM-ot pakolnék a rendszer alá, mint hogy SSD cache miatt SW raid-et csináljak - de ezt lehetne tesztelgetni.
Ha kimondott iSCSI SAN a cél, semmi egyéb, akkor én egy kész SAN/NAS OS-t raknék fel (pl. fent más említett FreeNAS, vagy leszármazottai) - lehet, hogy nem is SSD-re, ezek egy 8GB-s pendrive-ról simán futnak és marad egy SATA helyed.

Javaslom én is a pendrávjot. Tudom mindenki azt mondja, hogy hamar tönkremennek. Nekem fél éve megy egy itthoni NAS és még nem volt vele gond. Annyit teszek a biztonságért, hogy van egy ugyanolyan pendrájvom amire dd-vel átmásolom egy Linuxos gépben főleg olyankor ha változtatok valamit a beállításokban.
Egy HDD vezérlő ezzel felszabadul, szerintem így ahogy írtam megoldható. Lehet esetleg több egyforma pendrájvra is dd-vel másolatot csinálni.
Ja és swapnek egy másik pendrájvot használok, azt nem mentegetem.
--
Tertilla; Tisztelem a botladozó embert és nem rokonszenvezem a tökéletessel! Hagyd már abba!; DropBox

Mekkora kiesési idő engedhető meg? Ugyanis RAID5 esetén 1+1 diszk kiesése - tömb kuka, szalagról kell visszatolni mindent. Ugyancsak para, ha csak egy diszk esik ki, ugyanis addig, amíg a döglött helyett berakott diszkre nem szinkronizál újra (4TB-nyi adatot, ergo sokáig, sőt, k.sokáig fog tartani), addig nincs redundancia. A 6TB-os diszk esetében meg másfélszeres lenne a resync ideje, miközben a 4TB-os esetén sem végezne aznap. Sőt.
A rendszer alatt egy SSD... Mennyi idő helyreállítani nulláról a rendszert? Megengedhető ekkora kiesés? Ha nem, akkor RAID10-ben két diszk az OS-nek (sima tányéros is jó, nem ez lesz a szűk keresztmetszet).
A grafikus felület tényleg mi a lópélónak kell egy NAS-ra?

Ácsi.
NFS+? NFS_+_? Mert az NFS _+_ nélkül az OK, de szerintem te HFS+-t akartál írni. HFS+ van OSX-en. Az NFS pedig egy hálózati fájlrendszer. Baromira nem ugyanaz. A kolléga pedig NFS-re válaszolt, nem HFS-re... Ezt gondold át még egyszer. Just sayin.

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

Szalagos egységre mennyit szántál? És szalagra? Akkor ülj le, kapaszkodj meg az asztalban (hogy le ne ess a székről) és nézz utána, hogy egy LTO (Ultrium5 vagy 6) mennyibe fáj, mennyi idő alatt készül el ennyi adatról a mentés (és azt mennyi idő visszatolni, ha összef0ssa magát a raid tömböd).
Aztán azon is akadjon meg a tekinteted, hogy az Ultrium6 natívan 2.5TB-os, ergo szimpla szóló szalagegységgel automatizált full mentést nem fogsz tudni csinálni, ahogy visszaállítás során is kell emberi beavatkozás (kazettacsere)...

"Adott egy Dell T420 szerver aminek a gyomrában van 1 darab Dell rendszer SSD és 7x4TB disk raid5-ben."

"Hangstudioba futna a gép 1-3 gépet szolgál ki erre lenne mentve minden kész projekt illetve hangkönyvtár futna rajta (tömörítettlen WAV)"

24 biten, 192 kHz-es(!) mintavételi frekvenciával számolva 1 óra kb. 2 GB sávonként... (vagy rosszul gondolom?)

nem tudom, hogy milyen hangstúdióról van szó, mi a fő profilotok, de szerintem a kész projekteket archiválni kell, és nem egy "éles rendszeren" őrizgetni, teljesen felesleges erőforrás pazarlás hónapokra-évekre visszamenőleg hozzáférhetővé tenni valamit, amire nagy valószínűséggel később soha senkinek nem lesz "szüksége", ha meg igen, akkor meg vissza kell tölteni, és kész...

Wikipedia:
Fájlrendszerek Mac OS X alatt[szerkesztés | forrásszöveg szerkesztése]
A Mac OS X a Mac OS -ben használt és HFS Plus-nak nevezett fájlrendszert örökölte. Ez a fájlrendszer egy meta-adatokban bővelkedő és case preserving fájlrendszer. A Mac OS X Unix gyökerei miatt, a Unix engedélyezési megoldásai megjelentek a HFS Plus-ban. A HFS Plus későbbi változatai kibővülnek a naplózó fájlrendszer szolgáltatásaival, megelőzve a fájlrendszer struktúra sérülését és rendelkezik egy algoritmussal a töredezés elkerülésére, hogy ne kelljen külső töredezésmentesítő eszközt igénybe venni.

A fájlnevek hossza 255 karakterig terjedhet. A HFS Plus a fájlnevek tárolásánál a Unicode-ot használja. A Mac OS X-en a fájltípus a típus kód, és vagy a fájl meta-adatai között, vagy a fájlnévben tárolják.

A HFS Plus három kapcsoló típust ismer: beégetett kapcsolatok, szimbolikus kapcsolatok és álnevek. Az álnevek képesek fenntartani a kapcsolatot akkor is, ha az eredeti fájlt átnevezték vagy átmásolták.

Elhiszem hogy jót nevettél de jobb lett volna ha azt írom Mac OS extended (Journaled) filerendszert akarok? Szakembert akarok van 2-3 jelentkező innentől kezdve én lezártam mert házilag windows szerver 2012 jobb gomb megosztáson kívül semmit nem tudnék megcsinálni

Frissitve
http://hup.hu/node/110200

Mostanaban kevesebbet forumozok, inkabb a kollegaim aranykopeseit gyujtom. Viszont abbol sok van, ami nem publikus, vagy nem ertheto a korulmenyek ismerete nelkul.

--
What's worse than finding a worm in your apple?
Finding a U2 album on your iPhone.

Maga a konfig:

Dell egyedi konfiguráció:
174510_2*1 DELL szerver PE T420, 1x 6C E5-2430v2 2.5GHz, NoRAM, NoHDD, H710p/1GB NV, DVD-RW, iD7 Ent. 8GB vF. + 1x2GB SD, RPS, Bill+Egér, (8x 3.5" Hot-Plug).

165402*2 DELL szerver Memória 8GB DDR3 1600MHz 1Rx4 1.35V SRLVRD [ R32/R42/R52/R62/R72/T32/T42/T62 ].

164957*1 DELL PCI-e 6Gbps mini-SAS 2x külsõ portos HBA kártya, (DELL DAS & TBU).

171153*1 DELL Intel Ethernet X540 DP 10GBASE-T Server Adapter - Kit.

164951*1 DELL S2502SATHSK3_S192 DELL 2.5" SSD SATA 200GB MLC 3G Hot-Plug [ R3235/R4235/R5235/R7235/T3235/T4235/T6 235 ].

A DELL vezérlő nem akar DELL diskeket (jó, persze örül neki, de ennyi...) volt egy időszak, amikor fw -ből tiltották az azonos gyártó (Seagate, Hitachi) más OEM -nek vagy eredeti firmwareval rendelkező lemezeinek használatát. Azt hatalmas felháborodásra egy fw update során vissza is vonták.

Szerintem a SAS csatolós opció is felesleges - ugyis "csak" 7200 rpm -es diszkeket találsz ekkora méretben -> SATA-II/III. Egyébként én RAID 6, vagy ha a sebességet nézem RAID 50 mellett tenném le a voksot. Persze ha tele vagy, RAID 60 is lehet :D A vezérlőd pedig támogat hardveresen SSD cache opciót "CacheCade", azt felesleges lenne az OS -re bízni.

Emlékeim szerint az Intel-nek kifejezetten van ilyen policy-je, hogy vendorspecifikus CPU-t nem hajlandóak csinálni. Pedig biztos vagyok benne, hogy a nagyobb brand gyártók időről-időre előjönnek ezzel az igénnyel.

Így hát marad a hűtőborda, nem szabványos felfogatással, amit csak az adott brand gyártótól CPU-val együtt lehet megvenni.
---
Régóta vágyok én, az androidok mezonkincsére már!

Milyen az a nem szabványos felfogatással? Veszel egy akármilyen HP vagy DELL bordát pár dollárért ebay-en pl. ami ahhoz a szerverhez való és alá teszed a CPU -t. Egyébként ha már a supportnál tartunk, ilyen alapon az se mindegy milyen OS van rajta, hisz' cask az MS legújabb verziók ill. suse/redhat támogatott.

Saját magad válaszoltad meg a kérdésedet: ami ahhoz a szerverhez való. Másrészt ebay-en bontott (vagy esetleg "leesett a teherautóról", "szervízből eltűnt") bordát tudsz venni. End of life szerverhez találni sokat. Korszerűbb, forgalomban levő típushoz valót sokkal nehezebb találni, illetve jobban meg is kérik az árát. BTW nem állítom, hogy ez alól néha nincs kivétel, egyes gyártók gyengébb pillanataikban előfordul, hogy külön rendelhető FRU cserealkatrészként árulnak hűtőbordát, de ez azért nem általános.

ilyen alapon az se mindegy milyen OS van rajta
Pontosan úgy van, ahogy írod.
Addig simán visszadobják a ticketet, amíg a hibajelenséget nem tudod reprodukálni supported oprendszerrel, pontosan megadott firmware verzióval, a firmware verzióhoz pontosan illeszkedő verziójú proprietary driverrel (pl előfordult, hogy kernelben alapból van driver egy hba-hoz, de ezt le kellett cserélni a gyártó által adott zárt forrásúra).
---
Régóta vágyok én, az androidok mezonkincsére már!

Gondolkoztam én is azon hogy összebarkácsolok egyet viszont ezt a gépet 0%THM és 36 hónap futamidővel fizethetem. Ha van pénzem azt hangszerre költöm inkább mint gépre :)

Vonzó volt az 5 év garancia
És a Dell-ről rosszat nem hallotam ellenben a többi nagyobb szervergyártókat többen szídták nekem

Ha KP-s vásárlás lett volna lehet innen veszek valamit http://www.szerver.hu

Visszatérve a témára mivel essek neki RedHat vagy Suse hogyha a Win szerver kivan lőve MacPro-hoz.

10Gbase kártya van MacPro-hoz ATTO márkájú. Ezzel lesz majd összekötve. Most jelenleg majd 1 gigabites vezetéken fog menni a rendszer.

Ezekre szerintem meg találnád a választ egy darab google kereséssel... IGEN, kompatibilis visszafelé, és IGEN ahogy írtuk teljesen felesleges kb. dupla áron SAS csatolós merevlemez a konfigurációdba. Egyébként ha ennyire nem értesz hozzá, miért Te építed össze ezt a gépet. Ami mi is lesz? Valami storage szerver, vagy egy komolyabb NAS? Mert ha igen, még kéne bele venni memóriát, mert a 2x 8GB édes kevés... és eleve kis sem használja a 3 csatornás memória vezérlő adta lehetőségeket. Legalább 3db kéne, de méginkább 6db lenne a MINIMUM ekkora tárhely alá!

Na NAS-okhoz nem értek.
Esetleg pár szóban kifejtenéd, hogy miért is kell a 3 csatornás és 48Gb RAM ehhez?
Mármint ugye 10G hálózatnál papíron 1GB/s lesz a maximális átvitel. A diszkek ennél ha jól értem jóval kevesebbet tudnak.
Ergo jó dolog a kövér cache. De a RAM ugye elvileg 10x gyorsabb mint a hálókártya.
A diszkektől max (optimista) 150MB/s olvasás várható el stabilan. SSD cachel ez úgy 250MB(megen optimista).
Nekem innen az következik, hogy a RAM mérete nagyjából az adatmozgás méretével és nem a tárolt adat mennyiségével függ össze.
Illetve a kérdés még az, hogy mennyire függetlenek egymástól a hálózaton lévő kliensek(Mennyire azonos adatot használnak azonos időben)
Mert azt látom, hogy a RAM az egyetlen ami tudja tartani a tempot a hálózattal.
Szóval azt érem, hogy miért jó dolog, csak azt nem, hogy miért "MINIMUM" azalapján, hogy mekkora a rendszer tárkapacitása. Valamit nem értek ezekalapján.

Előre is köszönöm az infot.

### ()__))____________)~~~ #################
# "Ha én veletek, ki ellenetek?" # E130/Arch

Én vettem volna egy 8+ diszkes Synologyt a helyedben.

A NAS egy dologra jó: hálózaton elérhető fájl tároló. Ennyi, semmi több. A RAID hamis biztonságot adhat, mert azt hiszed, hogy egy tükörbe tett HDD megvéd. A RAID azonban önmagában nem backup (nem véd például a véletlen fájl törlés ellen), ezt te sajnos gyakorlatban voltál kénytelen megtanulni. Pontosan az ilyen - általad előre nem látható - szívások miatt lenne érdemesebb megkérni egy szakembert, hogy a te igényeidhez állítsanak össze egy vasat.

AKKOR SOK SIKERT. Hihetetlen módon nem értesz hozzá, ennek ellenére már bevásároltál "valamiket" és most ebből építsen neked valaki (persze ingyen). Ezt úgy hívják hogy gányolás/tákolás/tinkering. Kevered a filerendszereket a hálózati protokollokkal, amikor ezekre rákérdeznek akkor meg nem válaszolsz. Részemről unsubs.

Arról a szalagos meghajtóról még nagyjából semmit sem tudunk - de gondolom, te sem, mert 20+ TB-os storage mellé nagyon nem triviális mentőrendszert összerakni.
Szalag akkor kell, ha off-site tárolt mentésre _és_ archiválásra is szükség van TB-os nagyságrendű méretekben. Ha nincs így, akkor kell fogni kettő darab szervert, hasonló nettó diszkterülettel, és diszkes mentésben vagy például drbd-ben gondolkodni. Mondjuk egy RAID6-os tömb a primary oldalon gyors diszkekből, és egy szimpla stripe-olt tömb a másik oldal alá, olcsóbb, lassabb diszkekből - a lassabb diszket ellensúlyozza a tömb sokkal gyorsabb kezelése.

Hány napnyi adat elvesztése engedhető meg? Ha egy havi munka elvesztése "nem gond", akkor nem szóltam, de ezt azért kétlem; a havi "majd kimásolom szalagra" az maximum archiválásra jó, mert a backup legfontosabb célját, hogy tudniillik a mentett rendszeren bekövetkező véletlen vagy szándékos adatvesztés okozta kárt minimalizálja azzal, hogy időben minél közelebbi állapotot lehessen visszaállítani, na azt pontosan nem teljesíti. MIndezt 6-8.000USD-től induló áron.

Láttam már karos diszket tartalmazó mentőeszközt valahol, egy cartridge, amiben xGB-os diszk található, és valami értlemes buszon csattan fel a a mentőeszközre. Az mondjuk biztos, hogy a merevlemez a mechanikai hatásoknak (jelentős gyorsulás) kevésbé áll ellen, nagyobb a sérülésveszély.

Most hogy a téma címét is kiegészítettem

Miért nem fordultam profihoz kérdésre a válasz: 8-10 emberrel beszéltem 8-10 féle megoldással jöttek és ebből 1 se volt olyan ami megegyezett volna a másik megoldásával.

RAID 5 vagy 6:
Ha támogat a RAID vezélő H710p Seagate SAS 6TB lemezt akkor RAID6-ba fogom pakolni a rendszert.

A kérdés mit kéne feltelpíteni RedHat , Suse, Win szerver? Utóbbi ugye nem HFS filerendszerre van kitalálva.....

Elhiszem hogy ti profik vagytok 5-10 éves szakmai tapasztalattal de azért annyira csak nem nyúltam mellé egy ilyen szerverrel hisz akár 10 külső DAS-t is rálogathatok.

Teljesen egyetértek: a hiányos kérdésre nem 10, de akár több tucat megoldási javaslatot is lehet adni. A tárkapacitást RAID-tömbnél nem biztos, hogy az egyedi diszkek méretének a növelésével jó megoldani, de hiába mondanánk, úgy látom, mert te tökéletesen fix és eldöntött megoldással jöttél ide - csak azt nem tudom, mit is akartál kérdezni? Ilyen rendszernél (NAS+backup 24TB-ra) a kiszolgálón futó szoftver a legutolsó, mondhatni lényegtelen kérdés - úgy technológiai, mint anyagi szempontból.

A target szempontjából egyáltalán nem releváns, hogy milyen fájlrendszert használ az initiator, ugyanis semmi köze hozzá. Blokkdevice-ként használhatja az initiator a kiajánlott területet, hasonlóan egy helyi diszkhez.

Mivel sem performancia, sem rendelkezésre állási adatokat nem adtál meg, a mentésre rendelkezésre álló időablakról sem tudunk semmit, ahogy a teljes rendszerre rendelkezésre álló keret sem ismert, így a "Vettem egy szervert, mert szerintem jó lesz, mit tegyek rá?" kérdésre szerintem a horgolt terítő is teljesen jó válasz :-D De ha jobban tetszik, akkor egy neked tetsző matrica is jó lehet :-P

Akkor tényleg nagyon egyszerűen elmondom :)

Adott egy Apple MacPro benne egy rendszer SSD és egy munka HDD (erről Apple TimeMachine-ről menne a mentés akár a szerverre akár az itthon található Drobo-ra..... ha drobo-ra ment automatikussan akkor én kézzel áthúzom a kész arhiválásra kerülő projekteket a dell szerverre.)
A sok sok USB és a MacPro ba található disk-en lévő hankönyvtárakat szeretném tárolni a Dell gépen ami jelenleg 13-14TB. Ezt szeretném ha véletlenül meghal a RAID kártya RAID5-be monduk 2 vagy több HDD akkor vissza tudjak húzni mondjuk 1 hónappal ezelötti állapotot vagy 1 hétel ezelötti állapotot. Itt ugye már mindegy a sebesség hisz akár 2 napig is menthet.

így érthető volt mit szeretnék?

A munka hdd a MacPro-ba 1TB a legnagyobb projekt 10gb-os mappa

Ne blockban gondolkozz szerintem, hanem a netatalk -nak nézz utána: http://netatalk.sourceforge.net/

Megy vele az időgép és úgy általában a hálózat is. Ami jól jöhet, az ha esetleg managelt switched van és több géped, akkor a két szerveres hálókártya portot összefogod, hogy 2Gbit-ed legyen az elméleti maximum.

Ami még fontos, ha nagy az adatmennyiség akkor legyen RAID6-od és legyen helyed, ahova hetente csinálsz mentést...

Ahogy mások is mondták: úgy tűnik, hogy van egy prekoncepciód, amitől nem nagyon lehet eltéríteni.

Válaszolva a RedHat vs Suse vs Win kérdésedre. Sajnos azt kell mondjam, hogy egyiket sem HFS+ read-write-ra találták ki. Legalábbis tudtommal sem Suse sem Redhat alatt nem támogatott. Nem azt mondom, hogy nem lehet felmount-olni rw módban, de nem supported. Javítsatok ki, ha rosszul tudom.
Értem én, hogy a zeneszerzésben az Apple elég népszerű. De ha ragaszkodsz a HFS+-hoz, akkor valami Apple megoldást keress. Ebben nem vagyok tájékozott. Ha pedig Suse/Redhat/Win alapon szeretnéd csinálni, akkor szerintem kompromisszumot kell kötni és nem HFS+-ban gondolkodni.
Egyébként van elég lóvé sok Tb-os szalagos egységre, meg Suse Enterprise vagy Redhat szerver licenszre, akkor lehet, hogy fizetnék egy szakembernek vagy szolgáltatónak.

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

Vettem egy ilyen gépet 36 hónapra 0% THM-el. Ezért lett végül ez ezért nem kértem plusz segítséget mert ez havonta elcsúszik nem kellet hirtelen zsebbe nyúlni a pénz mehet értékesebb dologra is. Ettől nem fog jobban szólni a projekt ez a szükséges rossz ami drága és ami kell..... Így érthető :)

De most ennyire mellényúltam egy ilyen Dell T420-al?

Nem rossz gép az a Dell server, amit vettél. Pláne, hogy van hozzá egy rendes H710p RAID vezérlő.
Csak a koncepciót rendesen ki kell gondolni hozzá.

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

Akinek kalapácsa van, annak minden szög. Neked van egy darab géped, meg valami ködös ötlethalmazod arról, mire szeretnéd használni. Az, hogy arra nem biztos, hogy jó lesz úgy, ahogy elképzelted, az nem érdekel téged.
Nem a géppel nyúltál mellé, hanem azzal, hogy nulla tervezéssel és ehhez közeli tudással ugrottál bele egy, az igényeid/ötleteid alapján sokmilliós projektbe.
A szerverrel magával nem fogtál mellé, csak például azt lehetett volna átgondolni, hogy az igényelt tárhelyet milyen raid megoldásban, hány diszkre szétrakva lehetett volna célszerűen és üzembiztosan megvalósítani. Igen, ha 16darab 2.5"-os diszket céloztál volna meg, az drágább megoldás - viszont beleférne az is, hogy az OS alatt legyen raid tükör, az adatterülethez legyen hot spare diszk, miközben egy diszk kiesése (és a hotswap automatikus beillesztése) rövidebb ideig veszélyezteti az adatintegritást. Ha már raid5-ben terveztél.
Az iSCSI jó dolog, ha a tárhelyet igénybe vevő klienseknek független blokkos eszközöket szeretnél kiosztani. Olyan ugyanis nincs, hogy egy iSCSI eszközt két kliens egyszerre ér el - még read-onlyban sem.
Azt is jó lenne tudni, hogy milyen iops és latency értékeket kell tudni a storage-nak, ha esetleg közvetlenül onnan szeretnél dolgozni.

Mentőeszközöd - úgy tűnik - egyelőre nem lesz, tehát a "szalagra majd kiírom néha" felejthető, ergo tessék raid6-ban gondolkodni első körben, és átgondolni, hogy milyen módon (dedikált terület(ek) adott gépeknek, közös terület több gépnek, vagy ezek kombinációja) szeretnéd a rendelkezésre álló diszkkapacitást használni - ez adja majd a szükséges szoftverkörnyezetet; utána végiggondolni, hogy mentésre, illetve archiválásra milyen rendelkezésre állási paraméterekkel kell megoldást találni (mennyi idő adata veszhet el - ez adja a mentés gyakoriságát, ez alatt mennyi adat keletkezik/változik - ez meg azt adja meg, hogy milyen sebességet kell tudnia a mentőrendszernek), teljes illetve részleges visszaállításra mennyi idő fordítható, stb.
Ha iSCSI-n dolgozik a storage, akkor nem a szerveren (target), hanem a klienseken (initiator) kell megoldanod a fájlszintű mentést - ilyen szinten ugyanis csak ott áll rendelkezésre információ.
Azt is át kell gondolni, hogy a szerver kihullása esetén az iSCSI-n megosztott diszkek akár csak ideiglenes elvesztése mit okoz az azt használó gépeken...

Soroljam még azokat a kérdéseket, amiket meg kéne válaszolni ahhoz, hogy a "Ezt vettem, jó lesz-e?" kérdésedig egyáltalán eljuthassunk?

16x 900GB

RAID 6 (Stripe set with double parity)

Capacity 12600 GB
Speed gain 14x read speed, no write speed gain
Fault tolerance 2-drive failure

szerk.: Most látom ez nem elég tárhelyben, de hátha tudnád redukálni a méretet ekkorára - persze nagyobb ktsgvetés, mint a 3,5" meghajtók

az itteni valaszaid alapjan pont te vagy az az ember, akinek ha sokat fizetne se akarnek semmit osszerakni, mert semmi nem lesz jo, es mindenbe bele akar okoskodni nulla tudassal.

sajnos ilyen emberekbol sok van viszont :(

Ez mind jogos! De olvastátok azt amit irtam fentebb? A gépet havi részletbe fizetem.
Hiába jöttem volna úgy ide hogy sziasztok szakembert keresek szerver építéshez ami Storage-nak lenne használva MacPro-hoz. Ahoz KP kellet volna ami ehez a projekthez sajnos nem adatott meg. Alacsony költségvetésből akarok jót.
Tudom hogy ti vér profik vagytok tanultátok egyetemen 7 félévig majd gyakrolat gyakrolat gyakorlat hátán napi 15-20 óra a gépelött még rá nem jöttetek a megoldásra minden tiszteletem. Hogyha nem nyúltam melé a géppel "elvileg" és elakadok az instalba abba mi a rossza ha feladok egy hirdetést akár ide akár így:

Vásároltam egy Dell T420 szervert van benne rendszernek egy 200 GB SSD és 7x akárhány TB lemez. Szeretném MacPro gépemmel használni a tömböt iSCSI-n keresztül.
Szeretném ha a gép elő lenne készíve egy DAS beiktatására illetve akár szalag akár egy NAS-ra való automata biztonsági mentés készítésre.

Lehet hogy a ti 99-100% tudásotokhoz az én 1-3% tudásom semmi de én nem egy nagy válalat vagyok aki simán kipenget 3-5 millió forintot....

A rézfúvós szekciót próbáltad? (Kürt). Igen, drágán dolgoznak - ha jól saccolom, a Qnap-os RAID döglés visszabogarászása 400.000Ft (+ÁFA)-ról indult volna, de ha a diszkek fizikailag nem lettek bedarálva, akkor jó esélyed lett volna az adatokat (vagy egy részüket) visszakapni.
Egy RAID5 tömb mentés nélkül orosz rulett, egynél jóval több éles skulóval a fegyverben. Még a RAID6 is olyan, hogy döglés esetén illendő hot spare-nek beállni, és automatikusan megkezdeni a rebuild-et, pláne nagy diszkeket használva.

"Cégünk olcsón, gyorsan, és az igényeinek tökéletesen megfelelve dolgozik. (A háromból legfeljebb kettő választható!)" - Ilyen vassak senki nem fogja neked elvállalni. Mert jelen kiépítésben nem lehet az elvárható rendelkezésre állást biztosítani. Nem 7 vagy x félévig tanultuk, hanem mondjuk tzen-huszon évig a való életben. Az első tényleg döbbenetesen nagy storage, amihez közöm volt, nettó 1TB-os diszkterületet jelentett. javarészt 9GB-os, de ahol nagyobb iops kellett, ott 4.5GB-os diszkekből. Nagyjából 150 lemez volt beépítve a rendszerbe...
Nem a vállalkozás/cég mérete, hanem az adatok értéke az, ami meghatározza a kiépítendő rendszer rendelkezésre állási paramétereit. Lehet nagy cégnek is olyan gépe, amit bontóban sem vennének át, meg lehet egyéni vállalkozónak, vagy akár magánembernek is olyan adattárolási igénye, ami nulla adatvesztést és minimális recovery time-ot igényel.

A "hirdetésedre" a válasz: Használd egészséggel! Az iSCSI targetet Linuxon így (link), Windows-on meg így (másik link) tudod beállítani, a Mac-es initiator-hoz pedig erre (harmadik link) van szükséged.

Ezeket a linkeket nem túl sok guglizással össze lehet szedni - és legalább tanulsz. Igaz, egy adatvesztésnél a saját károdon, de ez van...

Ahogy írtam fentebb:

Elhiszem hogy ti profik vagytok 5-10 éves szakmai tapasztalatta

Elhiszem tényleg tudom ez a szakmátok ebből éltek én se szeretem ha valaki jön hozzám studioba és megmagyaráza az azt ami teljesen rossz de fizet és ő a "fönök"
A másik munkámrol ne is beszélve.... De elfogadom

"fizet és ő a főnök" - Ez egy jó dolog. De a lehetetlen akármennyi pénzzel sem működik jobban.
Van egy vasad. Ez ugye fix a képletben. Van egy költségvetésed ami szintén azért nagyjából fix.
Van egy tárkapacitás igényed. Ez is fix. Van egy adatbiztonsági igényed, ez is fix.

Csak azt nem tudod megítélni, mint ahogy én sem, hogy a csillagok fentebbi állása reális-e.
És ezügyben azokra hallgatok akik értenek hozzá.

Ha azt mondom, hogy szeretnék raid10-et a gépembe 512GB SSD-kből, az egy reális igény, ha a pénz megfelelő.
Ha mindezt az E130-as laptopomba szeretném, akkor az ugye már annyira nem (gondolom, ötletek esetleg? :) ).
Én abszolút támogatom a saját heggesztés gondolatát. De az embernek ilyenkor együtt kell élnie a döntéseivel, és biztos vagyok benne, hogy az itteni szaktársak nyitottak arra, hogy a lehető legjobb megoldást segítsenek megtalálni, de kompromisszumokra szükség lesz.

### ()__))____________)~~~ #################
# "Ha én veletek, ki ellenetek?" # E130/Arch

Köszönöm a sok hozzászólást!

Tényleg akkor összeszedve mindent leírok:

Nem volt pénzem venni KP-ra egy rendszert így havi megoldással törlesztek egy Dell T420-at.
Kezdésnek a gyomrába szeretnék tenni 7x4TB HDD-t és már RAID6-ba mert ti rábeszéltetek
A szalagot a fenti úri ember javaslatára elfelejtem máshogy közelítem meg a redundanciát.

A terv:
Jelneleg MacPro-ba van 1 rendszer ssd egy munka disk 4 tároló disk a gyomorba és 3 USB fellógatva
Mostani megvalósításra váró projekt: Dell T420 20TB kapacitással iSCSI-n RAID6-ba összekötve kezdésnek 1gb hálózaton majd amint megjön a MacPro-ba a 10 gigás hálókártya akkor 10 gb hálózaton
Fejlesztés: Dell MD1200 dobozka 12x4TB disk RIAD6 ba azaz 40TB vagy sebességnövelésnek a fent vezet SSD 1-2 lemez helyett akkor is 32-36TB
Következő szint: Mégegy ugyan ilyen Dell MD1200 amire másolatot készít maga a szerver
The end: A gépbe is lenne mondjuk 6x146GB SAS disk ami a másik munkámat szolgálná ki (Irodai felhasználás) Ez akár RAID50-ba. És a rendszer SSD raid1 be menne.

Ez így teljesen használhatatlanak hangizk?

Ettől a biztonságtól ami most van hogy egy rakás disk tele adattal semmi biztonsági mentés a "megvalósításra váró projekt" úgy hangzik mint trabantbol BMW-be ülni.

Az iSCSI-ra még mindig rá vagy valamiért pörögve.
Kettőt idéznék korábbról zeller-től. Ezeket alaposan meg kéne emészteni:
"Olyan ugyanis nincs, hogy egy iSCSI eszközt két kliens egyszerre ér el - még read-onlyban sem."
"Ha iSCSI-n dolgozik a storage, akkor nem a szerveren (target), hanem a klienseken (initiator) kell megoldanod a fájlszintű mentést - ilyen szinten ugyanis csak ott áll rendelkezésre információ."

Üdv:
Dw.

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

Ha továbbra is iSCSI, akkor azon a gépen kell megoldani a mentést, amin használod. Valamilyen storage-ra, nyilván. Az előttem szólok már javasolták a Synology-t. Habár írtad, hogy rossz tapasztalatod volt QNAP-pal. Hát a gyártó specifikus storage megoldásoknak megvan az a hátránya, hogy meghibásodás esetén magára maradhat az ember. Nagyobb storage is meg tud hibásodni. RAID vezérlő is meg tud hibásodni.
Ha a rendelkezésre állási igény nem extrém mértékű, akkor szerintem érdemes számításba venni a hideg tartalékot, mint lehetőséget, alkatrész vagy storage szinten.

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

Kezdem elveszteni a fonalat. Ezek minek? Konkrétan akarsz építeni egy storage szervert, meg most vennél használtan kvázi dedikált storage szervereket? Ebben is ugyanúgy alaplap, memória, valami 34xx Intel Xeon cpu van (mind bővíthető)! Ráadásul ezekbe már nem biztos, hogy DELL fw nélkül bármilyen HDD életre kelthető... Elkezdtél agyalni, de sztem teljesen feleslegesen és rossz irányba. Ilyen alapon nyugodtan építhetnél desktop cuccokból valami backup gépet, vagy egy custom build szerver (persze hozzá értők által készítve)

Elolvastam a sok mindent amit írtál / írtak neked.

El kéne döntened, hogy a dell szerverrel pontosan mi a célod: direktben azon akarsz dolgozni, vagy arra csak menteni (backup) akarsz.

Ha csak menteni akarsz rá, akkor szinte teljesen mindegy milyen konfigban használod a benne levő diszkeket, ki fogja tudni szolgálni simán.
Igazából sokkal szarabb gépnél is a hálózat (gigabit) a korlátozó tényező.
A 10GBit ebben az esetben teljesen felesleges.

Ha erre akarsz dolgozni közvetlenül, akkor már érdemesebb a raid-re kicsit jobban odafigyelni. Ebben az esetben én vagy csinálnék egy 6 diszkes raid6 tömböt (amit 8 diszkkel lenne igazán jó megcsinálni amúgy). Vagy csinálnék egy 4 diszkes raid5-öt + egy 2 diszkes raid1-et.

De igazából itt is amit írsz (1-3 gép, hangfileok) ez a masina röhögve kiszolgálja bármilyen konfiggal.

Ha ide akarsz dolgozni akkor a hw raid által kiajánlott diszkre tennék lvm-et és ezeket a volume-okat adnám ki iscsi-n a Mac-nek.
Aztán a Mac rakja rá a HFS+ -t, tehát tök mindegy milyen a linuxos HFS+ támogatás.
NFS-t nem használnék.

Viszont ekkor nincs mentésed, azt valahogy meg kell oldani.
Mert ugye a rendelkezésreállás (amit a raid ad) meg az adatbiztonság (amit csak a backup ad) az két különböző dolog, meg kell oldani mindkettőt.

Én nem annyira hiszek a helyi mentésekben, mert pl. ha betörnek és elviszik a gépeket, akkor elvitték a mentésedet is, ami adott esetben sokkal nagyobb kár mint maga a vas.
Ha leég a ház, dettó...

Tehát valami távoli mentés kell, hálózaton keresztül.
Például a google ad fillérekért terabyte-ot ha jól tudom, én ebbe az irányba mennék.

Nem mondom, a scripteléssel van némi munka.
Lehet érdemes lenne amúgy pár óra konzultációt venned, bár legjobban akkor jártál volna ha még a beruházás előtt megteszed mert már bejött volna a konzultáció ára a feleslegesen megvett cuccok kihagyásával.

Esetleg a scriptelést is rábízhatnád valaki olyanra aki ért hozzá.

PS: azt írod, raw hangfile-ok. Ugye amikor mented akkor azért egy gzip-et ráeresztesz?
--
Gábriel Ákos
http://ixenit.com

A szerverről behivok file-okat amit utána a Mac ról fut (memóriából) Ha mentek egy porjektet minden hangfál a projektre kerül mentése azaz mentés és a felvételi dolgok is a Mac-ba található lemezre menne majd biztonsági mentés time machinel akár egy külső HDD-re akár a Dell-re viszont a kész projekteket a Dell-en tartanám.
99% hogy soha nem lesz több mint 1 MacPro és 1 irodai gép amin Word, Exel, PDF és hasolók mennek 30-40gb kb a jelenlegi állomány.

Eddig te érezted át legjobban a problémámat.

Tehát a szervert alapvetőleg hosszú távú tárolónak használnád.
Ebben a felállásban nem érzem feltétlenül indokoltnak a 10Gbps-t.

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

Ez a munkám :)
Akkor amit írtam megoldás az teljesen jó neked.
Erre tökmindegy milyen oprendszert raksz, legyen olyan amihez találsz hozzáértőt.
A backup megoldást meg ne feledd, azt még ki kell találnod.
Nem, venni még egy másik vasat és mellérakni továbbra se jó megoldás (illetve csak részben).
--
Gábriel Ákos
http://ixenit.com

Igazából nem ezt akarja :)
A business analyst munkájának az az egyik lényege, hogy a user által elmondottakból kiválogassa azt ami valóban fontos és ignorálja azt ami nem. :)
Emberünknek van 3 gépe, baromira nem ugyanazokra a fileokra van szüksége a 3 gépen.
De ha mégis úgy lenne, akkor az iSCSI targetet felhúzza a mac-re, rak erre egy akármilyen fs-t (hfs+) majd ezt továbbosztja smb-vel a többinek.
--
Gábriel Ákos
http://ixenit.com

Nézegettem már, eddig nem túl nagy sikerrel, bár nem is fordítottam rá jelentős időt.
Működött a time machine mentés egy géppel jól.
Kettővel már nem annyira.
És igazából messze nem volt olyan gyors mint amit a gép alapján tudnia kéne.

--
Gábriel Ákos
http://ixenit.com

No akkor az én receptem.
Add el a mostani thunderbolt nélküli macprot míg ér valamit.
Ha nagyon durva workloaddal nyomod és sok évre tervezel, végy egy új kuka macprot sok thunderbolt porttal.
Ha nem annyira rángatod a gépet megteheti egy imac is, neadj' Isten egy high-spec. mini hogy mégse szálljanak el a költségek. Szigorúan ssd-vel.

Ráaggatsz a gépedre egy értelmesebb thunderbolt storage arrayt, pl Promise féle pegasus raid storage, vagy akár amit linkeltem fentebb. Ezen normális sebességgel fogsz tudni dolgozni mindenféle elbonyolítás nélkül.
Akár meg is oszthatod osx-ben a többi kliens felé smb-n és/vagy afp-n tetszőlegesen.
Aztán van még olyan finomság hogy ip over thunderbolt, ha jön másik mac, az is eléri majd a storaget igen jó sebességgel minimális beruházás után (kábel).
Miután a dell szervert ha jól olvastam megvetted már, backupra jó lesz mondjuk egy freebsd-vel afp-n keresztül time machine szervernek. Vagy rsync-kel, egyéb tetszőleges os-sel, ez már részletkérdés.
Persze ez sem két fillér viszont talán a legkevésbé melós/gányolós/szenvedős verzió.

Jelenleg van egy 8 magos Nehalem es MacPro-m procinként 4x2.26ghz
a gépbe van 2 darab PCIe kártya amit nem tudok csak tunderbolt házba hova kötni
iMac kilőve mert Tv-t használok displaynek messze van a képernyő más van elöttem :)
Nem hiszem hogy MacPro-ról MacMini be ülnék át és egy rakás pénzt költenék tunderbolt házra hogy tudjam használni a 2 zsugát...
Ahogy azt se hiszem hogy vennék jó ideig MacPro-ból újat mert nekem a jelenlegi gép a 100%-os megoldás. Bővithető akár házilag javítható

Mi az, amiben hajlandó vagy változtatni? Olyan, mintha arra várnál, hogy valaki itt a fórumon helyeseljen neked, hogy jól gondoltad és jól csináltad.
Mint amikor egyik nő megkérdezi a másiktól, hogy: "Csúnya vagyok?". Kötelező válasz: "Á, nem is! Tök szép vagy!".

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

Nem szeretnék új gépet!

Nézd:
Van 15TB adatom jelenelg erre kéne valami lépcsős megoldás hogy később akár 40TB rendszerem is lehessen.

Ezért irtam T420 7Diskel raid 6-ba 20TB mire ez megtelne veszek MD1200-at 12x4TB diskel áthúzom az adatokat arra és máris van 7 szabad diskem amihez már csak 5 disket kell vennem és mégegy MD1200-at ahoz hogy legyen egy biztonsági mentésem az egyik tömbről.
ha mind kettőt raid6-ba teszem tualjdonképen md1200-anként 2 disk azaz ha egyikbe meghal 3 disk egyszerre a másikba lehetetlen hogy meghaljon 2-nél több.....

A te javaslatod dobjam ki a világ legjobb MacPro-jat egy olyan gépért amit nem lehet bővíteni iszonyat drága és egy szekrény kell a kiegészítőkhöz....

Szóval akkor mégegyszer ezzel mi a baj? Most T420 benne diskekkel majd később MD1200 ból 2 darab a biztonságra és a tárhely növelésére.
Mivel a gépet havonta fizetem ezért csak a diskekre és a MacPro-ba a 10 gigás hálókártyára kell pénzt adnom. 2-3 év mulva veszek egy MD1200-at majd 2-3 év mulva megint veszek egyet.

Nem mondom, hogy dobd ki a MacPro-t. Azért írtam a hozzászólást, mert kaptál megint egy tanácsot mástól, amit csípőből visszautasítasz.
Nem értem, hogy miért drága a MacPro?
T420 megpakolva, H710p-vel és diszkekkel telerakva: na az nem olcsó. Pláne, ha veszel hozzá még két storage-ot, amik szintén nem 2 fillérbe kerülnek. 40Tb-okkal dobálózunk, oda eleve egy nagy storage kell. Azt nem tudom elfogadni, hogy a T420 nem kerül semmibe, mert havonta fizeted. Nincs ingyen. Remélem bejön az üzleti terved, de a hiteleződ tuti nem lennék.
Nem tudom, hogy zenei stúdiók hogy szokták tárolni a projekteket. De a nyers hang az nagyon jól tömöríthető. Veszteségmentesen is a felére lenyomható. Még az Apple-nek is van saját formátuma hozzá. Ha a storage hosszú távú tárolásra kell, akkor valamilyen tömörítést alkalmaznék és egyből 15Tb helyett csak a felének kéne helyet találni és több idő lenne a jövő megtervezésére.

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

Nézd azért nem kell kapásból új MacPro mert:
Nekem most kell valami 3 hónapon belül tárolásra. Az a model az új MacPro-ból ami nekem bejön 8 mag 32 giga ram 1,9 millió forint. A mostani gépem 8mag 16 giga ram. Na most ehez az 1.9 millióhoz még jön külső tunderbolt Pcie ház (200e/db) ami fogalmam sincs hány ms késést csinál a Pro Tools HDX kártyán és vegyek hozzá a te általad említett dobozkát amibe megy 8 disk (diskek nélkül nem is találtam de tuti 800 körül lenne) azaz a kiadás DISK nélkül tart: 1.900.000+200+800= 2.9 milliónál és vehetek a másik kártyámbol tunderboltosat vagy ahoz is dobozt szoval 3.1-3.2 milliónál tartunk

Ezel szembe:
10gb kapcsolat a dell és a macpro között (később ha mégis lenne kukamacpro tunderbolt-10gigabit eternet) amíg kitart a memória a dell-be addig elég szép átviteli sebességet tud a macpro a dell felé (MacPro-ba SSD-ről beszélünk)
3.2 millió helyett 500 ért kell vennem 7 darab disket és havonta fizetnem egy gépet. De ha teljes KP-s vásárlásról beszélünk.: http://interbolt.eu/category/h%C3%ADrlevél/interbolteu-h%C3%ADrlevele/d… Adják diskek nélkül is szóval abba a 3 milióba amit kalkulátam nagyon picit több 2 darab ilyen 24 WD RE diskel és a dell rendszer. Redundás az adatárolás.

A másik oka most ment tönkre a MacPro-m tápja 50 ért javitják. Ha abba tönkremegy valami garancián túl vegyek újjat? Mert minden egybe van heggesztve kivéve a ram és a Pcie SSD

amig kitart a memoria a dellbe? te most komolyan ugy gondolod, hogy amikor irsz valamit majd az iSCSI-n, az rogton memoriaba megy? es mi fogja atrakni neked diszkre? mi ved akkor, ha elmegy az aram, mikozben a memoriaban van a cucc? szunetmentest eddig nem lattam sehol beleszamolva.

aztan a masik kerdes, hogy szerinted 3 geprol rangatva mennyit tud egy 7 diszkes raid6 tomb, sima 7.2krpm vinyokbol? annal sokkal kevesebbet szerintem, mint amire te gondolsz.

koppanni fogsz, de csunyan :)

Jeleneleg van 1 darab APC SUA3000RMI2U szünetmentes tápm
Jön jövőhéten 2 darab hozzá.

Redundás táp szoval a táp egyik fele megy a egyik táppba a másik a másik táppba.
Azt ne mond ha elmegy az áram egy ilyen táp nem visz el annyi időre 1 dell szervert és 2 storage-t még memóriából átmenti az adatot a diskre.

Mielött jönne az úr isten mennyi pénz a 2 táp mindössze 50.000 forintba került

Ja hát ha a legdrágább proval számolsz nem kell csodálkozni hogy drága. 1m az alapmodell, lehet utólag bővítgetni, nem bukod a garanciát egy ram bővítéstől. Veszel hozzá apple caret ami ezen a szinten szintén nem nagy plusz már, 3 évre le van tudva minden műszaki gond. Ha behal valami, adnak egy másik gépet.
A pegasus2 thunderbolt r8 24 tb diszkkel annyi amennyit írtál, ami azért nem mindegy. OWC helios 2 pcie enclosure 2 kátyás 500 dollár, szintén igen messze van a 200khuf/darabtól amit írsz.
De lényegében bármilyen modern workstationt veszel ami hasonló tudású, drága lesz. Nézd meg mennyibe kerül egy hp z640 vagy z840 akár alapkiépítésben.
Mindegy, úgy oldod meg ahogy jól esik.

nem kell 4-6 magos model. ha vennék 8 magosat a 12 dárga és nem64 giga ramal hanem 32 giga rammal számoltam. ezen kivül semmi mást nem válaszotottam bele.
nekem külföldi vásárlás kilőve szóval magyarországon kell vennem a számla miatt... hiába 500 dollár kint hogyha itt hazánkban 200 ezer....

A Promise dobozt nem én javasoltam.
Viszont ha elkezdünk matekozni, akkor az fog kijönni, hogy a szerver az nem egy storage.

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

Az én javaslatom: ZFS (Linux vagy FreeNAS, izléstől függően), RAIDZ2 + hot spare + 2 kicsi írásra optimalizált SSD ZIL-nek mirrorban + nagyobb SSD L2ARC-nak. (Ha kicsi a keret, akkor 2 sima SSD szétszedve ZIL mirror + L2ARC részekre is jobb mint a semmi)

Itt én inkább több kisebb diszket pakolnék bele (WD RAID Edition 1 vagy 2TB), akár két külön RAIDZ2 tömbbe szervezve egy poolon belül, hogy az IOPS kicsit több legyen, és diszkhiba esetén gyorsabban visszaálljon.

Backup gép: Xeon E3-as, WD Red diszkekkel, ZFS RAIDZ3 + hot spare, ide az SSD nem feltétlenül szükséges, de sebességet ne várj tőle.

A backup gépbe is kizárólag ECC RAM-ot szabad tenni. Az E3-as gyakorlatilag desktop árban van, semmi értelme nincs mással próbálkozni. Ugyan a RAM 32GB-ben maximált, de ha nem akarsz deduplikálni rajta, akkor elégnek kell lennie. Ide mehetnek a legnagyobb (gazdaságosan) elérhető WD Red driveok.

Ezzel a setuppal ZVOL-t ki tudsz ajánlani a Mac-eknek iSCSI-n, tudsz könnyen snapshotokat gyártani, ill a snapshotokat egy zfs send / recv párral áttolni a backupra. Szalagos mentéshez képest űrtechnika. A backup gép lehet offsite is, zfs send tud inkrementálisan küldeni, ha van normális uplinkkel rendelkező internet kapcsolat.

Mivel nagyrészt tömörítetlen adatokat akarsz tárolni, ezért el kell gondolkodni az adatok tömörített tárolásán. ZFS-en ez egyszerűen a compression=lz4 attribútum megadásával megtörténik, több reszelést nem igényel, esetleg lehet a többi algoritmussal is kisérletezni.

Ezzel annyi a probléma, hogy így a dróton még tömörítetlenül mennek át az adatok a Macről a storage-ra. Erre lehetne esetleg megoldás, ha már a Mac tömörítve tárolná az adatokat az iSCSI block device-ra. Elvileg a HFS+ tud ilyet, de még sose használtam.

Másik opció lehet, hogy a Mac oldalon is ZFS-t használsz (openzfsonosx.org), mindenféle sallang (redundancia) nélkül, csak a tömörítést bekapcsolva - ilyenkor a storage gépen nem tömöríteném a ZVOL tartalmát. Azt várnám, hogy ha a storage gépen a ZFS blokkméret össze van hangolva a Mac-en levő ZFS blokkmérettel, akkor elég hatékonyan fognak összedolgozni. Ilyet sem próbáltam még, ki kell tesztelni, hogy van-e értelme. És persze OSX-en a ZFS még béta, tehát lehet azért bugokra számítani.

Nagy előny lehet a HFS+ használatához képest, hogy így a ZVOL tartalmát nem Mac-en is értelmesen el lehet érni, ha szükséges. Másik előny, hogy a tömörítetlen WAV-okat nagyon hatékonyan össze fogja nyomni már a Mac-en, így jóval kisebb lesz az iSCSI forgalom igény -> akár elég lehet 1-1 dedikált Gigabit ethernet vonal a szervertől a Mac-ekig.

Persze ne az 5ezer forintos desktop switchbe legyenek dugva, de már egy olcsóbb menedzselhető gigabites 24-32 portos switch jó lehet.

Üdv,
Gergely

Hát igen, ez is egy irány lehetne. Jövőre remélem össze fogok tudni rakni egy gépet rendesebb ZFS tesztelésre.
Nekem nem egyértelmű hogy mennyi RAM van a gépében, ha csak 8GB az azért elég karcsú.

A használatot tekintve a dedup-ot biztosan nem erőltetném, tömörítést inkább igen.
Viszont ZFS-sel ugye a hw raid kártya az pont felesleges (ezért is írtam hogy előbb gondolkozni aztán vásárolni).

ZFS on Mac az megint olyan dolog, hogy lehet vele otthon játszogatni de munkára nem vállalnám be.
Mostani tudásommal én egy ubuntu 12.04-et raknék, md raid-del, lvm-mel.
Ez már többszörösen bevált, évek óta jól teljesítő kombó, hw halál, minden volt, eddig mindent túlélt.

--
Gábriel Ákos
http://ixenit.com

de hat azt sem tudod, hogy mi mire jo, mar most is feleslegesen vettel egy szervert csak ugy (HAT NEM ERTITEK OLCSO VOLT!111!11!, HITEL, lofasz), fogalom nelkul. igazan belefer egy kis plusz koltes, hogy tovabbra se tudd semmire hasznalni! szerintem vegyed csak a 10 gigat, meg a sok ramot, szerintem a szallagos egyseg is tok jo otlet, de vegyel hozza egy tape libraryt, hogy igazan kafa legyen, villogo robottal bent, meg van az ujakon LCD kijelzo is kinek ne kene!!1111!

arra jó a ram hogy amit kap a gép hálózaton elöször oda menti elöször cache-be.

Nézd MacPro-ba SSD van 550mb-al masol. Azaz a 10 gigas lan on papiron elvileg 1sec 550 mega.... vesztség stb 400mb/sec. Ha mondjuk egy 30 gigás file-t mozgatok akkor 80masodperc alatt kb átszalad a dell memóriájába és hogy onnan 10-20 perc alatt menti el a RAID tömbe nem teljesen mindegy?

Elhiszem mégegyszer mondom hogy ti vér profik vagytok tanultatatok 7 félvévet az egyetemenen és 5-20 év szakmai tapasztalat ott van mögötettek olyan szavakat használtok ami után nekem google keresés kell de nem hiszem el tényleg hogy ilyen megoldásba nem lehet megoldani azt amit szeretnék.

Az eddigi összes hozzászólást végig olvasva számomra kiderült, hogy olyan szinten nem vagy tisztában azzal, hogy miként működik az adattárolás úgy általában (OS, FS, hardver, akármi szinten), és hálózaton keresztül, hogy az megdöbbentő.

Nem értem, hogy miért fontos a hálózati adattárolóra másolás sebessége, ha a hanganyagon a munkát a helyi SSD-ről végzed, és a hálózati eszközön csak a hosszú távú tárolást (archiválást) valósítod meg? Egy sima 1 GbE kapcsolaton (gagyi Realtek adapterrel), a nem túl optimális SMB protokollon 30 GB adat ~10 perc alatt másolható át. Ez miért sok archiválás esetén? Ezt a tempót ráadásul egyetlen (modern) HDD is bírja, szóval nem a szerverben lévő memória mérete határozza meg a sebességet (egy szem kapcsolódó munkaállomás és 1 GbE kapcsolat esetén).

Plusz: utána olvastál, hogy a Dell szerverben, a választott szerver OS-nek (ja, hogy azt még ki sem választottad...) milyen a kiszemelt 10 GbE hálózati kártya támogatása? A 10 GbE még nem olyan, mint a 1 GbE, hogy minden mindenben ugyanúgy jól működik, maximális sebességen... Ráadásul a nem-aktuális Mac Pro-ba szánt 10 GbE kártya támogatásának és várható teljesítményének utána olvastál? Mindezt úgy, hogy valójában semmi szükséged 10 GbE kapcsolatra, mert nem a szerverről dolgozod fel az anyagaidat, hanem helyből...
Egyáltalán, megnézted, mibe kerül a két darab 10 GbE kártya?

Ezen felül valaha is olvastál arról, hogy milyen összefüggés van a HDD mérete és a rá épülő választott RAID tömb megbízhatósága/sebessége/újraépítési ideje között? Elgondolkodtál valaha azon, hogy hálózati tárolónak nem egy általános szervert (pl. ilyen az R420 is), hanem egy tárolónak szántat kellett volna venni (a tárolónak szántnak az az ismérve, hogy jó sok HDD tehető bele, nem csak pár darab). Utána néztél egyáltalán, hogy mi a különbség a hálózati megosztás (SMB, NFS, AFP) és a hálózaton keresztül elért blokkos egység (iSCSI) között?
Olvastál esetleg arról, hogy az Intel-nek és a Supermicro-nak (meg az összes szerver gyártónak) vannak hálózati tárolónak szánt szerver-alapjai, akár 24 db 3.5"-os hot-swap hellyel, az általad írt 2.5 milliónál kevesebb pénzért?

Most van egy olyan szervered, ami tárolónak nem igazán alkalmas, az átlagos terhelése 0% lesz (ergo nem használod semmire), és nem tudod bővíteni gyakorlatilag semmivel (külső plusz eszközön kívül). Szóval totálisan feleslegesen költöttél el egy nagy halom pénzt úgy, hogy a beruházás éppen csak kiszolgálja kapacitásban a jelenlegi igényeidet (amit szintén hibás elképzelések alapján fogalmaztál meg), miközben semmiféle biztonságot nem nyújt. Mert abban ne bízz, hogy 1 db 4TB-os HDD megállása esetén a RAID5 újraépül majd a második azonos helyről és időből való HDD hibázása előtt (félreértések elkerülése végett nem kell, hogy a 2. HDD szó szerint megálljon, elég ha 1 bitnyi olvasási hibát jelent a RAID vezérlőnek rebuild közben) - ergo az első HDD hibánál eléggé nagy esélye lesz a teljes tömb elvesztésének - amiről nem lesz másolatod sehol, további storage és/vagy szalagos tároló hiányában.

Én igazából maximális pocsékolásnak érzem mindazok idejét, akik eddig segíteni próbáltak Neked.

Két tized bit biztosan nem, olyan ugyanis nincs. Egyébként milyen sebesség érdekel? Írás, olvasás, mindez mekkora blokkmérettel, random vagy logikailag folytonos blokkokra, egy vagy több (ha több, akkor mennyi) szálon, raw device-t vagy fájlrendszert használva (ha fájlrendszert, akkor milyet, milyen beállításokkal)?

Egy HP P410 Smartarray, tehát relatív "régi" vezérlővel 400-500MB/sec-es írást mértem 3TB-os WD Se (sima SATA) diszkekkel, ha jól emlékszem akkor még 5db diszk volt RAID6-ban. A gép több gigabites hálóról érhető el és könnyedén koppantunk 1-2 linket mentéskor, persze csak ha szekvenciális másolgatásról van csak szó.

Ez a tömb nemrég kapta meg a hatodik diszkjét és a transforminggal olyan 3 napig mókolt. A rebuild mindenképp gyorsabb, de nagyon pozitív meglepetés lenne 12-16 óra alatti idő...

Ha már iSCSI-zol, akkor az MTU-t és minden egyéb hálózati paramétert is érdemes felhúzni.

A legjobb tipp pedig, hogy érdemes lenne érdemben tesztelned, hogy TGE-vel mit tudsz kihozni a két gép között. Nem tudom mennyire fogod switchelni, de ha nem, akkor is minimum Cat.6-os kábellel próbálkozz.

Ami továbbra is a joker tippem, és már más is javasolta, hogy netatalk/AFP-vel csinálj megosztást, mert jóval barátságosabban kezeli az OS X.

Tehát a visszakérdezést sem érted, sebaj... "g" prefix nincs, tehát a "g"bit nem értelmezhető mennyiség, bár gondolom, hogy 15 GigaBájt-ot szerettél volna írni. Tudod, a mértékegységnél sem mindegy, hogy kis- vagy nagy betűt írsz (ahogy nem mindegy, hogy C avagy c akkordról beszélsz).

Ilyen sebességtesztet szerintem nem fogsz találni, illetve nem fogsz választ kapni a kérdésedre: azt jó közelítéssel meg lehet mondani/mérni, hogy a diszktömb ilyen, egy szálon történő, logikailag folytonos írási műveletet mennyi idő alatt fog végrehajtani, de azt, hogy end-to-end mennyi idő lesz, azt csak becsülni lehet, mivel nagyon sok összetevője van. Mérés nélkül persze szükség van a diszkek paramétereire - nem mindegy, hogy 7200rpm SATA, nearline SAS vagy épp 15k rpm SAS diszkekről van szó.
Ugyancsak sokban befolyásolja az end-to-end sebességet az, hogy a kliensen milyen szoftvert és hardvert használsz - nagyon sok esetben a sima gigabitet sem lehet teletömni, nem, hogy a 10 gigabites drótot.
Írásban a RAID6 nem gyors, ellenben lassú - még akkor is, ha mindent a vezérlő intés, és a paritás kiszámolásához az olvasások párhuzamosan történnek, ahogy a paritások és za adat kiírása is. (Egy logikai blokk kiírásának időigénye valamivel több, mint egy blokk olvasása és egy blokk írása a tömb leglassabb diszkjével mérve.)

Nearline SAS
GB-ot akartam írni
és egy átlagasebesség érdekelet volna a fenti konfig Dell T420-ra másolásra.

Szóval Több lesz mint 100 több lesz mint 150 több lesz mint 200 az átlag. Így érthető :)

Operációs rendszer legyen adot esetbe Windows szerver és mondom jobb gomb shared folder

Mértem egyet.

64 GB RAM van a gépben
P420i controller, 1GB cache van rajta, 300-as SAS diszkek 4 db RAID5-ben.
64 GB-s file-t ki tudtam íratni 475MB/sec -el. De ez csak sima dd.

Hogy ebből mennyi marad amikor mondjuk sambán másolok rá, azt nem tudom.
Hogy az NLSAS mennyivel lassabb azt sem tudom.

Hardver oldalon tehát akár meglehet a szükséges kakaó.
Azt mondanám ftp-vel meg tudja csinálni a 200-at.
AFP protokollról valaki írhatna tapasztalatokat, nem tudom...

--
Gábriel Ákos
http://ixenit.com

RAID5-ben sebességben talán valamivel többet, megbízhatóságban viszont jóval-jóval kevesebbet. Neked kell eldönteni, hogy legfeljebb pár százaléknyi idő megnyeréséért bevállalod-e a teljes adatvesztés kockázatát? (Írtam korábban: RAID5-öt használni mentés nélkül olyan, mint orosz rulettet játszani majdnem tele tárral).
Ha SaMBa-n ajánlod ki, akkor érzésre mindegy hogy RAID5 vagy RAID6, mert a SaMBa lesz a lassú, nem a diszk...

Biztonsági mentés mindenkép lesz.

Ahogy fentebb írtam ez egy kezdetleges állapot később 2 darab MD1200-at akarok úgy hogy tükrözi magát.

Vagy! LowCost: sima "celeron" pc raid kártyával az új seagate 8TB diskekkel RAID6 -ba ha az MD1200-at nézzük (RAID6-ba akkor 40TB kötetetem van) 7 darab kell az új seagate 8TB diskjéből (hogy a fenti 40TB MD1200 letudjam tükrözni) és arra csinálok manuálisan mentést. Majd a gép kikapcsol és vár az újabb mentésre illetve baj esetén visszaállításra.

Nekem 1-5 nap idő kiesés nem jelent anyagi kiesést mert ez másod állás és egy projektre amihez kell a 20TB tömb (hangkönyvtár stb..) több hét idő van elvégezni az adott feladatott. Keverési feladatok nem a RAID tömbről futnak ismétlem hanem a gépben lévő SSD-ről a RAID tömbre csak én teszek egy biztonsági mentést. De ha ilyen basic szinten 100% biztonságra akarok menni akkor SSD ment egy külső USB HDD-re TimeMachine-val és én kézzel áthúzom a Dell-re minden nap az adott projektet.

Áramellátásra meg írtam több darab 3000VA APC UPS -em van

NLSAS diszkekkel nincs nekem sem direktben tapasztalatom; ezek mechanikailag sima 7200-as SATA diszkek (az ilyen diszkekre jellemző BER és MTBF értékekkel), úgyhogy vélelmezhetően a sebesség is valahol a 10k-s diszkek sebességének a 70%-a körül lehet.

Én kipróbálnék több ajánlott megoldást, sok-sok méréssel úgy, hogy azok a valós terhelést minél jobban megközelítsék; szem előtt tartva a mérés megismételhetőségét, illetve az "egy mérés nem mérés, két mérés fél mérés, három mérés egy mérés" elvet, utána értékelném az eredményeket, és ezt követően dönteném el, hogy melyik megoldás esik ki, melyiket kell esetleg tovább tesztelni/hangolni, vagy melyik az, ami a mérések alapján eleve kijelölhető optimálisnak.

ha hardveres raid vezerlot hasznalsz, azon altalaban van 1/2/4GB cache, igy az iras abba a memoriaba megy (tehat teljesen mindegy, hogy 8, vagy 256GB memoria van a szerverben), majd onnan irja ki a tombre. de ahhoz, hogy ez megbizhato legyen, kell oda is plusz akksi (a szunetmentessel lehet vitatkozni, hogy kivaltja-e, nem hirdetnek ebben iteletet), plusz igy kellett volna venni a szervert, szoval ez a hajo valoszinuleg eluszott mar (alap konfigokban nem szokott benne lenni).

Ha csak 8 helyed van (+ a 2 SSD-t még valahova besuvasztod a házba), akkor én 8 db 2 TB-os WD RE-t javasolnék, RAIDZ2-ben, hot spare nélkül.

Feltételezem, hogy a rendszer 5*8 órában van használva úgy, hogy fizikailag ott ül a felhasználó. Emiatt, ha munkaidőben pukkan el 1 diszk, akkor erről értesíteni lehet automatikusan a helyi felhasználót, aki egy cold spare-t be tud lökni a gépbe.

Nem munkaidőben az adatok nem változnak, ezért ha a szerver HDD elpukkanáskor rögtön tol egy friss inkrementális ZFS snapshotot a backupra (egyébként is érdemes ezt csinálni amilyen gyakran csak lehet), akkor kibírhatja amíg beér valaki reggel. A nagyobb terhelés a megmaradt diszkeken ilyenkor nem lesz, hiszen nincs használatban a rendszer. A relatív kicsi (2TB) diszk adatait csere után pár óra alatt újra tudja építeni a ZFS.

Ez így ~10TB hasznos redundáns helyet fog neked adni (ZFS-t sose rakjuk tele, mert a Copy on Write szemantika miatt nagyon belassul amikor kevés a hely).

Ezen a 10TB-on a ZFS tömörítésével 20TB-nyi WAV adatot el kellene tudnod tárolni, persze ezt is tesztelni kell, lehet, hogy még többet lehet nyerni.

ZFS használata esetén, ha minden projektet külön dataset-re raksz, akkor külön tudod snapshotolni, archíválni, szükség esetén visszatölteni. Így az elsődleges tárolót nem kell olyan ütemben bővíteni, feltéve, hogy nem mind a 20TB-nyi adatot használod aktívan.

A nagyobb diszkek helyett megspórolt pénzt inkább +2 cold spare-re és a backup gépre költeném.

10G Ethernetre csak akkor ruháznék be, ha már dedikált gigabites hálón kipróbáltam a rendszert (esetleg 2x1 Gb-s Ethernet bondinggal), és egyértelmű lenne, hogy a hálózat a szűk keresztmetszet, nem pedig valamilyen egyéb komponens. Én azt is kipróbálnám, hogy iSCSI helyett jól konfigurált NFS sharen megosztva milyen teljesítményt nyújt a rendszer, mert a nagyméretű Wav fájlok szerkesztésére nem vagyok meggyőződve, hogy az iSCSI a legjobb. Nem tudom, hogy milyen szoftvert használsz a munkához, de ha a scratch buffereket, amiknek nagyobb a random IO igénye, tudod egy lokális SSD-re irányítani a Macen, akkor az NFS-en főleg szekvenciális írás / olvasás lesz, amiben elég jó teljesítményt szokott nyújtani.

Az NFS megoldás előnye, hogy így több gép között is tudsz adatot cserélni egyszerűen, ami az iSCSI-s megoldásnál nem triviális.

Üdv,
Gergely

Amúgy egészen konkrétan milyen adatokról beszélünk.. mármint értem hogy hang, meg törmörítetlen. De azon belül? 24bit signed WAV? vagy milyen formátum?
Tömörítésre hogy reagál? Duplikáció terén hogy állnak a dolgok?
Esetleg van egy elérhető minta-file?
Mik a jellemző file-méretek?

### ()__))____________)~~~ #################
# "Ha én veletek, ki ellenetek?" # E130/Arch

Elnézést, de Te nem vagy teljesen százas, ha ilyen kijelentéseket teszel...

Mi köze van a minőségnek a tömörítéshez? Nem MP3-as veszteséges hangtömörítésről beszélt itt senki, hanem bináris állományok veszteségmentes tömörítéséről.
Egyébként az akármilyen bitrátájú és mintavételű digitális hang már nem olyan minőségű, mint ami a hangszerből kijött...

Tisztázzuk én becsomaglva küldöm át a macpro ról a Dell-re vagy a dell tömörítget és mikor megnyitom ő saját erőforrásából automatikussan kitömöríti?

De szerintem lassan eljutok oda én is befejezem találtam 1 srácot aki segít ha max mégse jönne össze teszek fel egy hirdetést hogy x összegért ki csinálja meg

Nem értem ezt a tömörítéses dolgot azt szeretném ha a Dell lenne a biztonságos adatárolom ennyi. Úgy szeretném hogy mintha a MacPro-ba lenne egy X TB HDD. Ha beirom az OSX keresőjébe pl Soft Bass Kick kiadja mind a 800 féle lehetőséget és halgathassam. Ha ez megy tömörítéssel és nem a MacPro erőforrását használja nincs bajom a tömörítéssel hogyha a fent nevezet NEM VESZTEK SEMMIT MINŐSÉGRŐL BESZÉLÜNK.....

Én nekem nem ez a szakmám és tanácsot jöttem ide kéri (illetve szakembert akinek ez újgyakorlat hogy megcsinálja jó pénzért) ha valaki előről elolvassa hogy raid5-ről keztem szalagos mentőegységel akartam megoldani mára meg ott tart a projekt hogy 2 MD1200 tükörzve RAID6-ra majd a későbbiekben az láthatja megfogadom a tanácsokat arról viszont nem tehetek hogy nekem nem ez a szakmám akinek meg ez a szakmája azok mind mind más megoldást mondtak jött egy jó lehetőség hogy áfát csökkentsek egy ilyen gép vásárlásával idén és 36 hónapig fizethetem.

Az, hogy ki és hol tömörít, az döntés és megvalósítás kérdése. Az archívum kereshetősége pedig egy jó katalogizáló programmal sokat javulna, az állomány szintű keresés helyett.

Ezen kívül az adott feladatot legalább 20-féle módon meg lehet oldani JÓL, így nem csoda, hogy amennyi megkérdezett ember, annyiféle ajánlat. Ez nem azt jelenti, hogy nem értenek hozzá.

A gond azzal van, hogy Te előre beszereztél egy eszközt, ami egyáltalán nem alkalmas a leírt feladat megvalósítására. Ezen felül magad sem tudod megfogalmazni, hogy mit is vársz valójában a megvalósult állapottól...

Ráadásul most a végén beírod, hogy azért jó a drága gép, mert áfa befizetést spórolsz meg vele. Az informatikai fejlesztések szakmai tervezése általában nem ezen a vonalon indul...

Nem mondtam hogy nem értenek hozzá viszont nekem gyorsan kellet lépnem újjat akartam hosszú tárvra akartam ezért lett dell.
Mikor autot vettem akkor is mindenki mást mondott azért vettem Opel-t mert szerelők azt mondták ehez a legolcsóbb az alkatrész. Azóta 2x annyit költöttem rá mint más a BMW-re de BMW-re nem futotta.....

Valahogy csak meglehet oldani a leírt problémáimat és elképzelésemet. Csak egy szakember kéne akinek fizetek és megcsinálja

"Az informatikai fejlesztések szakmai tervezése általában nem ezen a vonalon indul..."

Általában nem, de tapasztalatból mondom hogy sokszor mégis.
A pályázatok megintcsak borzasztót tudnak torzítani ezen.

Nagyon sok olyat láttam, hogy "megspórolták" a tervezést és vettek 2-5x akkora vasat mint kéne "mert az EU úgyis kifizeti".
Aztán vagy kifizette vagy nem - ha nem akkor volt sírás.

Amikor meg üzemeltetni/szervizelni kellett a hülyén összerakott rendszert akkor megintcsak lett sírás.
Sajnos ilyen ez a popszakma.

--
Gábriel Ákos
http://ixenit.com

Na itt van megint egy újabb kívánság. Előjönnek ezek szépen.

Önmagában mondjuk egy gzip-es tömörítés (de bármelyik veszteségmentes) neked nem okoz problémát, a file-jaid nem változnak ettől.
Amúgy a spotlight indexelője (mdworker) tud tömörített cuccokat is indexelni.

Ki kéne próbálnod hogy egy átlag zenédet letömöríted, mekkorára csukja össze mondjuk az OSX beépített tömörítője.
Ha mondjuk tizedére összerakja akkor jelentem eddig csont hülye voltál hogy nem használtad.

--
Gábriel Ákos
http://ixenit.com

18 megából csinál 8 megát. (Ez a laptopon található kb 5 darab WAV egy mappába húzva

Iszonyat jó dolog viszont tömörítve nem látok bele a mappába és ha használni akarom akkor ki kell tömöríteni szóval nem tudom azt csinálni mint mondjuk most beírom a keresőbe hogy kick kiad 4000 darab kick-et és megyek a billetyűzettel lefelé és halgatom melyik milyek KICK hang

Másik szaktárs már említette az ALAC-ot .. esetleg érdemes kipróbálni, hogy avval mekkora, és hallgatható-e egérráhúzással.
http://en.wikipedia.org/wiki/Apple_Lossless
Mert ha beválik, akkor máris 40-60%-al meg is lett vágva a tárhely igény.

### ()__))____________)~~~ #################
# "Ha én veletek, ki ellenetek?" # E130/Arch

De akkor te 20Tb projekt archívum-ot akarsz, vagy 20Tb instant storage-ot? Mert nem mindegy.

Nekem az egészségügyben van rálátásom sok adat tárolására, és ott nem ennyiből és nem így csinálják. És az adatoknak csak egy része áll azonnal rendelkezésre. A többire várni kell. Pedig 2 nagyságrenddel többe kerül a rendszer, mint a tied.

A helyedben utána néznék, hogy zenei stúdiók hasonló igénnyel hogy valósítják meg a tárolást. Abból talán lehetne tanulni, tapasztalatot szerezni.

Lassan ott tartunk, hogy Google szerver farm szintű big data tároló kell neked, azonnali kereséssel és távoli eléréssel.

Szó szerint ilyen ez a popszakma.

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

20 TB instant storget.

Most hogy olvasom vissza a előző hozzászolásokat és hogy hogy indult ki az egész már értem ki hol értette félre

Elkeztem a forumot úgy hogy van egy dell T420 gép benne egy rendszer SSD-vel 7 darab 4TB diskel RAID5-be amiből lett RAID6 mert rábeszééltetek. Jöttek azok az úriemberek akik profik és redundancia redundanciára mi van ha tönkremegy 2 disk mi van ha ellopják akkor máshol kell tárolni mivan ha mind két raid tömb tönkremegy az amin dolgozik és az ahol a biztonsági mentés van

Tisztázzuk akarok egy storage-t a MacPro-hoz. Szóval "Dell JOBB GOMB SHARE FOLDER" helyett akarok iSCSI-t mondjuk és a Dell tárolja minden adatomat arról dolgozok akár arra mentek úgy lássa a MacPro mintha feldugnék egy HDD-t.

Ti mondtátok biztonsági mentés meg ez nem az igazi mondtam átmeteileg jó MOST KÜLÖN DISKEKEN VAN AZ ADAT 0 BIZTONSÁGGAL!!!! Szerintem ez olyan mintha trabantbol ülnék BMW-be. Szóval biztonsági mentés jön a seagate 8TB diskje veszegy egy dell T20 szervert dobok bele 4 ilyen disket és USBről pendriveről egy freenas-t a RAID5-be 3x8TB 24TB letükrözi a dell arra a gépre az adatokat mondjuk heti 1x havi 1x a gépet kikapcsolom (mármint a kis szervert)

B lehetőség amit fentebb írtam MD1200 2darab 4TB diskkel RAID6-ba egyik tükröz a másikra (RAID60) végülis.

Elméletileg igen, de mint tudjuk, az elmélet és a gyakorlat az elméletileg egyezik meg. Csak. Kieső idő az ssd beszerzése/cseréje, a rendszer telepítése (előtte megvárni azt, aki vissza tudja rakni a rendszert), és utána egy fsck arra a szolíd 20TB körüli tömbre. Ha fájrendszer teszel rá, akkor a szerveren, ha iSCSI-n adod oda blokkos eszközként, akkor meg azon a gépen, ami ezt használja. Szerinted ez hány óra kiesést jelent?

Cold spare-nek hívják, és ott figyel a fiókban/polcon, ha már kritikus rendszerről van szó...
De csak akkor, ha a gép 5.25"-ös helyére szükséged van más célra, oda ugyanis - ahogy már szó volt róla - befér négy darab 2.5"-os meghajtó, például a rendszert tartalmazó SSD tükör párja is.

így van pontosan.
amikor 20-30ezerért meg lehet úszni egy potenciálisan bekövetkező (adjunk neki 5% esélyt) és akár sokszázezer forint kiadást okozó problémát akkor nem gondolkozunk sokat, hanem beszerezzük. főleg ha a 20-30ezer forint a teljes beruházási értéknek igencsak töredéke.

btw én a cold spare alkalmazásában csak a relatíve kicsi diszkeknél, ssd-nél hiszek, mert mondjuk egy 4T-s diszkekből álló tömbnél mire 1 diszket szinkronizálsz nulláról kifingik egy másik. ssd-nél meg kifejezetten számít hogy mennyit írnak rá, tehát jót tesz az élettartamnak ha inkább íratlanul pihen amíg szükség nincsen rá.
ettől függetlenül szerverben egy ssd nem ssd, tehát azok is minimum párban vannak. tehár raid1 + cold spare ha van rá hely.
ha nincs, akkor raid1 + fiókban tartalék.

--
Gábriel Ákos
http://ixenit.com

Ha van SSD a polcon, és van a rendszerről visszatolható mentés, és van helyben olyan ember, aki az ssd döglése után azonnal nekilát, akkor sem biztos hogy elég ennyi idő.
Apró megjegyzés, hogy ha nem iSCSI-n, blokkos eszközként osztod ki a helyet, hanem Linux-os oldalon csinálsz fájlrendszert, és azt láttatod a kliensekkel, akkor az fsck alapértelmezetten x reboot után _is_ meg fog történni. Erről ugyan lebeszélhető a Linux, de nem javasolt.

Double facepalm. Kezdem azt hinni, hogy ez valami kandi kamera. Vagy hogy egy szociológus hallgató a reakciókat tanulmányozza a fórumon. A diplomamunkáját a hajmeresztésből írja.
Hallottál már veszteség mentes tömörítésről? Keress már rá az ALAC-ra! Ráadásul még apple is a formátum. De bármilyen veszteségmentes tömörítést alkalmazhatsz. NEM RONT A MINŐSÉGEN.
Vettél egy rendszert, ami nem teljesen a te igényeidre van szabva. Arra nincs pénzed, hogy helyette megoldjad úgy, ahogy javasolják. De tömöríteni meg lusta vagy, mert csak húzgálni akarod a mappák között az ikonokat. Ez kész.

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

Akkor marad az instal windows server 2012 és jobb gomb share

Arról nem tehetek hogy azután kerültem az oldalra miután megvettem a gépet mert 10-en 10 féle dolgot mondtak
2 ember mondta ne is használjak OSX et mert szar
Vegyek Sonnet 8lemezes házat hozzá PCIe kártyával
Vegyek egy Dell DAS-t tegyek a MacPro-ba SAS kártyát
Vegyek iSCSI-s drobo-t
Vegyek szervert Linuxal
Vegyek szervert Windowsal
Vegyek olcsó szervert sok rammal és hozzá külső DAS-t

Vettem egy jó szerert aminek semmi dolga nem lenne csak egy gépet kiszolgálni erre kéne egy szakember hogy úgy húzzon rá egy operációs rendszert hogy a Mac ha rácsatlakozik egy HDD lásson és ha keresek valamit az OSX Keresőjén akkor tudjak a fileok között válogatni halgatni behúzni a Pro tools-ba.

Ha elöbb regisztráltam volna maximum annyival lett volna kisebb vita hogy még nincs itt a dell. NEM AKAROK semilyen NAS-T!!!!!! és azért akartam így megoldani mert akármi történik ha veszek új Mac-ot ha vegyek egy PC-t mert az apple nem lesz jó nem leszek kötve semmihez LAN mindig volt van lesz!

Gyakorlatilag pedig egy NAS-t építtetnél magadnak a fentiek alapján. A probléma mégsem a fogalmatlanságod, hanem az arroganciád, amivel sikeresen bosszantottál fel jobbára segítőkész hozzáállású szakembereket... Ez a modor tolerálhatatlan annak fényében, hogy nem Te teszel szívességet, hanem Te szorulsz segítségre. Ez nem a Máltai Szerverszolgálat, jóember!
------------------------
Program terminated
{0} ok boto
boto ?

Isten lássa lelkem senkit nem akartam megbántani csak amit vásároltam szeretném működtettni. Ha valakit megbántottam legmélyebbről jövő bocsánatkérést kérek tőle! Ez a ti szakmátok és értem ez úgy jött le mintha egy autoversenyző kulbba valaki odamenne egy M5-ös BMW-vel hogy én vagyok a menő auto versenyző!

Csak kicsit bosszantó hogy itt már kizártam a mit vegyek erre a célra, idejöttem vettem egy dell t420-at és a kérdés illetve tanácsadás az lett volna "mit telepitsek iscsi-re?" se született 1 jó ötlet megoldás.

Tényleg nem akartam senkit megbántani de a tömörítés elvét én nem értem bocsánat érte!
A vegyek NAS-ról az jut szembe hogy 5 éve vettem 400 ért egy Qnap-ot ami úgy leéget hogy húst süthettem volna rajta ezenkívül olyan lassú volt mint régen egy IDE HDD.
Nem 1 évre tervezek nem akarok semmit a MacPro-hoz láncolni ezért akartam LAN os megoldást ha mégis új Mac jön ha veszek mondjuk Dell vagy HP workstationt mert a Pro Tools-on kivül semmit nem látok az operációs rendszerből akkor is menjen a rendszer.
Amikor jöttek azok a hozzászolások hogy új MacPro 1.8 millióért hozzá tunderbolt cuccos 1 millióért meg egy rakás egyőbb külső tunderbolt bizbasz jött az hogy ilyen olyan redundancia mert minden tönkremehet mindenbe lehet hiba akkor már én is kicsit bántó lehettem amiért BOCSÁNAT!

Bármit teszek a mostani megoldásnál hogy a gép lát 8 disket egyik tartalmáról sincs biztonsági mentés attól szerintem minden jobb

Vissza a témára én tényleg csak tanácsot akartam mivel induljak neki az iSCSI-nek

Akár zeneszerző vagy, akár production dj, szívből kívánom, hogy sikerüljenek a projektjeid.
Szilveszterkor ügyelek, de komolyan rád is fogok gondolni egy pillanatra.
A kedvemért azért nézz rá az ALAC-ra, mert mégiscsak Apple formátum, nem rontja a minőséget és hátha segít rajtad valamennyit.

Üdv:
Dw.

"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."

Szerintem ne kezdjünk személyeskedésbe. Amúgy én simán bevallom, hogy nem értek a ceph-hez, jövőre talán összerakok egy tesztrendszert és valahonnét lopok időt a tanulásra.
Egyelőre felületes ismereteim vannak és naivan azt gondoltam, hogy valami gépen belüli redundancia csak van. De most elolvastam egy prezentációt, és nincs. Döbb. :)

Btw a dirty_background_ratio subthread is elhalt... :)
--
Gábriel Ákos
http://ixenit.com

szerintem az, hogy _szakmai_ valaszt valok toled az itt megszokott valaszaid alapjan, az inkabb pozitivum, mint negativ szemelyeskedes. javits ki ha tevedek :)

a cephes dizajnnal kapcsolatban mindjart valaszolok lent

fut a kezem alatt par gep 128/256GB memoriaval, olvastam az altalad linkelt blogpostot, azonban modern kernelek alatt en nem talaltam ezt hatranynak; ha van ilyen iranyu (valos) tapasztalatod, erdekelne.

mondjuk ha van egy 24-48 diskes geped, akkor nem egyszerubb osszefogni 2-4 disket es azt kezelni egy osd-vel (igy mar csak 6-12 osd "process" fut a gepen)

illetve ha pl egy 2 disk hibaturo clustert akarsz csinalni, akkor a replikat 3-ra kell allitani, ez igy 1/3 netto tarhely.

azonban ha egy raid5-re teszed az osd-t akkor tuleli a 2 diskhibat, es a tarhely veszteseg is kevesebb lesz (cserebe persze lassu :D)

te hogy csinalnad N disk hibaturore a ceph-et (legyen n=1..5)?

edit: most latom, hogy mar van "raid5" cephben, igaz korlatozott felhasznalassal :/
--
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!

latok itt egy hatalmas felreertest: ha 2 _diszk_ hibaturo clustert akarsz epiteni, akkor NEM KELL 3 replika.

tegyuk fel, hogy 2x-es replikaciod van mondjuk 4 diszkkel.
a diszkek be vannak osztva placement groupokra, a fenti parameterek eseten ez 256 PG (magic! :-))
amikor irsz, akkor minden adatod egy PGben fog lakni (egyszerusitek, ne tessek rbd stripingba belekotni, illetve ez per 4MB-nyi objektum), a PG lesz replikalva, ugy, hogy a primary memberje az egyik OSD-n van, a replika pedig egy masikon.

tegyuk fel, hogy elhal valamelyik (jelen esetben mindegy, hogy a primary vagy a replika); ekkor X ido elteltevel megkezdodik a recovery, azaz a PG lereplikalodik egy masik OSD-re.

tehat 4 diszk van, az elerheto kapacitas ugye 2 diszknyi, viszont tetszoleges 2 diszk elhalast tul fog elni. (sot, ha feltesszuk, hogy a diszkhalalok kozotti ido > a recovery time, akkor 3 diszk meghalhat, meg mindig tudni fogod irni/olvasni az osszes adatod hiba nelkul).

ez azt jelenti, hogy teljesen mindegy, hany diszk hibaturore szeretned, az alapbol adott (amennyiben van annyi diszked).

de ritkan hasznalja az ember igy; altalaban nem OSD-k, hanem gepek kozott akarsz replikalni, es elmagyarazni a ceph-nek, hogy mi a te failure domain definiciod; ha ez OSD szintu, akkor mukodik, amint fent leirtam, ha gep vagy rack szintu, akkor pedig a fenti logikaban a "lereplikalodik egy masik OSD-re" mondatban s/OSD/failure domain/

az erasure coding hasonlo a raid-ben megszokott redundancia definiciohoz, csak ugye itt te adod meg az (n,k) parametereket, igy lehet finomhangolni; illetve jonnek a locality aware erasure codeok, amik lenyege, hogy a replikaciohoz nem kell majd atmenni a halozaton, hanem a hibakorrekciohoz szukseges plusz adatot azonos failure domainben megprobaljuk szetszorni, igy gepen/egysegen belul lehet helyreallitani

egy nagy hatranya van az EC-knek: nem tudsz partial writeot, ugyanis egy kis irashoz is teljes olvasas+irast kell vegrehajtani; ezert nem lehet rbd backend poolkent hasznalni (ehhez a trukk az, hogy egy replikalt caching poolt kell elerakni, akar writethrough modban, es maris van rbd over EC)

--

ebbol latszik, hogy akar ketszeres replikacio mellett is N diszk hibaturo mindenfele extra varazslat nelkul, by design. a crush mappel nagyon komplex dolgokat is ossze lehet hozni, a tesztrendszereinken en mar alkottam varazslatosakat, amin meglepodtem hogy mukodik :D

--

a raid azert felesleges, mert igaz, hogy tobb CPU-t fog hasznalni, viszont a sebessegeden is fog dobni, ugyanis az osszes diszked parallel dolgozik - hasonlitsd ossze ezt egy sima RAID megoldasban a diszk-kihasznaltsaggal.

ja, es 24/48 diszket nem rakunk ceph clusterbe, hacsak nem SOK ilyen gepunk van (mondjuk 10+), vagy backupra hasznaljuk: a problema az, hogy CPU-ban nem birja az ember a normalis terhelest [1 core/1 diszk az ajanlott], illetve a 48 diszkes gepekben mar SAS expander van, nem diszkenkent dedikalt 6(/12)Gbites SATA(SAS) link, igy a savszelesseged is lecsokken.

persze ha csak gigabiten log a dolog, akkor teljesen mindegy, 40Gbit-nel mar problemas ez:)

--

a ceph baromi jo, mi ceges szinten is egyre inkabb beallunk moge (de ez egy lassu folyamat, mint egy ekkora cegnel varhato), tessek hasznalni batran es kerdezni, ha valami nem vilagos, a ceges cephes csapat tobbi tagja is szivesen oszt eszt^W^Wsegit a hupon ;-) (persze nincs meg mindenkinek hup akkja, ezen majd valtoztatunk)

en hiszek benne, hogy greenfield bevezetesre nincs jobb storage, amennyiben egyutt tudsz elni a hatranyaival (nincs QoS (pici, de az sem user-facing, ne keresd nagyon...), nincs data locality, a latency komoly tervezes es modositgatas nelkul csapnivalo, nincs iSCSI/FC integracio, az rbd kernel modul neha teljesen jo halozaton is kernel oopst eredmenyez, az openstack integracio hianyos es bugos, a kod olvashatatlan es alig kommentezett, a doksi neha ellent mond annak, ahogy hasznalni kell, ha komoly bajod van, akkor kemeny penz a support, illetve szinte semmire sincs best practice, ugyhogy ne is kerdezz egyelore olyat, hogy "milyen SSD-t rakjak cachenek", "a bcache segit-e a teljesitmenyben", "ha X-rol Y-ra valtok akkor javul-e a latencym", "miert eszik 3x annyi ramot upgrade utan" (MINDEN releasenel nagyjabol 2x-esre nott a memoriahasznalat az elmult 2 evben), es meg lehetne sorolni)

amennyiben ezzel nem lehet egyutt elni (mert van ahol kell hard QoS), oda kell venni egy enterprise storaget - nekunk bekeben el a ceph clusterunk es a Storwizeunk egymas alatt:)

maga a ceph kod eszik ilyen sokat, sok IO patch nincs optimizalva (se latency se throughputra).

van RDMA (accelio) kod, januarban majd tesztelem (pont a decemberi szabi elott pofoztam ki az RDMA-s labort), de meg nagyon kezdetleges. akit erdekel, a cohortfs arra epitkezik (rdma + libosd).

jelen esetben az RDMA latency javulast talan (12 -> 6, esteleg 4 us egy TCP RR), illetve minimalis CPU javulast fog eredmenyezni.

a CPU most is csak akkor problema, ha van a kepben SSD vagy cache tier, ugyanis ott jelentkezik; ha backup celra 4/6/8/10TB-os diszkekkel hasznalod, es csak irsz, nem lesz gond

Egyszer vissza kellett állnunk iSER-ről iSCSI-ra (Infiniband hálózat) , és megdöbbentő volt a különbség: az adatbázisban futó feldolgozás sebessége a felére esett vissza csupán ezzel a változtatással. Annyi látszott, hogy a db szerverek szenvednek a soft irq-tól, a storage szerverek meg unatkoznak.

Sajnos az architektúráról többet nem mondhatok, de kb ilyesmit képzelj el.

pedig nem sci-fi, van kulon ethernetes RDMA csapat is a cegnel :)

mi csak ethernettel foglalkozunk, jelenleg 10gbit, jovo ev elejen 40gbiten minden (blogban irtam a switch oldalrol), ev vegen pedig szeretnem az elso 100 gigabites linkeket behuzni.

nincs olyan sok kartya a piacon, pontosan 4-rol tudok: chelsio t4/t5, mellanox connectx-3 (pro), illetve Q1-tol jon a connectx-4 ami tud mar 100gbitet.

persze kicsit mas az RDMA stack, az egyik iWARP, a masik ROCE, de elvileg az accelio mukodik mindennel... legalabbis a mellanoxos arcok fejlesztik viszont iWARP-al siman megy standard IB verbekkel

huh, az eleje nemtiszta :(
ha elszall a primary member diskje, meg elszall a replica diskje, akkor van olyan adat ami elerhetetlen, nem?
legalabbis regen amikor teszteltem, kilottem ket osd-t, erre a monitor kozolte, hogy sajnalja, de 123 pg-vel baj van. az olvasas meg freeze-d lett, amikor olyan adat kellett amihez nemvolt osd. (ez pl egy egyszalu nginx-et szepen megfogott :( )

en is hiszek a cephben (egy alom a ficsor listaja), csak meg a teljesitmeny es a stabilitas hianyos...

--
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!

igen, de egy lokalis raid5 tombben a rebuild az nem fog neked menni tobb GB/s sebesseggel:) viszont cephben azokat a PG-ket kell replikalni, amik a meghalt diszken vannak, ami ugye teljesen parallel mehet... igy a rebuild idod sokkal kisebb, mint egy normal raid eseten.

az mar mindegy, hogy 100, vagy 1000 PG-d van (ilyen szempontbol), ugyanis van egy max parallel replikacios ertek (osd max backfill), ami talan 8 vagy 16 alapbol

Úristen, mekkora állatorvosi ló ez a topic :D

Kedves vagy köszönöm, de ebben biztosan nem leszek az ügyfeled.

Ámbátor annyit javasolnék, hogy valami olyan megoldást válassz amihez van Fb modul is, Ügyfeleimnek bejött
pl.: https://www.facebook.com/SoieEssentielle (és webshop menüpont)

Sok sikert az üzleti terveid megvalósulásához!

10gbit/s hálózati kábelből szerintetek melyik az a méret 3-5-10 méter ami nem jár még veszteséggel?

[troll on]
Már ekkora távolságon is óriási a veszteség: 8 dB@100Mhz. De Belden gyárt olyan kábelt, ahol 20 dB@100 Mhz, 15 dB@500 Mhz. De ne félj, amíg a BER érték 10^-12 körül mozog vagy annál jobb, addig nincs gond.
Ha mindenképp jövőben gondolkodsz, akkor csak optika. Ott 2 dB/km@1300nm a maximális jelveszteség mértéke. De itt a csatlakozónak is van vesztesége. Sőt! Mivel érzéketlen a rádióhullámokra, ezért nem tudja olyan jól továbbítani a 10 GB-et.
[troll off]
Honnan veszel ennyi sületlenséget?

Ahogy látom, te nem értesz a témához. Ez alapvetően nem is baj. Továbbá szerettél volna adót/áfa-t is optimalizálni - még ez se baj. De miért nem kérsz meg egy szakértő céget/ismerőst, akinek már van ebben tapasztalata? Csak elmondod neki az üzleti problémád és a műszaki részt Ő MEGOLDJA. Műszakilag sokkal biztonságosabb megoldást kapnál és a többi szükséges célt is elérnéd - több 10 milliós befektetés nélkül.
Mondd, miért?

Naiv kerdesem, ha mar egyszer megvette a cuccot miert nem telepito fel vagy teszi bele a hdd-t es probalja ki? Max csak a raforditott idot veszti el.