Sziasztok!
Felvetődött egy kérés és ebben nem vagyok jártas.
Kb. 200TB nagy méretű állományt ( videó anyagok ) kellene tárolni valamilyen rendszeren, helyileg. Valamint ezekről egy másolatot offline.
A tároló rendszer gyorsasága nem feltétlen lényeges, amennyiben vissza kell keresni valamit és dolgozni kell vele akkor vissza másolják SSD-re és azzal dolgoznak tovább.
Elérés is gyakorlagilag elegendő hálózati megosztásként, Windows-al elérhető módon.
Manapság mivel lehetne ezt költséghatékonyan megoldani? Gondolok itt arra, hogy nem mindegy mennyi áramot fog enni.
- 3156 megtekintés
Hozzászólások
elso tippre egy sok diskes NAS... synologynak van olyanja. 24 diskbol kenyelmesen kijon egy raid6, de talan meg 16-al is ha eleg nagy lemezek.
az offline tarolas sokkal izgalmasabb kerdes... nem kovetem hol tart manapsag a szalagos mentes de nekunk 200TB szalagos tarolasara egy komplett szekreny kazetta van.
- A hozzászóláshoz be kell jelentkezni
OMG 200TB, ez egy stúdió vagy warez gyűjtemény? Ha a második akkor nem kell tárolni, mert sok bolond megteszi helyetted torrenten.
- A hozzászóláshoz be kell jelentkezni
Kinőttün már a warezból...
- A hozzászóláshoz be kell jelentkezni
Akkor természetesen Youtube. Ingyen is korlátlan videós anyag tölthető fel. Bár én nem spórolnék fizetős Google accounton ha ennyire fontosak azok a videós anyagok. Privátra is korlátozható a láthatóság. Az eredeti videó is bármikor letölthető ha nem tartalmaz jogvédett anyagot, és ugye mint írod nem warezről van szó, tehát ez is pipa. Youtube-nál jobban semmilyen más videós platform nem támogatott, mobiltól bármilyen desktop szinten értelmezett PC platformon át okoskodó tévéig mindenhol eléred a videóidat. Nem utolsósorban biztonságosabb megoldás mint bármilyen saját hardveres adattárolás és az LTO streamert is beleértve.
- A hozzászóláshoz be kell jelentkezni
Én nem vagyok benne biztos, hogy 200TB-nyi unlisted videó nem fog szemet szúrni valami monitoring algoritmusnak, de kíváncsi lennék, mi a kísérlet vége. :)
- A hozzászóláshoz be kell jelentkezni
Konkrétan lesz@rják. Egyébként privát elérhetőséget ajánlottam nem unlisted-et! A kettő nem azonos. A Youtube ingyenes usernél naponta 100+ videó feltöltés után nem enged többet mostanában, több napnyi 100 videós feltöltés után korlátozhat napi 15 videóra, amit egy hét után feloldanak. A már feltöltött videók természetesen maradhatnak. Az alapján amit a topiknyitó írt itt, fix 200TB méretű videós anyagról van szó, ami nem fog naponta 50TB nagyságrendben növekedni. Természetesen továbbra is célszerűnek tartom az előfizetéses konstrukciót. Az ebben a topikban összegereblyézett ötletcunami hardveres oldala sem gombokba kerül, és mellette ott van még az üzemeltetés költsége amiről hajlamosak megfeledkezni, mert "úgyis magamnak csinálom".
- A hozzászóláshoz be kell jelentkezni
Egyébként privát elérhetőséget ajánlottam nem unlisted-et! A kettő nem azonos.
Sorry, jogos, bár a lényegen itt éppen nem változtat.
Ettől függetlenül nekem ez még mindig túl szép, hogy igaz legyen. Befizetsz 6 eurót havonta, és hostolnak neked 200TB-nyi adatot? Csak a tárolás havi 200 dollár AWS-ben (deep archive tier), és akkor a letöltéseket nem számoltuk. Azt még csak-csak elhiszem, hogy ezt most engedi a Google, de mérget vennél rá, hogy a belátható jövőben sem tiltják ki ezeket a usereket?
- A hozzászóláshoz be kell jelentkezni
Szerinted mennyi videót töltenek fel naponta a Youtube-ra csak az ingyenes userek? A végtelen game streamingek, képernyő-prédikátorok, kényszeres divat-magamutogatók, természetfilmes mániások és a többiek. Ezeket naponta 2 milliárdnál több aktív user nézi folyamatosan. Nyilván a feltöltött videók töredékét nézik meg párszáznál többször. Mégis működik a Youtube idestova már 18 éve.
Régi mondás, hogy az audiovizuális média egy pénznyomda. Persze többek között pont a Youtube miatt van némi átrendeződés. Amiért a Youtube működik azért működik egyre kevésbé az RTL meg a többi kertévé. Ami két évtizede a sok helyi macsó menő tévécsatornához folyt be az ma befolyik a Youtubehoz globálisan mínusz Kína.
- A hozzászóláshoz be kell jelentkezni
Szerinted mennyi videót töltenek fel naponta a Youtube-ra csak az ingyenes userek? A végtelen game streamingek, képernyő-prédikátorok, kényszeres divat-magamutogatók, természetfilmes mániások és a többiek.
Ez szerintem nem releváns. A YT abból él, hogy az emberek fogyasztják a tartalmakat, cserébe reklámot néznek, vagy havidíjat fizetnek. Nyilván az érdektelen tartalmakat is felengedik a platformra, mert a storage olcsóbb, mint egy fókuszcsoporttal megnézetni a végtelen sok feltöltött videót, hogy vajon lesz-e nézettség. Eddig oké.
Na de ha én szteganográfiai módszerrel a pi összes számjegyét elrejtem videókban, és ez a végtelen mennyiségű tartalmat feltöltöm privát videóként, abból a YT-nak fókuszcsoportos elemzések nélkül is borítékolható, hogy nem lesz bevétele.
A kérdés az, hogy ez a kiskapu be lesz-e zárva (nem feltétlenül banhammer, elég csak az is, hogy privát videógyűjtemény X GB felett = feláras), amikor a YT rájön, hogy ezzel pénzügyileg borzasztóan szarul jár. Szerintem igen. Ez ugyanis addig működik, amíg kevesen csinálják, és nem éri meg vele foglalkozni.
- A hozzászóláshoz be kell jelentkezni
Nem érdekel igazán a filozófiai síkja a témának. Azon is lehetne rugózni ezzel az erővel néhány Vakondok film megnézése után, abszurd az, hogy ma egy olyan számítógép erőforrása van a zsebedben ami nem is olyan régen egy egész emelet összes X-terminálját ki tudta volna szolgálni, ráadásul még risc is meg valami unix utód rendszer van benne. Ki van zárva, hogy ezt ennyi pénzért be lehet benni a farzsebedbe! A rekláblokkolós privacy lovagok sem termelnek semmi pénzt a Youtube gazdájának. Ingyen használják az infrát és még a reklámokat sem nézik. Simán ki lehetne lőni az összes reklámblokkolót mégsem teszi a Google.
De, hogy antitézist is állítsak magammal szemben egy hozzászóláson belül valóban híres a Google a megszüntetett szolgáltatásairól. Viszont azokat pár évvel az indulásuk után lövi le általában és egyik sem volt 18 éve piacvezető egy kulcsterületen. A Wave lekapcsolása után kiadták tokkal vonóval klienssel a forráskódot, bár aztán kiderült, hogy lelkes nagyon elit és nagyon máskéntgondolkodó rajongói tábor már annyira nem jeleskedett a továbbfejlesztésben. A teljesen más profilú Stadia leállítását fél évvel előbb bejelentette a G. Akinek előfizetése volt pro csomagra onnantól havidíj nélkül használhatta 4k-ban, a csomaggal zsákolt játékokkal + természetesen a megvásároltakkal. Pro csomagosok is, ingyenes havidíjasok is az utolsó centig visszakapták minden Stadia játékra fizetett pénzüket. Azaz utólag ingyen volt az összes game. Plusz a visszafizetés mellé, amit a Google állt, az Ubisoft saját Stadia játékaihoz ingyen kulcsokat adott PC Ubi connect boltjából. Akinek kellettek a Stadia játékai mind (Ubisokat ugye elve megkapta) megvehehette őket negyed / tized áron, mert az idő is pénz és a game árak gyorsan devalválódnak. A Stadia controllerek updatet kaptak és bluetooth módban PC kontrollerként, sőt konzolokhoz párosítva is használhatóak. Mi érte meg ebben a Googlenek? Nem érdekel! A topic felvetőjének esetére visszatérve, ha tíz évig tárolja neki a Youtube a videóit gombokért (vagy még annyiért sem) és utána le lesz lőve a Youtube majd akkor vásárol holografikus vagy-ami-akkor-lesz háttértárat és akkor már egy ilyen holodrive elég lesz a teljes 200 terás adatkupacra.
- A hozzászóláshoz be kell jelentkezni
Lehet, hogy elbeszélünk egymás mellett.
tl;dr van komolyan vehető esélye annak, hogy a Google gátat szab az ilyen storage-jellegű felhasználásnak? Szerintem igen => kell B terv => visszaértünk OP kérdéséhez, mi legyen a B terv? :)
Backupnak nyilván jó lehet a YT, mert ha lerugdossák róla a videóidat, akkor megoldod máshogy, de mindennapi üzletmenetet nem építenék arra, hogy majd egy privát YT fiókból letöltöm, ami kell.
- A hozzászóláshoz be kell jelentkezni
200TB annyira nem sok, tobb rendszerhez is van kozom amik a PB nagysagrendben vannak.
- A hozzászóláshoz be kell jelentkezni
Ott zsebbe kell nyúlni
- A hozzászóláshoz be kell jelentkezni
Én elgondolkodnék mind az online, mind az offline tárolás esetén LTO tape library-n. Egy LTO-8 az 12 TB-t tud tárolni natívan. Ha fontos az áramszámla, akkor ez olcsóbb lehet, mint egy SAN/NAS. Persze ezt végig kell számolni.
Az se mindegy, hogy hányan nyúzzák ezt a videótárat. Egy SAN/NAS jobban kiszolgálja a több klienst, mint egy tape library. Utóbbit csak a meghajtók számának növelésével tudod skálázni.
SLA kérdés: Végig kell gondolni, hogy mennyire elfogadható, ha ez a videótár nem elérhető - pl: a SAN/NAS valamiért leáll, szükséges-e 2. SAN/NAS, esetleg elegendő-e a főbb SAN/NAS komponensekből (amik persze nem olcsók) a polcon tartani 1-1 darabot.
Még egy ötlet: 1 szerver pár TB tárhellyel, erre rákötve egy LTO tape library. A szerver kéri ki az anyagot az LTO-ról, nem a kliensek piszkálják az LTO-t direktbe. A kliens kikéri az adatot a szervertől, a szerver elkéri az LTO-tól és tárolja, majd a szerver visszajelez a kliensnek, hogy hol éri el a fájlt. Igen, ez aszinkron működés.
- A hozzászóláshoz be kell jelentkezni
LTO drive horror árban van, azt a 200TB-ot olcsóbban ki lehet hozni lemezekből.
- A hozzászóláshoz be kell jelentkezni
A beker ár, természetesen ha van drive akkor olcsóbb szalagra archiválni.
- A hozzászóláshoz be kell jelentkezni
Node az semmit nem jelent, a szalagbak csak tarolasi koltsege van, a szervernek a diskekkel meg kell aram, hutes, ups, ezek sem a fan teremnek.
- A hozzászóláshoz be kell jelentkezni
Egyértelmű, ki kell számolni a TCO-t, de ránéztem a drive-ok árára és ha azzal nem rendelkeznek, olcsóbban kijön lemezekkel.
Ha csak archiválni kell akkor nem kell storage, nas, simán csak lemezekre felmásolni. Pont úgy fognak működni és még gyorsabbak is lesznek mint a szalagos mentés.
- A hozzászóláshoz be kell jelentkezni
Ha és amennyiben akarnak offsite/offline mentést, akkor szalag nélkül nehezen ússzák meg, ez az egyik. A másik, hogy szalaggal el lehet indulni mondjuk egy 12 slot-os robottal, amibe LTO-8-cal számolva belepakolható 200TiB tárolására alkalmas szalag (bár a 12 slotosak jellemzően egy meghajtót képesek fogadni, viszont mivel a drive kritikus eleme lenne a megoldásnak, így a két drive szerintem "must have") - ez az eszköz meg a "világ végéig" bővíthető... Egy diszkdoboz meg nem igazán... És a diszkdoboz folyamatosan zabál 16-24-sok tengelyt pörgetve, a robot+drive meg csak akkor, amikor be/ki rakodás illetve írás/olvasás van.
A "simán lemezekre felmásolni" nem elég, mert vissza is kell olvasni/vissza is kell másolni a munkaterületre a fájlokat, és ugyebár 200TiB az 20-as diszkekből is minimum kétszer 10 darab - lehet persze biorobotot odaültetni, aki lista alapján előveszi a megfelelő diszket, bedugja egy dokkolóba, és felmásolja a munkaterületre a kért fájlt, illetve onnan visszamásolja a megfelelő lemezre a módosultat, de... érzed te is, hogy ez erősen szuboptimális megoldás akkor, amikor 200TiB rendelkezésre álló területet egy jó dedup-os storage RAID-del kihoz nagyjából fele ennyi bruttó diszkből...
- A hozzászóláshoz be kell jelentkezni
Én pont ezen okokból is írtam az online és offline tárolásra is az LTO-t. Nagyon egyszerű a szalagot duplikálni akárhány példányban.
További előny, hogy a szalagok nem igényelnek külön elektronikát, csak egy LTO drive-t. Azt meg kétlem, hogy egyesével fogja valaki a 10-20 darab HDD-t hurcibálni offline. Ráadásul ha azokból a HDD-kből akár 1 is elpusztul, akkor baj van. Ott nincs RAID. Legfeljebb 2 példányt tesz offline-ba, ha tényleg fontosak a videók.
Ha például van egy 4 drive-os tape library, akkor megteheti, hogy az adatokat 3 példányban írja ki akár egyszerre 3 szalagra, amiből 2 online marad, 1 offline kerül tárolásra. Így tényleg csak végszükség esetén kell az offline médiához nyúlni.
Múltkor láttam az Interboltnál egy HP használt tape library-t, 4 drive-osat, LTO-5. Ha jól emlékszem, 4x24 szalag fért bele, azaz 144 TB bruttó kapacitás. Ha meg az OP kifut a kapacitásból, akkor sincs gond: csak kézzel is kell valakinek pakolgatni a szalagokat időnként.
Az ára se volt vészes - bruttó 850e Ft volt, ha jól emlékszem. Gondolkodtam rajta, hogy megveszem itthonra játszani, de nem tudtam volna kihasználni a cucc képességeit.
- A hozzászóláshoz be kell jelentkezni
Túl lett gondolva a topiknyitó elképzelése. Offline mentés kell 200TB-ról, ha dolgozni akarnak egy részével az visszakerül munkaállomásra.
Ide kell 200TB lemez felcímkézve és egy darab ESATA hdd csatlakozó amit rádugdosnak alkalmanként a munkaállomásra, téma lezárva.
- A hozzászóláshoz be kell jelentkezni
és ha a fiókból elővett diszk megmakkant akkor jön a pingvinezés :)
Gábriel Ákos
- A hozzászóláshoz be kell jelentkezni
nem tudom manapsag mennyire divat, de volt ido amikor egyes disk tipusok (pl. samsung 1TB) felejtettek, ha evekig ki voltak kapcsolva. gondolom az ssd-hez hasonloan a firmware a hatterben ujrairja/frissiti idonkent a tartalmat.
- A hozzászóláshoz be kell jelentkezni
Hdd-n tudtommal nincs háttérben átrendezgetés. Maximum az van, hogy ha a SMART background scan nincs kikapcsolva (persze gyárilag KI van, szóval neked kell valami smart utility-vel BE kapcsolni), akkor az 0-24 bekapcsolt diszk esetén pár naponta újraellenőrzi a teljes diszket. Ha talál közben hibás v. olvashatatlan szektort, azt megjelöli, és a hibás szektor tartalmát (már ha tudja) átrakja tartalék szektorra.
De olyat, hogy ssd módjára a háttérben tili-tolizna a szektorok tartalmával, az nem reális. Talán az SMR-es hdd-nél. De olyat meg jóérzésű ember nem vesz pénzért, de még ingyen sem!
- A hozzászóláshoz be kell jelentkezni
El kell, hogy keserítselek: már jó ideje tili-tolizok a HDD is. Ennek oka, hogy nem tudnak csak 1 sávot írni egyszerre, hanem a szomszédos sávokat is felülírják. Ez a CMR/SMR váltásnál csúcsosodott ki. Persze olvasáskor nincs ilyen probléma - elviekben.
Ez pedig nyilvánvalóan rövidíti a HDD élettartamát (mechanikai kopás, melegedés).
- A hozzászóláshoz be kell jelentkezni
Írtam fentebb, hogy az SMR tili-tolizik, azért vannak extrém nagy cache-el szerelve az ilyen hdd-k. De CMR hdd-ről nem tudok, hogy az ugyan miért tili-tolizna? Főleg h. az SMR-nél bukott ki az elsunnyogott háttérben matatás. CMR-nél lenne ilyen, akkor az is kibukott volna, mert SMR-nél pl. 0 KB/sec közelébe leesik miatta a sebesség, elég drasztikus és látványos jelenség. CMR-nél ilyen nem történik.
Szóval a hagyományos CMR-ek szerintem továbbra se variálnak az adattal a háttérben.
- A hozzászóláshoz be kell jelentkezni
Semmi gond megvehetik az egész AWS-t, van az a pénz amiért elengedi az amazon a kezét és akkor biztonságban lesz egy komolyabb napkitörésig a 200TB anyag LOL
- A hozzászóláshoz be kell jelentkezni
Az AWS megvétele meg a fiókban tartott pőre HDD között azért még elég széles a paletta...
A sima fiókos HDD-zés már csak azért sem szerencsés, mert irtózat sok emberi erőforrás kell a létrehozásához és a használatához az ennél "fejlettebb" megoldásokkal szemben, valamint nagyon sok a hibalehetőség (úgy műszaki mint emberi).
Ennyi adatnál és normális cégnél nem biztos, hogy a megrendelő a "költséghatékony megoldás" alatt ugyan azt érti, mint a Fillérb@szó Bt. ügyvezetője a saját 200 GB-nyi adatuk tárolása esetén, ahol az a kérdés, hogy 1 TB-os HDD helyett legyen csak 500 GB-os, mert az 8e HUF a 12e HUF helyett... Lehet költséghatékénynak nevezni egy olyan megoldást is, ami 30 millió HUF-os enterprise storage+backup helyett ugyan ezt megoldja 10 millió HUF-ból kommersz eszközökkel és némi hozzáadott tudással.
A költséghatékony != legolcsóbb (normális helyen).
- A hozzászóláshoz be kell jelentkezni
Az AWS megvétele meg a fiókban tartott pőre HDD között azért még elég széles a paletta...
Tejesen igazad van, várom a topiknyitó választását egy [megoldva] címkézés után, ami szvsz nem fog bekövetkezni.
- A hozzászóláshoz be kell jelentkezni
Kellően vad ötlet: több kisebb NAS + wake-on-LAN? Ha tudod valami szerint - évek, kategóriák, stb. - rendszerezni a videókat, akkor az alapján lehet tudni, hogy melyik NAS-t kell ébreszteni. Azt is be lehet állítani, hogy adott idejű tétlenség után kapcsolja le magát az eszköz. A több kisebb NAS előnye: kicsi az esélye, hogy egyszerre haljanak meg az eszközök és benne a diszkek. De ha mégis: eszközhalál esetén kevesebb adatot kell másolni az offline backupról, diszkhalál esetén pedig a resync is gyorsabb. Illetve ha bővíteni kell idővel, akkor +1 doboz.
Az offline backuphoz meg egy tűzálló páncélszekrény, az offsite backuphoz meg mondjuk AWS Glacier Deep Archive.
És ahogy már mondták: akár NAS, akár LTO, legyen a polcon belőle 1-2 tartalék.
- A hozzászóláshoz be kell jelentkezni
Nem egyszerűbb egy NAS, amiben le vannak állítva a használaton kívüli diszkek?
- A hozzászóláshoz be kell jelentkezni
Ha egy NAS-od van és az kakukk, akkor megáll menet. De ha van több "kisebb" NAS-od van, akkor csak egy része esik ki időlegesen (mert a backupból kevesebbet kell helyreállítani). A másik kérdés még, hogy kb. milyen sávszéligénnyel kell számolni. Az is jobban szétosztható több NAS között.
- A hozzászóláshoz be kell jelentkezni
Mi a szűk keresztmetszet? A hálózat? Akkor ott kell bővíteni. 2.5G már teljesen elérhető áron van, de persze 10-re is fel lehet menni. A több kisebb NAS csak akkor segít, ha mind a forrás mind a cél különbözik, ami jelen esetben nem tűnik valósnak.
Természetesen lehet teljesen redundáns rendszert is csinálni, csak győzze valaki fizetni :) Itt nem érzek olyan szintű mission critical dologokat, hogy emiatt ne érné meg az a fél nap kiesés.
- A hozzászóláshoz be kell jelentkezni
nem. Egyszerre el tud füstölni az összes.
- A hozzászóláshoz be kell jelentkezni
Ez ugyanígy van akkor is, ha több NAS-ra szórja szét. Mint tudjuk a RAID nem backup.
- A hozzászóláshoz be kell jelentkezni
Ezért van offline backup a topiknyitóban. Ha valami kehe van és kiesik mind a 200TB, akkor tényleg marhára zabos lesz mindenki, illetve a visszaállítás sem két perc lesz. A 2 (vagy később több) NAS próbálja legalább korlátozni a teljes kiesést részlegesre, illetve a visszaállítási időt csökkenteni.
- A hozzászóláshoz be kell jelentkezni
No igen... RTO-ról nem szólt a poszt, de gondolom nem napokban mérik - emiatt is célszerű megvizsgálni a szalagos tárolást (több példányban, több helyen) és egy köztes diszkes "cache" terület beillesztését a szalag és a munkaterület közé.
- A hozzászóláshoz be kell jelentkezni
12-16TB-os diszkeket néznék (WD Red vagy Seagate Ironwolf, esetleg keverve, és ha elég az 5400-as fordulat, akkor inkább azt talán), és ez szerintem 2db NAS, hogy ha probléma van, akkor ne minden álljon meg. Előzőleg ajánlották a Synology-t, valszin szintén afelé indulnék meg.
Mivel ez 2db 7-8-9diszkes RAID6, ezért elég hamar beszereztetnék egy, vagy inkább két hidegtartalék diszket, hogy mindíg legyen a polcon.
Az offsite backup lehet 1db nagyobb valami lenne, hasonló konfigban, mint az előző, de több hellyel, hogy azért lehessen inkrementálisan menteni. E mellett a felhős árakat megnézném, hogy mennyiért oldják meg ezt helyettem. :)
- A hozzászóláshoz be kell jelentkezni
seagate exos 18-20 TB lemezek már egész barátságos Ft/TB áron vannak. Viszont itt ekkora méretnél bőven kelleni fog spare diszk, és jó redundancia.
- A hozzászóláshoz be kell jelentkezni
Tudom, 12TB-osat van ahol használok (nem tegnap indult projekt), de lehet hogy egy ilyen NAS projektnél egy fokkal jobb választás a NAS firmware-ek által is támogatott NAS firmware-es diszk. Ha van zseton Exos-ra vagy WD Goldra az is jó, de azok végig 7200-asok, és nem biztos, hogy kell a nagyobb fordulat.
- A hozzászóláshoz be kell jelentkezni
A 200TB változik, ha igen milyen gyakorisággal? Elsőre az online tárolás valamilyen NAS-on érdemes, az offline, meg attól függ, hogy mennyit változnak az adatok és mennyi időre kell megőrizni őket, mekkora biztonsággal.
Például a legolcsóbb offilne megoldás egy külső usb bölcső, utána a lemezt teleírva mehet a páncélba. Emberi munka, redundancia nincs (hacsak nem 2x írod ki, de az egyből dupla ár). Innen indulva lehet menni a csillagos égig az offline tárolással.
A tömegek sohasem szomjúhozták az igazságot. A nekik nem tetsző bizonyságok elől elfordulnak és inkább a tévedést istenítik, ha ez őket elkápráztatja. Aki illúzióba ringatja őket, úr lesz fölöttük, de áldozatuk az, aki megpróbálja őket kiábrándítani.
- A hozzászóláshoz be kell jelentkezni
Ahol ennyi adattal dolgoznak, ott a kb. 2 MFt nem drága HDD-re, főleg hogy egyszer kell megvenni és 10+ évig termelni fogja a pénzt.
Ez idő alatt kb. 2 diszk fog cserére szorulni.
Nem a HDD drága, hanem valójában az adat sok. Az ezt feldolgozó alkalmazottak bére pedig ennél sokkal több.
- A hozzászóláshoz be kell jelentkezni
A sok ötlet mellé jó lenne látni valami költség keretet, mert a nélkül ilyen adatmennyiségre még tippelgetni is felesleges szerintem.
Ezen felül valóban fontos lenne tudni, hogy milyen gyorsan kell elérni azt, ami így van tárolva és mennyi ember érheti el (egy időben). Online kell legyen, mert bármikor kellhet ötletszerűen, vagy lehet előre tervezni, hogy holnap dolgoznánk X anyaggal, addig vegye elő arra a munka SSD-re, akinek a dolga.
Ez mentés, archívum vagy munkanayag? Tehát kell-e mentés, kell-e archiválás, vagy ez már az. Ezen felül bővülési ütem és megőrzési idő is fontos. Mert az, hogy most 200 TB nem elég. Lehet jövő ilyenkor már 300 TB, és ez a tervezett eszközök bővíthetőségénél nem mindegy.
- A hozzászóláshoz be kell jelentkezni
A költségkeret úgymond "lényegtelen" nekünk, mert ha 200TB-ot kell tárolni, akkor az minimum 1,5-2 milliós történet, mert csak egy 12 dobozos nas 1 milliónál indul. Ha nincs rá meg a keret, akkor máris vége a projektnek. Ha a több NAS-os megoldás van, akkor a bővítés is könnyebb.
Minden esetre ha NAS, akkor per NAS külön UPS, és ha redundáns tápos NAS-ok, akkor is 2db erősebb UPS.
- A hozzászóláshoz be kell jelentkezni
Itt reálisan minimum 5-6 millió forint lesz csak a legolcsóbb hardverből kiépítés (diszkek + a legolcsóbb NAS amibe belemegy ennyi diszk).
- A hozzászóláshoz be kell jelentkezni
Pláne. :) Ekkora léptéknél azért kiderül mennyire gondolják komolyan.
- A hozzászóláshoz be kell jelentkezni
olyan szerver amibe belemegy 12LFF lemez, plusz hasonló kapacitású külső diszk-ház?
HP G8 -ból "filléres", G9-ből is Synology töredéke.
- A hozzászóláshoz be kell jelentkezni
https://www.bargainhardware.co.uk/hp-dl380-g9-1u-12-lff-hs-configure-to-order+
+2 db Intel Xeon E5-2630L V3 - 8-Core 16-Threads 1.80GHz (2.90GHz Boost, 20MB Cache, 55W TDP) £14.40100
- A hozzászóláshoz be kell jelentkezni
Nagyon vigyázni kell ezzel a dualcpu mániával. Sima NAS-nak 1x 2640v4 bőven elég lehet, és hiába a nagyobb TDP, csak egyszer van (és 6 helyett 4db ventivel elvan a gép), valamint alapjáraton az L-es CPU sem megy érdemben lejjebb. (Ha már használt G9, akkor v4-es CPU), és RAM-ből valszin 3x 16GB bőven elég. Tápból az 500W-os platinás sokkal jobb választás ehhez, mint az alapból adott 800W-os aranyos. :)
- A hozzászóláshoz be kell jelentkezni
csak epp a fogyasztasa lesz szar, meg ezt valakinek telepiteni, uzemeltetnie is kell majd, mig a nas bedug-orul kb.
- A hozzászóláshoz be kell jelentkezni
Nem lesz rossz a fogyasztása, legalábbis nem annyira, ahogy elsőre gondolható. A HDD darabszám lesz a szupermeghatározó, de ha 16T körüliek, akkor amúgy héliumosak, ahol egy fokkal jobb a fogyasztás. Maga egy G9-es olyan 45-55W-tal elketyeg alapjáraton 1db cpu-val, és kevés memó modullal. Ehhez jön még kb. 100W-nyi HDD fogyasztás, de az jön egy NAS-ban is. A sokdiszkes NAS-oknál azért bármennyire is ügyesek, egy 15-30W lazán meglesz, ami annyival már nem meghatározóbb, és a duplatáp is csak a rackes modellekben van, amik hát nem occók.
A szerver mellett szól még, hogy ezek megvehetők jó garival, vagy vehető melléjük hidegtartalék occón, és abban elindítható simán az ügy. Egy Synonál a 800k-s barebone-t azért fájdalmas ott tartani.
Ami valós kérdés, hogy lesz-e rendesen üzemeltetve, ha egy szerverre kerül valami, mert semmit se lehet csak úgy otthagyni manapság.
- A hozzászóláshoz be kell jelentkezni
Attól hogy héliumos, még nem jelenti automatikusan h. alacsony fogyasztású. Pont fordítva, hiszen eleve a héliumos diszkek a soktányéros csúcskapacitású típusok, amik meg kifejezetten a legnagyobb fogyasztású diszkek szoktak lenni. A hélium ezeknél a soktányéros diszkeknél a muszáj szükségmegoldás, mivel levegősen meg tűzforróak lennének. A 10W írás/olvasáskor az átlag ezeknél (ez a legmagasabbnak számít a hdd-k között), idle-ben meg a 5-7W. A mostanában bevezetett Heat Assisted (HAMR) és más marketingelnevezés-mutációi meg még magasabb írás-olvasási fogyasztást fognak produkálni, ahogy tovább nőnek a 20-30 TB méret felé.
Az ekkora diszk mennyiségnél lehet értelme az energiatakarékos fícsöröket tudatosan bekapcsolni. Illetve érdemes megnézni, szabad-e hagyni leállni-felpörögni a diszkeket, ha épp nincs rajta forgalom. Windows kifejezetten folyamatosan írkálja a diszkeket, szóval ott kb. semmit nem lehet nyerni ezen. Ha pedig szarul van beparaméterezve az időzítés, azaz folyton leáll-felpörög ciklusban lesz az egész diszk állomány, az hónapok - fél év alatt kinyírja a mechanikát. Pl. a legkritikusabb load cycle count 6-700 ezer ezekre a típusokra a gyártó által garantált maximum. Ezt egy 0-24es folyton leparkolgató diszk fél év alatt simán eléri, onnantól meg már igazából bármelyik nap tönkremehet a fejmozgató mechanika.
- A hozzászóláshoz be kell jelentkezni
Pedig az a helyzet, hogy valamiért a héliumos diszkek ugyanolyan kapacitásnál (meg 1-2 kategóriával nagyobbnál is) kisebb fogyasztásúak a doksik szerint. Valszin nagyobb a sűrűség a tányérokon. A túlzott energiatakarékossággal azért óvatos lennék.
- A hozzászóláshoz be kell jelentkezni
Az exos-nal olvastam az egyik teszt oldalán, hogy a Seagate kiírja kerek perec a valós fogyasztást, nem álltak neki kozmetikázni. A Wd meg szokás szerint kamuzott egy ízléseset, pl. a DC szériánál, mert az ÍRÁSI fogyasztási értéknél olyan módszerrel teszteltek, ami 50% ÍRÁS és 50% OLVASÁS-t futtat. Így persze, hogy az exos-tól alacsonyabb fogyasztás számérték jött ki. Mert nem ugyanazt mérték ki. Ráadásul az már HAMR-es módban ír, ami meg józan paraszti ésszel is belátható hogy sokkal magasabb pillanatnyi teljesítményt igényel, mint a sima CMR.
- A hozzászóláshoz be kell jelentkezni
Seagate vs Seagate-et néztem (7-8W vs 5W), vagy WD vs WD-t. Exos és Gold szériát. Minden nap nem túrom a speckókat, de amikor valami projekt indul, akkor átnézem az aktuális opciókat. Ránéztem, és azóta teljesen átalakult a portfólió.. hát ez ilyen. :) Még HAMR-ról sehol sem volt szó, azt mostanában kezdték a halandóknak is árulni.
Seagate Exos X18 szériás 18TB-os HDD 5,1-5,6W (SATA vs. SAS), a 10TB-os 4,4W Idle fogyasztás. A 7E10 10TB-os diszk 7,8W-os idle fogyasztás mond. A csúcsok 9,5W a héliumosnál, és 11W körüli a normálnál. Hasonló volt látható pár éve is az akkor aktuálisoknál, illetve a WD-nél, meg a HGST-nél is.
https://www.seagate.com/content/dam/seagate/migrated-assets/www-content…
https://www.seagate.com/content/dam/seagate/migrated-assets/www-content…
Már 20-30-40 diszknél sem lesz elhanyagolható a fogyasztásbeli különbség.
- A hozzászóláshoz be kell jelentkezni
A megoldás a légellenállás lehet. Hint: a légellenállás képletében benne van a közeg sűrűsége.
- A hozzászóláshoz be kell jelentkezni
Ha nem gond rajta az OS telepítés, menedzselés, akkor ez is jó cucc, sőt inkább ilyet választanék. Azzal azért számolni kell, hogy csak enterprise diszkek játszanak a P420/P430/P440-en. 12x 16TB-os Seagate Exos az kb. 1,6 millió plusz áfa, szorkettő, szóval nem a szervervas ára lesz a meghatározó. :)
- A hozzászóláshoz be kell jelentkezni
Mondjuk ennyi storage-t már nem ilyen proprietary raid kártyára trendi kötni, hanem szimpla HBA-re, JBOD-ban. A redundanciát meg magasabb szinten (zfs és tsai) megvalósítani.
- A hozzászóláshoz be kell jelentkezni
Ennyit normális storage dobozba szokás berakni, és ott a storage szoftvere/kontrollere megoldja a dolgot, hogy az sw és/vagy hw alapon csinál redundanciát, az már a storage saját belügye, amíg az elvárt performanciát (IOPS, folyamatos és random írási/olvasási sebesség, stb.) tudja hozni.
- A hozzászóláshoz be kell jelentkezni
Minél több az adat, annál inkább bízzuk egy black boxra? Lehet hogy ez a szokás, nálunk volt is ebből jó egy havi adatvesztés a cégnél, amikor megdöglött a kontroller, és SEMMIT sem tudott forgalmazó vele csinálni. Pedig elvileg valami hiper-szuper redundáns cucc volt.
Kíváncsi vagyok melyik a drágább: egy faék mdadm RAID1, vagy egy ilyen storage.
- A hozzászóláshoz be kell jelentkezni
Volt nekem is olyan, hogy nagy gyártónál raid tükör egyik diszkje hibákat dobált, nem volt kritikus, de a diszket cserélni kellett - a bécsi központjuk hathatós támogatásával érkező kollégájuk megkezdte a cserét, aztán sikerült eljutni odáig, hogy teljes OS újratelepítés és mentésből visszaállítás.
Nekem duál kontrolleres eszközzel nem volt adatvesztős sztorim; ami nagyon fontos: ami csak egy példányban van meg, az nincs meg. A storage-ban lévő redundancia _nem_ backup, a storage még ha minden eleme redundáns, akkor is képes 100%-ban megkotlani, ergo ami csak ott van meg adat, az elveszhet, akár emberi baromság miatt, akár hardveres károsodás/hiba miatt.
Az eszköz elemeinek a redundanciája nem helyettesíti az adatok redundáns, egymástól független(!) tárolását.
Az mdadm valóban faék, akkor inkább lvm-es mirror, vagy zfs - _és_ normális backup.
- A hozzászóláshoz be kell jelentkezni
Ez egy redundáns kontrolleres volt. A gyártóról csak annyit, hogy High Price. Ha jól emlékszem, de azért nem esküszöm meg, én nem az IT-n vagyok, hála az égnek.
Persze, az mdadm fölé már mehet az lvm. LVM mirrort én még nem használtam. De a soft raid hatalmas előnye, hogy bármi megdöglik, az adat akkor is ott marad a lemezen. Nyilván lesz valamennyi downtime, de legalább csak pár óra esik ki, nem az utolsó backup óta eltelt minden.
- A hozzászóláshoz be kell jelentkezni
Ha Pontosan ugyanarra a cégre gondolunk, akkor az általam nagy vonalakban leírt sztori szereplői is ők voltak :-) Láttam általuk leszállított tárolótömböt... Nos, nem volt tőle senki sem elragadtatva... Bár ez nagyon rég volt... (Akkor még az EMC is EMC volt...)
Az mdraid jó dolog, persze, én a raid-tömböt inkább mégis a kontrollerre bíznám (jó dolog a cache...), és az OS felé blokkos eszközként látszó raid-tömbre húznék pv-t meg lvm-et. (Láttam brand szerverben raid kontrollert megdögleni - szervizes hozta az újat, kártya ki/új kártya vissza, némi csócsálás után ott volt rendben a tömb és rajta minden adat...
- A hozzászóláshoz be kell jelentkezni
" kontrollerre bíznám (jó dolog a cache...)"
csak ne spórolják le a battery backup modult róla :D Láttam már olyat, hogy nem kell az, hiszen a szerver előtt van ups és a szobát előtte még egy nagy akkus szekrény is biztosítja, az épületet meg generátor. Aztán csak sikerült áramszünetet csinálni mégis :) Bár csak dev szerver volt és csak kellemetlen volt, hogy megsérült minden node a vason - mert 3 vm node ugyanazon volt és persze mind korrupt lett a kiíratlan cache miatt.
- A hozzászóláshoz be kell jelentkezni
Normális esetben a BBU vagy akár az aksi (újabbakon bazi nagy kondi) döglése esetén a kontroller kikapcsolja a cache-t.
- A hozzászóláshoz be kell jelentkezni
Igen, ezen gondolkoztam, hogy a szerény tapasztalataim alapján akarni kell, hogy valami ennyire életveszélyesen legyen konfigurálva.
- A hozzászóláshoz be kell jelentkezni
HP Smartarraynél szerintem **WC nélkül be sem lehet kapcsolni a write cache-t, vagy erősen rákérdez. Ami még be lehetett kapcsolva, az a "performancia" miatt a drive write cache, és tolerancia már nem volt, amikor elment a delej.
- A hozzászóláshoz be kell jelentkezni
Úgy emlékszem hogy be tudtam kapcsolni, de nagyon kellett győzködni, hogy tényleg akarom. Aztán kiderült, hogy erősen CPU cappos amit futtatunk, így ki is kapcsoltam.
- A hozzászóláshoz be kell jelentkezni
Mi sosem kapcsolgatjuk ezeket, gondolom nálad is ritkán fordul elő. :) A kamikaze lapot senki sem szeretné kihúzni. "Jól figyeljenek, csak egyszer mutatom meg!".
- A hozzászóláshoz be kell jelentkezni
Igazság szerint magáért az adatért nem volt kár, generált, számolt adathalmaz, a legeslegrosszabb esetben újra kellett volna számolni (valamennyi idő). De mivel érdemben nem lett gyorsabb, pedig szemre(*) elég bőszen kaparta a diskeket, ezért a jobb a békesség alapon döntöttem.
*) vmstat. Igen, tudom, de az a tuti ha kipróbálja az ember.
- A hozzászóláshoz be kell jelentkezni
Egy NAS-nál már csak ízlés kérdése, hogy HW vagy SW megoldással áll fel a tömb. SW megoldással is lehet jó teljesítményt elérni (megfelelő hardveren), nem csak HW RAID cache-sel. De persze nem biztos, hogy olcsóbb lesz, és az üzemeltetéshez még egy fokkal több kell majd, mint egy HW RAID kártya gyártói megoldásához...
Minden esetre az előtted szólóhoz csatlakozom, hogy én is sokkal jobban preferálom a szoftveres megoldásokat a vendor lock-in hardveres megoldásokhoz képest. Persze ehhez hozzá tartozik, hogy ott van support, szoftveres esetben meg saját kútfőből kell megoldást találni minden felmerülő problémára.
- A hozzászóláshoz be kell jelentkezni
"vendor lock-in hardveres megoldások" - NAS-ról beszélünk, illetve storage dobozról. Egyébként meg ha veszel mondjuk egy tetszőleges szervergyártótól vasat, akkor az máris vendor lock az alkatrészek egy jelentős részét tekintve. Normális gyártónál az x verzióval ezelőtti kontrolleren használt/összerakott diszktömböt szépen felnyalja egy újabb vezérlő is.
- A hozzászóláshoz be kell jelentkezni
Storage-t választani tudni kell. Én is tudok olyan gyártót/modellt mondani, ahol finoman szólva nem volt biztos az adatmegőrzés. Pl: storage fw frissítés után jött a pingvinezés a gyártótól. Pedig a gyártó L99+ szintű mérnöke csinálta az egész frissítést.
A másik, hogy legyen backup. Egy független eszközön, fizikailag, technikailag és IT security szempontból is szeparált helyen. Csak ezt szeretik kihagyni, mert "drága".
- A hozzászóláshoz be kell jelentkezni
A HP SmartArray-eknél van HBA mód, és ha jól rémlik, akkor valahol CEPH alatt volt/van ilyen. Ott csak a hw-re foglalkoztam esetenként, nem láttam bele jobban. ZFS-nél a 3-as diszk paritással lehet jobbat gurítani, mint egy raid6, ha a redundanciát nézzük. Nekem anno a ZFS-sel az volt az egyik bajom, hogy a raid expasion nem ment, bár még FreeBSD 5 körül volt ez. A CEPH alsóhangon 5db szerver, ami 200TB-nál valszin simán több lenne, na ott lesz ám TCO bőségesen.
Nálam ahol backup alá nagyobb storage kell, ott vagy Synology NAS-ok vannak 6-8TB-os diszkekkel, vagy Linux softraid 8-12TB-os diszkekkel, viszont talán 50TB+ körül van a csúcszartó eddig.
Ott járunk, hogy manapság 200TB nem olyan veszedelmesen sok, ahogy azt 2-3-4 éve gondoltuk volna. 15 éve 8TB-ra néztünk volna igencsak óvatosan, hogy húmilesz, de aztán semmi sem, mert simán boltba megvehetőek a diszkek hozzá. A Seagate utiterve szerint már a kanyarban vannak a 30TB-os diszkek, és az évtized végére jönnek az 50TB-osok. (https://www.anandtech.com/show/18733/seagate-confirms-30tb-hamr-hdds-in…) Természetesen egyelőre ezek a "hátlétezik" kategóriában vannak, és nem pont egy NAS-ba bevágósok, de mindenképp le fognak szivárogni valamilyen késéssel.
Még a dual actuator jellegű diszkek lesznek érdekesek, hogy a brutál kapacitást azért épkézláb módon lehessen kezelni. Ha jól tudom, akkor ezek perpill ezeket támogató vezérlővel mennek, mert külön LUN-ként látszik a két fele. (https://www.seagate.com/content/dam/seagate/migrated-assets/www-content…)
- A hozzászóláshoz be kell jelentkezni
No de itt LTO8 szalagcserélők meg ilyenek hangzottak el, ami már nem 1-2 millió, de még az 5-6 millióba se fér valszeg bele...
Meg ha kis pénzű KKV/startup, akkor lehet használt-felújított garis cuccokból is számolni, ha meg egy nagy tőkeerős cég, akkor nyilván jobb a vadi új. Attól, hogy sok az adat, még nem biztos, hogy nagy cég, ugyanis 200 TB videó állományt simán összeszed egy profibb két fős esküvő videós vállalkozás is pár év alatt.
Synology-t ajánlgatja mindenki, de ilyen HDD mennyiségeknél figyelembe kell már venni (sajnos), hogy a 8 lemezesnél nagyobb Synology eszközök már csak a saját márkás Synology diszkeket szeretik (1-2 kivételtől eltekintve), amik kb. 2x annyiba kerülnek azonos kapacitás mellett, ráadásul egyenlőre 16 TB a maximum, a 18-22 TB-os modellek még nem szerepelnek a kínálatban.
Ezen felül nagyon kell a várható bővülés, mert nem mindegy, hogy az igény lefedhető két 8 lemezes vagy egy 12 lemezes egységgel, telerakva, vagy a tervezett berendezések felét üresen kell hagyni, mert úgy gyűlik az adat. És ez az induló költséget erősen befolyásolja.
Szumma: ha pl. 2 milliós plafonnal tervez az ügyfél, mert mondjuk laikusként a netet böngészve kiszámolták, hogy 200 TB az 12 db 18 TB-os HDD, ami 12x 150e, azaz 1.8 millió, és azt hiszik (a megrendelők), hogy ez a nagyságrend, akkor óriásit tévednek. Ez esetben itt azt javasolnák sokan (én is), hogy el kell engedni az ügyfelet, nem megoldást kell keresni. Ha azt mondja, hogy 10 millióban gondolkodnak max. indulásra, akkor már van értelme mindenkinek bedobni a saját ötletét.
- A hozzászóláshoz be kell jelentkezni
Tippre ez a project sem fog (vagy legalábbis úgy) megvalósulni, ahogyan a topik indítóban írta OP. Illetve mivel nem fog megvalósulni, tapasztalatok se lesznek megosztva 6-12 hónap múlva, mi történt a valóságban. Így felesleges bárkinek is energiát feccölnie ebben a topikban jószándékú segítségre. Mármint a kiírónak felesleges. A többiek mondjuk lehet olvasnak közte hasznosat.
- A hozzászóláshoz be kell jelentkezni
Nyilván OP azért dobta be a kérdést, mert túl szeretne lépni az USB-s HDD megoldásokon, és fontosak neki az adatai.
Hogy egy klasszikust idézzek: a kokó pénzbe kerül. A repülő pénzbe kerül. A jacht, a séróm, a gyerek fogszabályzója - pénzbe kerül. Kitty sincs ingyen.
- A hozzászóláshoz be kell jelentkezni
Ekkora adatmennyiségnél én is mindenképpen LTO-ban gondolkodnék, ha az elérési sebesség nem annyira lényeges, és ha nem kell az adatoknak állandóan online lenniük.
Pl. egy SAS-os LTO7 vagy LTO8 library, telepakolod szalagokkal, rákötöd valami szerverre, benne annyi diszkkel, ami a mentések elkészítéséhez / visszaállításához kell (praktikusan minimum egy szalagnyi hely).
Linuxon mtx, mt, tar, samba és ennyi. Vagy ha mindenképpen windowsos megoldás kell, nyilván arra is vannak remeknél remekebb szoftverek.
- A hozzászóláshoz be kell jelentkezni
Ez a nemzeti konzultáció adatbázisa? Kubaszov Elvtárs a Föld egész lakosságát listázta már!?
- A hozzászóláshoz be kell jelentkezni
Ez a HAHU + JóFogás migrálása a 4IT-hoz. :)
- A hozzászóláshoz be kell jelentkezni
senki se beszelt itt adatbazisrol, ezek video fileok. azert egy profi studio raw-ba rogzit min 4k de ma ma rinkabb 6k/8k felbontasba, sok 100 orat, az siman megvan ennyi. de van olyan ugyfelunk akik regi filmeket digitalizalnak (kockankent bescannelik) raw-ba, ott is ropkodek a terrak naponta...
- A hozzászóláshoz be kell jelentkezni
Foglalkozik ilyennel magyar cég? Tudtommal az ilyen szkennerek igencsak drágák még egy nagyobb vállalkozásnak is idehaza.
- A hozzászóláshoz be kell jelentkezni
Milyen az az ilyen? Az amatőr eszközzel is lehet scannelni "leica" kisfilmet is - meg persze nagyobbat is, síkfilmet is -, meg Flextight X5-tel is, meg közöttük is van egy halom más lehetőség is.
Az meg egy örök hitvita, hogy a filmet mekkora felbontásban kell/szabad/érdemes/kötelező/hülye aki mást mond szkennelni, szóval senki ne álljon neki raw fileméretet számolni a milliméterekből.
Na, viszont lehet hogy elkapkodtam, mert ha mozifilm... Azt manapság inkább automata filmtovábbítóval és fényképezőgéppel digitalizálják. Nem őrület nagy puki, inkább csak iszonyat szűk rétegnek kell.
Na igen, ilyen nem biztos hogy sok van.
- A hozzászóláshoz be kell jelentkezni
erre a szintű profizmusra gondoltam:
- A hozzászóláshoz be kell jelentkezni
Jaja, ez nem az otthoni kategória. Viszont így saccra a szkennelés az olyan 20%-a a mutatványnak, utána jön a fényelés a... Hát, nem számoltam hány nyers forrásból. CMY, de mintha több lett volna. Szóval tényleg hamar fogy a hely.
- A hozzászóláshoz be kell jelentkezni
igen.az utómunka eszetlen idő...
diy film scan témában nekem ez a kedvencem.
- A hozzászóláshoz be kell jelentkezni
Igen, az ilyesmit "szoktam látni" mindenfelé, az ipari megoldás nem mindennapos arra, amerre én járok :)
- A hozzászóláshoz be kell jelentkezni
anno ~25 éve helyi művházban, pályázaton nyert pénzből tudtak venni olyan síkágyas szkennert ami tudott negatívot és diát is szkennelni.
- A hozzászóláshoz be kell jelentkezni
igen, es igen, rohadt draga volt a scanner... valami palyaztabol vettek, ha jol tudom kozelebb volt a 100-hoz, millioban.
- A hozzászóláshoz be kell jelentkezni
Igazság szerint az nekem olcsónak tűnik :)
- A hozzászóláshoz be kell jelentkezni
Amiket linkeltem fentebb böszme nagy álló szkenner szekrényeket, és van belőlük tán egy tucat a világon (és akkor lehet h. még sokat is mondtam), azok szerintem nem állnak meg 100milliónál. Főleg ha az utána következő utómunka eszközöket is hozzávesszük (szoftver + hardver, mert csak beszkennelni még édeskevés a filmkockákat).
- A hozzászóláshoz be kell jelentkezni
nyilvan nem olyat vettek mint a nagy filmstudiok... de nem is ilyen hazibarkacs vagy aliexpresses takolmanyt.
ez amugy nem szekreny hanem egy nagy asztal szeru cucc volt emlekeim szerint, de jopar eve hogy ott jartam (en csak halozatot/tuzfalat uzemeltetek). kb 100eves FF dokumentumfilmeket digitalizalgattak vele.
- A hozzászóláshoz be kell jelentkezni
Amit fentebb linkeltem, az amolyan köztes megoldásnak tűnik, csak ja, ez egy szkenner, kezdeni kell valamit az anyaggal, és azt általában egy nagy, asztalszerű cuccal csinálják. Aztán lehet hogy van több nagy, asztalszerű cuccuk, ennél sokkal többet én se értek hozzá :)
Bárhogy is, az biztos, hogy az efféle móka eszi a helyet.
- A hozzászóláshoz be kell jelentkezni
Ha ilyet kellene csinálnom akkor kb. valami alábbi megoldásban gondolkoznék:
A rendszer rétegekre osztottan elmagyarázható. Legfelső rétegben a kliensek, alatta a rendszer menedzser gép vagy célszerűen gépek, ez alatt az adattároló egységek pl NAS vagy LTO, stb..., NAS alatt pedig, hogy éppen SATA, vagy SAS, vagy bármi más az adatcsere az már lényegtelen.
A NAS csak tárhelyet ajánlana ki. Lehet belőle több is, nem korlátos a száma. Ezeket lehet leállítani és indítani csak akkor amikor szükség van rá. LTO vagy egyéb adattároló hasonlóan működne. Akár a másodlagos mentés is itt alakítható ki.
Mindegyik NAS, HDD, stb.. tartalmazhatná a menedzser rendszer adatbázisát, konfikgurációját.
A menedzser gépek adat szempontjából, legyen az akár a rendszer konfigurációja a NAS-ról szedik.
A menedzser gépek tartalmazhatnak SSD-t vagy valami átmeneti tárhelye pl. a munkához. Az adott anyag lezárásakor innen az adat visszakerül egy adott táróló egységre.
A NAS-nál a tárhelyek kiajánlása a menedzser rendszer felé úgy történne, hogy esetleges NAS hardverhiba esetén is be lehessen egy csere eszközzel vagy másik NAS-ban HDD cserével elérni átmenetileg az adott anyagot.
A menedzser gép kiesése esetén gyorsan telepíthető alaprendszer kell csak, egy úgymond bármilyen gépre. Ha nincs már alapból több menedzser gép. Konfigurációt és működéshez szükséges adatbázist sem tárolna, azt is NAS-ról kapja.
A kliensek nem érhetik el közvetlen a NAS-t és a rajta tárolt adaotokat, csak a menedzser rendszert. A menedzser rendszer nem tárol tartósan adatokat, csak átmenetileg amíg használatban van egy adott adatcsomag.
Célszerűen a NAS és kliens hálózati szempontból is elkülönített egység. Csak a menedzser rendszer tud a kettő között kapcsolatot teremteni.
Időszaki mentésekről a menedzser rendszer gondoskodik.
Így lehet több vagy akár csak 1db menedzser gép, lehet több vagy 1 db NAS. Rugalmasan bővítherő a rendszer, tárhely és telhelés szempontjából is. Könnyen javítható, cserélhető. Lehet homogén hardverkörnyezet, de akár mindenféle eszközökből összerakott.
- A hozzászóláshoz be kell jelentkezni
én LTO4-et vettem, mondjuk egy nagyságrenddel kevesebb adatot tárolok kb. 40-50TB, nekem bevált. Nagy ritkán kell adatot visszállítanom, de pont erre kerestem megoldást és ezen már működik az LTFS is.
- A hozzászóláshoz be kell jelentkezni
LTO4-en LTFS? Kizárt dolog. Az LTO4 nem támogat partícionálást, ami az LTFS alap szükséglete. Nem LTO5-öt akartál írni?
- A hozzászóláshoz be kell jelentkezni
"A tároló rendszer gyorsasága nem feltétlen lényeges, amennyiben vissza kell keresni valamit és dolgozni kell vele akkor vissza másolják SSD-re és azzal dolgoznak tovább." - Egy munka visszatöltésére mennyi időt hajlandóak várni? Milyen a jelenlegi _valós_ tárolási igény, és milyen növekménnyel kell/lehet számolni? A tárolt adatokból mennyi az (jelenleg és 1-2-3-5 éves távlatban), amit egyidőben online elérhetővé kell tenni?
A 200TiB-es becslés vagy bőven túl van a valós igényeken, vagy ha tényleg 1-3 éven belül ennyit kell tárolni, akkor ott a bukszát alaposan ki köll nyitni, mert ez a mennyiség nem az a kategória, hogy veszünk egy nagy szervert/dobozt, és telerakjuk diszkekkel plusz linux meg szamba... Persze lehet úgy is, csak a mentés/rendelkezésre állás nem biztos, hogy hozni fogja a minimum elvártakat... (Hint: tiering, dedup)
- A hozzászóláshoz be kell jelentkezni
Ezt szerintem túlgondolod. Nagyon kicsi az esély, hogy 10-20-30 milát bepattintsanak egy storage megoldásba, plusz offsite mentésbe, amit utána 5 év után biztosan cserélni kell, mert lejárt a szápport*. Ugyanakkor egy bármilyen NAS, vagy szerver, vagy sima diszkes ügynél el kell fogadniuk, hogy azért vannak erősen korlátok. "Az erőforrásokat az igényekhez kell rendelni". :)
Egyébként egy storage megoldás áramban sem egyszerű, mert, legalábbis régebben, nem volt elsődleges a fogyasztás optimalizálás, hogy finoman fogalmazzak. Ráadásul jó eséllyel kell valami szerverjellegű (több...) hozzájuk, bár voltak régebben is NAS funkcióval, de valahogy nem tennék ki ilyet a belső hálózatra sem.
*: Egy sima szervernél könnyen kapsz majd pótalkatrészt a gariidő után, pláne ha vettél hidegtartalékot, és egy NAS-nál gyártón belül szintén megy, hogy minden diszk átkerül egy újba, és magához tér.
- A hozzászóláshoz be kell jelentkezni
Ahogy arra is nagyon kicsi az esély, hogy prompt kell 200TiB, és ez mind online elérhető formában. Jó esély van arra, hogy ~10TiB nagyságrendben kell munkaterület, ahol az épp aktuális munkához szükséges fájlokat elérhetővé teszik, illetve ahol ezeken dolgoznak, és kell jóval nagyobb, rugalmasan bővíthető "réteg", ahol meg a hosszabb távú tárolás/mentés/archiválás történik. Ez utóbbi meg hízhat, mint a kisgömböc az évek során... 200TiB-nyi adat tárolására lehet próbálkozni barkácsolós megoldásokkal ideig-óráig, de az első nagyobb "erre nem gondoltunk, b+" után lehet, hogy az olcsó(bb) lesz a drágább.
Az sem mindegy, hogy hányan, milyen sávszélességgel fogják "húzni" róla a dög nagy fájlokat - volt szerencsém látni durva nagy tárterületet adó, "soktengelyes" NAS-t "hörögve" küzdeni, mikor 10G-n meg lett picit terhelve iSCSI-n...
Ezért is, meg a rendelkezésre állás, illetve az adatok biztonsága miatt is javasolnám azt, hogy a munkaterület és a tényleges tárolás különüljön el egymástól, azaz ne az legyen, hogy ott van az összes fájl egy rw megosztáson, és onnan ki-ki szükségletei szerint szedi/rakja vissza a fájlokat. Ezt maximum read-only-ban adnám oda a felhasználóknak, és a kész fájlokat egy rw területre kellene visszapakolni, ahonnan egy automatizmus rakná át a read-only területre, akár az előző verziót/verziókat is megtartva valamennyi ideig(!) Ha dedup-ot tud a storage, és a felhasználható 200TiB esetén ez gyakorlatilag már "must have", akkor ez nem fog jelentős plusz tárhelyigényt jelenteni, sőt 200TiB nettó helyett jóval kevesebb diszket elég összelapátolni a dobozba.
- A hozzászóláshoz be kell jelentkezni
Nekem gyanús, hogy ez valamilyen köztes állapotú archiv történet lenne, ahonnan relatív ritkán szednek le cuccokat. Azt írták, hogy ha kell valami, akkor SSD-re másolják, ami akár valamilyen SSD storage-et is jelenthet. A tengelyes megoldás korlátaival együtt kell élniük, ez ilyen. Több grafikus meg render studiónál láttam, vagy hallottam hogyan üzemelnek. Háttt őőőőő.... :) Persze van kivétel, de ott meg teljesen más a lépték, és szónélkül a storage felé mentek.
Ha napi használatra kell, akkor már SSD-ben kell gondolkodni, bár valszin nem 200TB méretben, ahogy írtad is. Ezt már rábízzuk a topiknyitóra. :)
- A hozzászóláshoz be kell jelentkezni
utána 5 év után biztosan cserélni kell, mert lejárt a szápport
Az LTO tipikusan nem olyan technika, amit néhány évente cserélnek, mert csak max. 2 generációval korábbi szalagokat tud olvasni. Nem fogok szobányi szalagot 3 évente újraírni (adatmentéssel is foglalkozom, mint szolgáltatás). Persze az új generációs szalagokra sokkal több adat fér, tehát néha ugrani kell.
Én most LTO8 library-vel dolgozom, de éles üzemben van az LTO7, LTO5, sőt még LTO4-es library is, ami nem mai gyerek - 15 éves. Néha szétszedjük, kitakarítjuk és ennyi.
- A hozzászóláshoz be kell jelentkezni
Nem is az LTO-ról írtam. Azért képzeld magad elé, hogy egy grafikai/videó/CAD stúdióban LTO-znak, és néha jön a tisztogatóember, meg az LTO kezelő. Arról nem beszélve, hogy ha esetleg gubanc van, akkor nem ott fogják a türelem szobrai következő részét felvenni.
- A hozzászóláshoz be kell jelentkezni
Nem véletlenül javasoltam a tárolásra legalább két "réteg"-et: az egyik egy diszkes tároló (lehet vtl is akár), a másik egy szalagos réteg - ez utóbbiba azok a tartalmak kerülnek kiírásra, amikhez régen nyúltak, a diszkes tárolóban meg azok vannak, amiket a közelmúltban használtak, akár csak olvasásra.
- A hozzászóláshoz be kell jelentkezni
Etyeken a Kordában szalagra mentik.
Istennel a hazáért és a szabadságért !
- A hozzászóláshoz be kell jelentkezni
Meg gondolom megfelelő nyilvántartó- és önkiszolgáló visszaállító rendszer a kezeléséhez...
Az eredeti poszthoz ismerni kellene a workflow-t, ahogy az állományokkal dolgoznak, és arra/az alá építeni egy több rétegű tárolást: lokális gép (SSD) - hálózati megosztás (tányéros diszk/ssd raid10) - adattár1: diszk (átmeneti tár, raid50/raid6, dedup) - adattár2 (szalag).
- A hozzászóláshoz be kell jelentkezni
helyi TV studiónak csináltam rendszert - az Edius vágó PC-be SSD-volt raidben - nyers anyagok és kb. egy évnyi anyag digitálisan NAS-on. Archívum: DV kazettán csak a kész renderelt anyag, nem kellett megőrizni a vágatlan nyers anyagot.
Istennel a hazáért és a szabadságért !
- A hozzászóláshoz be kell jelentkezni
Namost a 200TB nem komoly mennyiség. A 16-20TB-os diszkek korában ez 10-12 diszk. Ennyit off-the-shelf kaphatsz, akár magad is építhetsz egy alap szervert, benne 1-2 extra sata kontrollerrel.
És bár offline-t írtál, nézz meg egy-két cloud provider árat is, mert gyakran csak benyögi az ügyfél, hogy helyben kell, de ha meglátja az árakat, és hogy mit kap érte, könnyen meggondolhatja magát.
Én inkább a backup-ján gondolkodnék. Vagyis mi van, ha betojik az az 1 szem NAS? Elveszhet minden adat? Azonnal kell helyreállítani? Nem eshet ki? 10 diszk környékén már a raid6 is veszedelmes, mert egy 16G-s diszk bizony akár több napig is képes resync-elni.
- A hozzászóláshoz be kell jelentkezni
Én inkább kisebb diszkekből több, _és_ dedup felé mennék, ha mindenképp onlne elérhető tárolást céloznék meg,plusz valamilyen aszinkron replikát _és_ a replikáról mentést.
- A hozzászóláshoz be kell jelentkezni
Én ugyan nem értek hozzá, de ha ilyen gondom lenne, nem szórnám a pénzt gigantomán szerverekre. Kiírnám DVD-kre az egész cuccot, és NAS-ra vagy szerverre csak azt tenném ki, amivel épp dolgozni kell. Általában a sok száz terabyte-os tárolókra csak néhány nagyvállalatnak van szüksége folyamatos online eléréssel, a többinek bőven elég, ha tudja, mi melyik dobozban van.
Tudom, a DVD sem örök élet, de kérdés, hogy szükség lesz-e 10-15 évvel korábbi anyagokra is? Persze még a DVD-vel is lehet trükközni, hogy minden két példányban kerül kiírásra, de két különböző gyártó lemezeire. Valamelyik csak túléli.
- A hozzászóláshoz be kell jelentkezni
Azért a matek az ugye megy? 200TB az 200000GB, egy DVD meg 4.7GB egy gyors osztással kijön, hogy bő negyvenkét és félezer darab DVD-re férne ki az anyag... Egy példányban. (Oké, van dupla méretű DVD is, akkor ugyanennyi darab kéne két példányos kiíráshoz... Arra az apróságra persze figyelni kell, hogy ami fájl nem fér rá egy ilyen lemezre, az hogyan kerüljön darabolásra... :-P
- A hozzászóláshoz be kell jelentkezni
es hova teszi azt a 40 ezer darab DVD lemezt? vagy 80 ezret ha duplan tarolja. meg hany evig tartana azt megirni? hany iro kopna el azalatt? meg mennyibe kerulne? nem tunik optimalis megoldasnak nekem...
- A hozzászóláshoz be kell jelentkezni
Oké, igaz, nem esett le, hogy 200 tera... nem giga...
- A hozzászóláshoz be kell jelentkezni
200GiB-ot kávédarálón is el lehet tárolni :-D
- A hozzászóláshoz be kell jelentkezni
meg lyukszalagon is
- A hozzászóláshoz be kell jelentkezni
Lehet, hogy kevesebb helyet foglalna, mint 42-43ezer DVD :-) (Nem, ezt már nem számolom ki - meghagyom neked :-P ) (300m maximális hossz, 2.54mm lyuktávolság... )
- A hozzászóláshoz be kell jelentkezni
Van olyan írt CD fotókkal, ami 20+ éves, de normális sebességgel visszaolvasható. DVD esetében már sokszor a 4-5 éve írt lemezeknél is erősen gondolkodik az olvasó, ha elő kell venni a lemezt. Mindezt úgy, hogy a legalacsonyabb írási sebességet választottam. Úgyhogy az optikai lemezeket érdemes csak igazán duplán tárolni, de én ezt kicsit túltoltam: 2x optika és 1x hdd.
- A hozzászóláshoz be kell jelentkezni
"hany evig tartana azt megirni" - Attól függ, hány írót használ, de 7*24-ben tolva egy íróval, jó sok automatizálással (azaz csak lemez ki/lemez vissza, tányér visszatol a feladat) elméletileg is több, mint 14 hónap. Lenne. De 40E lemezt megírni egy drive nem fog - jóval hamarabb kipurcan, úgyhogy 8-10 íróval kell minimum számolni (~5000 lemez megírása per darab, ezt talán kibírják, bár a folyamatos üzem miatt esélyes, hogy ebből is elhullana akár több is), ekkor akár két hónap alatt is a végére lehetne érni - szintén 7*24-ben tolva az ipart, pakolgatva a szumma ~700kg-nyi lemezt :-)
- A hozzászóláshoz be kell jelentkezni
azt meg kiszmaolhatnad terfogatra mennyi lenne mindez... nekem kb 800 lemez polcokon beterit egy falat, szoval gondolom jo ahhoz mar valami speci tologatos szekrenyes raktar kellhet
- A hozzászóláshoz be kell jelentkezni
Egy DVD papír tokban olyan 1.4-1.5mm vastag, azaz olyan 63-64 polcfolyóméter lenne, ha csak egy sorban, szorosan egymás mellé rakva lennének a lemezek. A kereshetőség/kezelhetőség miatt ez nem célszerű, sokkal inkább egy fiókos, a falsíkkal párhuzamosan egymás mögött állítva tárolt lemezek a nyerők, ekkor 12-13cm szélességben elfér kb. 40-50 darab, ami saccperkábé 6 méter hosszú padlótól-plafonig tárolót jelentene (15cm magas fiókokkal számolva)
- A hozzászóláshoz be kell jelentkezni
Valóban elírtam, LTO5 akartam
- A hozzászóláshoz be kell jelentkezni
QNAP NAS esetében egy 8 lemezes QTS Hero-s nas (pl.: TS-873A) egy 8 lemezes bővítővel (pl TL-D800C), és telerakva 16TB-os lemezekkel.
- Két RAID5 tömböt (8 lemez a NAS-on, 8 lemez a kiegészítőn) egy ZFS pool-ba összevonva kapsz egy KB 210 TB-os egybefüggő szabad területet.
- Mindkét egységben 1-1 lemez elvesztését kibírja.
- Áramfogyasztása készenlétben 50W körül mozog a két egységnek együtt (HDD Sleep Mode-al), elérés esetén 3-4 másodperc alatt feléled.
- Olvasás/írás közben is csak 120W körül mozog a fogyasztás.
- (NAS + Bővítő együtt 750 ezer HUF alatt megkapható (diskek nélkül))
Nagy Péter
- A hozzászóláshoz be kell jelentkezni
Dobozonként nettó hat lemezzel számolj - ekkora diszkeknél hot spare nélkül, pláne RAID5 az nagyon orosz rulett (ráadásul nem egy, hanem jóval több tölténnyel...). Ha RAID6+hotspare, akkor nettó öt lemez/doboz, úgyhogy 20TiB lemezekkel kell telepakolni. És ekkor csak a mérete lesz meg, de hogy IOPS-ban, menthetőségben elegendő lesz-e... Oké, melléraksz egy másik hasonlót és zfs send/receive csinálod a replikát, és a replikáról készül a mentés - szalagra...
Miközben 200TiB nettó tárterületet dedup-os tárolótömbbel jóval kevesebb diszkből (vagy ugyanennyi, de jóval kisebb lemezből) össze lehet rakni. Ehhez persze látni kell, hogy a tárolandó adat mennyire "fekszik" a dedup-nak és mennyire nem.
- A hozzászóláshoz be kell jelentkezni
Ehhez persze látni kell, hogy a tárolandó adat mennyire "fekszik" a dedup-nak és mennyire nem.
Azért arra videófelvételek esetén elég könnyű tippelni, hogy mennyire nem.
- A hozzászóláshoz be kell jelentkezni
ezt a dedupot nem tudom honnan szeditek. irta az op hogy video, hacsak nem fekete kepkockak vannak akkor azon ennyi dedup lesz: 0
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!
- A hozzászóláshoz be kell jelentkezni
Nem tömörítés, hanem blokkszintű redundancia. És az még ebben az esetben is várható, ha nem is annyi, mint mondjuk szöveges fájlok esetén.
- A hozzászóláshoz be kell jelentkezni
A RAID5-öket azért írtam, mert eléggé hangsúlyos volt a kiírásban, hogy gazdaságos, nem túl gyors tárolás kell. Offline tárolásra meg amúgy is kell mellé valami LTO szalag, vagy hasonló technológia, tehát mentés van róla.
Hasonló területen pont van tapasztalatom, videós anyagoknál a dedup és a tömörítés csak akkor szokott érni valamit, ha mondjuk PNG vagy targa szekvenciák is vannak közte; MXF-re, ProResre, és a többi használt videóformátumra szinte nulla a helymegtakarítás.
Ha többségében inkább csak tárolásra van használva, nem aktívan munkára, akkor az a lemezeket sem viseli meg annyira, és talán a RAID5 sem annyira veszélyes (polcon tartott cold-swap lemezzel, napi ellenőrzéssel). Persze, ha belefér a keretbe, a RAID6 tényleg jobb megoldás, csak a 18-20TB-os lemezek nekem aránytalanul drágának tűnnek.
Nagy Péter
- A hozzászóláshoz be kell jelentkezni
Gazdaságosnak gazdaságos, de egy 16-18TB-os diszknél mennyi idő szerinted egy rebuild? Mert egy dolog biztos, hogy 3-4 év után szinte biztosan lesz halott diszk, ha olyan szériába sikerül belenyúlni, akkor hamarabb. Mivel a rebuild egy különös megterhelés, ezért teljesen reális esélyed lesz a második diszk halálra egy 3+ éves diszkes, és minimum 2-3 napos rebuild idős tömbnél. Az esélyre akkor is készülni kell, hogy ha "óhát még sosem volt ilyen, pedig eeekkooooora tömbökkel, meg eeekkoooooa diszkekkel van állandóan rebuild". Különösen akkor lesz izgalom RAID5-nél, ha esetleg az első 4-5 évben elkerült a diszk halál, és egy mégöregebb tömbnél kell 2 napot tekernie minden diszknek vadul. Ha esetleg lesz probléma, és csak 100TB elröppen, akkor nagy szomorúság lesz, és hirtelen a RAID6 baromi olcsónak fog tűnni. Eleve arról beszélgetünk, hogy 140k nettós diszkből kell minimum 15db egy tömbbe, plusz minimum coldspare (az egyszerűség kedvéért, tehát akár ennél jóval több is lehet mindenféle konfigtól függően), és 2,1 millió (+coldspare) nettónál "spórolsz" 140k-t miközben elég vakrepülésbe fog átcsapni.
- A hozzászóláshoz be kell jelentkezni
Jogos, igazából tényleg nem éri meg ezen spórolni, a RAID6 jobb megoldás.
Nagy Péter
- A hozzászóláshoz be kell jelentkezni
A RAID5 azért vészes, mert túl nagyok a lemezek. Egy 16-20 TB-os lemez cseréje alatt simán megáll egy másik, és akkor vége a dalnak. Ráadásul ha nem is áll meg, de diszk csere alatt nincs redundancia, szóval mehet mindig a körömrágás, hogy ugyan lefut-e vagy sem... Ez a feszkó senkinek sem hiányzik. Nem attól lesz gazdaságos, hogy egy paritás lemezt megspórolunk, pláne nem ilyen tárolási kapacitásnál.
Már 2008-ban megszületett az első cikk arról, hogy a RAID5 halott, a nagy lemezek miatt. És akkoriban 2-3 TB-os méretet értettünk a nagy lemez alatt.
Én személy szerint 2 TB-os lemezméret felett csak RAID6-ot (RaidZ2-t) használok. Ahol van hely, ott plusz hot spare, ahol nincs erre hely, ott polcon csere diszk. 2 TB alatt meg általában csak sima tükör szokott lenni, hidegtartalékkal.
Egyébként én sem a kevés óriási diszek megoldást preferálnám. Már csak amiatt sem, hogy a kapható legnagyobb lemezek általában nem a legjobban HUF/TB mutatóban. Ellenben használd diszk dobozt meg külső portos SAS vezérlőt lehet normális áron venni aklár újonnan, akár használtan, és akkor lehet több, kisebb lemezzel számolni, és valamivel rövidebb helyreállási időkkel diszk hiba esetén. Az, hogy ez mennyit fogyaszt, egy dolog. Vagy online elérhetőség lesz, vagy alacsony üzemelési költség.
Az is egy lehetőség, amit más is említett már, hogy több színtű tárolás: minden legyen kint szalagon, és egy jóval kisebb kapacitású NAS-ra töltse be egy erre készített rendszer (ami akár lehet egy Python progi plusz adatbázis...) a kért anyagokat. Sőt, ez esetben akár olyan gyors NAS is építhető, amiről akár dolgozhatnak is, ne kelljen külön SSD-re kimásolni még a szalagról visszatöltött anyagot.
- A hozzászóláshoz be kell jelentkezni
Ekkor 200TiB nettóval számoljunk, ami 20TiB mérető böszmeállat lemezekkel 10 darab plusz a redundancia, erre minimum kettő paritás és legalább egy hotspare, azaz 13 darab diszk a dobozba - minimum, de kétszer 5+2+1 (raid6+hot spare) tömb sem ördögtől való - ehhez elég két darab 8 diszkes tárolótömb, ami tud raid6+hot spare felállást meg iSCSI-t, és a két iSCSI LUN-t egy szerevren összefogni LVM-mel vagy két külön ~100TiB méretű tárhelyként.
- A hozzászóláshoz be kell jelentkezni
Köszönöm mindenki válaszát. Nem is sikerült mindent elolvasni. Ami így eszembe jut. Több NAS-on tárolva felépíteni a rendszert egész jó ötletnek tűnik. Nem kell számolni terheléssel mert nem ezen a rendszeren dolgoznak, ide nyersanyag és kész anyag kerül fel. Viszont hosszabb idő ( több hónap vagy akár egy év ) míg aktívabban is kell vissza-vissza szedni anyagokat, de kb. egy folyamat fogja egyszerre terhelni. Ha NAS akkor Synology, azt már ismerjük és igazából mindent tud amire itt szükség lehet. Offsite mentésnél az adatok egy része soha nem fog változni, tehát ha mondjuk 5-8 NAS-ban gondolkodunk akkor lehet, hogy 3-4 amikor megtelt az gyakorlatilag többet nem fog változni. Viszont itt meg jó ötlet az, hogy akár ki is lehet kapcsolni és csak időnként felébreszteni egy-egy frissítésre és lemez ellenőrzésre. Valahogy a másoljuk ki lemezekre és tegyük a szekrénybe és nem nagyon hiszek. A pendrive, USB HDD, ami pakolva és mozgatva van egyszer csak jön valami és ha netalán mentésből kell helyreállni és nincs meg az adat az elég ciki. Bár több NAS-ra elosztva, RAID-ben azért elég kicsit az esélye, hogy mentésre legyen szükség meghibásodásból adódó progléma miatt. Köszönöm mindenki hozzászólását.
- A hozzászóláshoz be kell jelentkezni
Az UPS-ekre figyeljetek, tényleg legyenek akár külön-külön UPS-en ha párhuzamosan mennek, illetve rendesen álljanak le áramszünetkor.
Offsite mentés az kevesebb nagyobb kapacitású NAS, de lehet hogy inkább oda a szerver jobb választás (pl. a duplatáp miatt). Azt sem tartanám ördögtől valónak, ha lenne egy onsite mentés, akár egy naaaagy Syno NAS-on ÉS mellé lenne egy offiste. Ez annyi adat, és nehezen pótolható, hogy valszin bőven megéri az extra biztonság.
- A hozzászóláshoz be kell jelentkezni
ha az ugyfelnek nincs penze engedd el, mert csak te sz*pod be, ha kicsit kolt akkor olcsobb megoldas ahogy itt mar mondtak a synology "cluster" es ahogy irtad neked is szimpatikus.
Mindenkepp kell melle szalagos mentes mert a ransomeware nem kerdez csak buntett es itt irtak a CHS-t de barati korben is megjarta karacsonykor egy ismeros. Nem volt szalagos mentes, mindent vittek.Meg a storage-ra is csinaltak sajat fiokot. Ez ellen semmit nem tudsz tenni eszre se veszed ha honapokig vannak bent.
Ha kicsit tobb penz van lehet epiteni SDS megoldast valami ingyenesbol [software defined storage] termessetesen tobb szerverbol osszerakva.
Synology azert jo dontes mert jelenleg 7 ev tamogatas megvan ra, de szalagrol kerlek ne mondj le, mert a kivett tuzbiztos pancelba rakva a legjobb megoldas.
Volt melohelyemen, az osszes fontos irat 180 perces pancelban volt, es egy LTO szalagon elfertek a legfontosabb adatok [vmware vm szerverek levelezes es doksik] azokat havonta kivettuk a tarbol es ment a pancelba, kb 3-4 szalag volt emlekeim szerint. Igen csak havonta, de legalabb ment.
UPS ele meg kell egy jo 3 szintes tulfesz levezetes. Ami az UPS-ben van az keves. Mindenkepp szinuszos.
Ahogy olvastam siman le lehet allni egy karbantartasra ezen sokat lehet sporolni.
Synologyt igen ki lehet kapcsolni, de havonta naptarbejegyzes a bekapcssolasrol es a frissitesrol, mivel egymasra epuloen kuldik ki azokat. es egyes ransomware-ek szeretik a nem frissitett synologyt
Eloszor mindig egy munkallomasra mennek be es varnak ha kell honapokat, kiepitenek mindent onnet tovabb, vagyis meglesz az admin jelszo amikor belepsz ra eloszor.
Van hogy csak azert lepnek be es vannak bent honapokig hogy "gyakoroljanak" ok penzt se kernek, egy cimboram igy jart. Visszafejtettek 4-5 honapig csucsultek bent naluk es vartak gyujtottek a rendszerrol az adatokat.
Egy normalis mikrotik olcso ami tud tobb G-s kapcsolatot, berakva a synologyk es a ceg mas halozatai koze, minden tiltva konfiggal ami nem fontos, csak synology update szerverek fele kiengedve illetve smb. Nem hulyeseg a mikroszegmentacio ha az adatok fontosak.
Jo olvasni hogy van aki kerdez.
- A hozzászóláshoz be kell jelentkezni
Szia! Köszönöm a választ. Persze, hogy kérdezek mert tőlem is kérdeztek, de ebben a méretben nem vagyok jártas. Van egy másik munkám, ott filmfesztivál szervezésében segítek, de ott is max. 8-10TB cucc gyűlik össze, amit itthon egy polcon megoldok egy HP Micorserverrel meg egy Synologyval. Ügyfeleknél 1-2TB mentendő adat van ügyfelenként, az is rutinosan megoldott.
Itt is filmes anyagról van szó, de el kellene tenni a kameráról lekerülő nyersanyagot és az elkészült videót, projektet és kapcsolódó anyagokat. Alapvetően ezzel a hegyekben álltó 2-4TB winyókat kellene kiváltani. Viszont az aktív vágás nem erről használva megy, akkor teljesen más lenne a felállás mert ott azért hálózatban és elérési időkben is nagyon más kellene.
- A hozzászóláshoz be kell jelentkezni
Én még azt sem tartanám rossznak, hogy a nyersanyag, köztes állapot, és késztermék külön-külön NAS-okra menne, hogy ha gáz van, akkor csak kis eséllyel füstöljön el minden. Ilyen méretben szerintem a gondolkodás sokat számít, mert kis odafigyeléssel nagyban csökkenthető a problémafaktor később.
- A hozzászóláshoz be kell jelentkezni
Az is jó lehet, bár ilyen felosztásban szokott előjönni az, hogy "itt elfogyott a hely, ott még van, akkor átmenetileg azt is oda..." - és örökre ott marad.
A ransomware-ek ellen én valami webes felületet csinálnék, ahol a jogosult user "kivehetné" a tárolóból a számára szükséges fájlt, ezt a háttérben az alkalmazás kimásolná egy akár SaMBa-n megosztott területre, _és_ bejelölné, hogy "feldolgozás alatt", aztán amikor a dolgozó végzett, ugyanígy jelezné, hogy visszarakható a fájl, és az alkalmazás visszamozgatná az rw területről a kliensek által direktben nem elérhető területre, az előző verziót még x ideig (esetleg) megtartva, illetve az így visszakerült megváltozott fájl a napi mentésbe is beleforogna.
- A hozzászóláshoz be kell jelentkezni
"A ransomware-ek ellen én valami webes felületet csinálnék" Jaja, konkrétan ilyen archiválót írtam anno. Elég móricka felülete volt (van? Asszem már lecserélték), de amennyire lehet, bolond- és ransomware biztos megoldás.
- A hozzászóláshoz be kell jelentkezni
Bárhogy osztja el az ember, mindíg eljön az elfogyós probléma. Hiszen eddig csak 2k-ban forgattak, de mosmá 4k, és jajj akkor legyen már 120fps ennél a projektnél, aztán lehet pillázni a méretektől.
- A hozzászóláshoz be kell jelentkezni
Én arra céloztam, hogy munkafázisok szerint felosztott tárterületnél ha az egyikben elfogy a hely, de a másikon még van, akkor tótzicsi, hogy "átmenetileg" oda fognak pakolni nem oda tervezett dolgokat is...
- A hozzászóláshoz be kell jelentkezni
Kamerán a nyersanyag mire készül? Na azt a médiát tegyék el, kész is vagyunk.
Gábriel Ákos
- A hozzászóláshoz be kell jelentkezni
Meg a munkafázisok során x óra alatt keletkező köztes fázisokat is "célszerű" elrakni, legalább addig, amíg az adott köztes állapotra bármilyen okból vissza kell lépni a feldolgozásban/utómunkában.
- A hozzászóláshoz be kell jelentkezni
hat digit vilagban vagy ssd/hdd van a kameraban vagy hozza van csatolva egy kulso ssd/hdd rogzitohoz, szoval az nem hiszem hogy opcio
regen sd felbontasnal meg a dv kazettas arhivalas jo moka volt, bar az sem olcso hdd-hez viszonyitva.
- A hozzászóláshoz be kell jelentkezni
egy dolog meg ne otletelj nem kell lefejleszteni semmit, Magyarorszagon tudomasom szerint 2-3 olyan ceg van aki kimondottan filmes cuccokkal foglalkozik, Nagyarorszagon jelen levo Tv-knek es filmforgatasokhoz, de azok egy nullaval nagyobb szamok a synonal, nekem is nagy szam volt 10-50TB os adattarolas 5 eve el se tudtam kepzelni most meg "napi" szinten petas rendszert hasznalok. Fel lehet noni mindenhez,csak hagyjuk el a garazsbolti megoldasokat, amikor mar nem a panelba a szomszed laptopjat csinaljuk meg.
Visszaterve a forgatason azonnali backupra is kesz "NAS" van. amire azonnal mehet a mentes. Hidd el nem szeretned azt mondani, "upsz" Oda en megvennema kesz cuccot,tamogatssal stb. vagy lehet ezeket berelni is a forgatasi idore, es onnet nem az en "fejem faj", mert a berleti szerzodes vedi. ezek "par" TB-os Nas-ok.
Egy komolyabb forgatason van par statiszta par szinesz operator vilogosito sminkes stb, ezeket ujra osszerantani, mert "barkacs" megoldas nem mukodott... Ne neked kelljen kifizetni :)
Egy kis darabnak jelenetnek oranknent akar tobb szazezer is lehet a dija. Legolcsobb a statiszta rakeresel a neten talalsz arakat.
Ha megvan a lehetoseg privatban adhatok elerest ilyen cegekhez csak vastag penztarca kell hozza es nem fogod megkerulni oket, mert itt meg mukodik a "kizarolagossag" mert a gyarto azt mondja te csak listaaron vehetsz nem fog magaval kibaszni hogy a pici magyarpaicot tovabb darabolja es par ev mulva meg mar te se tudsz eladni mert a lenyomott arba nem fert bele a kollegak kepzesenek a koltseges repuloutja.
- A hozzászóláshoz be kell jelentkezni
Ha jól értem, akkor ne foglalkozzon a megkereséssel, mert van már aki ilyent csinál, és nekik kell szólni, hogy az árrésük ne szenvedjen csorbát az újabb piacra lépő szolgáltatók miatt? No, akkor én rendszer üzemeltetéssel foglalkozok, így innentől senki ne vállaljon ilyesmit, mert az az én piacomat szűkíti, hanem küldje hozzám az ügyfelet, tudok adni elérhetőséget privátban...
Na ne vicceljünk már!
Azokban a cégekben is emberek dolgoznak, nem csodalények. Ha Ők meg tudják oldani a feladatot, akkor valószínűleg más is. Rendesen megtervezett rendszerrel nincs min aggódni. Ne már, hogy csak ez a 2-3 cég tud rendes, filmeseknek való adattárolást megoldani, más meg ne is álmodjon ról,a mert úgy is elrontja... Miért lenne egy bárki által összeállított rendszer barkács megoldás? Azért mert nincs ráírva, hogy "kifejezetten filmkészítési célra épült"? Azok pont úgy születtek, hogy felmerült egy igény, és terveztek rá egy rendszert. Az a rendszer bevált, így ugyan arra az igényre másnak is eladták... Pont mint minden más rendszer születése. Nincs itt semmi csoda. Ha a megrendelő elmagyarázza a munkafolyamatot és az igényeket, akkor egy szakember (vagy szakemberek csoportja) tud hozzá megfelelő rendszert tervezni, szállítani.
Ráadásul, ahogy a legelső hozzászólásomban is írtam, nem csak a nagy filmstúdiók vannak már ezen a piacon. Rengeteg 1-2-pár fős, filmezéssel, videós dokumentálással foglalkozó kis vállalkozás van, ahol a munka és technika jellegéből adódóan rengeteg videó anyag keletkezik nagyjából függetlenül a létszámtól. Nem csak játékfilmeket forgatnak már napi sok milliós költségvetéssel...
- A hozzászóláshoz be kell jelentkezni
Neked is igazad van, de szerintem nem erre gondolt. A vágószoftver készítő cégeknek van saját márkás komplett tároló rendszerük. Persze az is szerver alapú, de a szoftverhez igazított vagy szoftver ahhoz. Ott azért vannak követelmények főleg a 4K és feletti világban. Ha erre kellene cucc akkor én is adtam volna egy telefonszámot és részemről letudva a probléma. Másik meg, hogy a gyártók valóban védik a partnereiket, egy-két céggel szerződnek csak és nem is fognak másnak árat adni. De ez nem csak ott egyedi dolog, van olyan vírusvédelem gyártó is akihez hiába megyek árat kérni, ha valaki már bejelentkezett azzal a vevővel ( mert megkérdezik kinek akarom eladni ) akkor a legelső kap normális árat, én másodiknak annál csak rosszabbat kaphatok.
- A hozzászóláshoz be kell jelentkezni
Szövegértelmezésk kötözködés nélkül
minek rakod össze ha már más megcsinálta, olcsóbb tudsz lenni?
Be tudsz törni a piacra?
Jobbat és megbízhatóbbat tudsz?
Támogatásod 24/7-ben megoldható van rá elegendő mérnököd és fejlesztőd?
ha ezekre a válasz igen akkor hajrá! Őszintén mindig örülök/örültem neki ha magyar vállalkozásokkal lehet együtt dolgozni!
... egyébként csak felesleges idő és pénzkidobás. Nagyon kevés cég tud jó terméket letenni az asztalra. Igen vannak kis cégek, ezzel nincs is baj, csak ha már mások implementálták úgy adják el hogy támogatás is van rá, akkor miért is jó nekem újra feltalálni a spanyol viaszt, nekem ilyenekre nincs időm.
pld nagy teljesítményű tárolók, megveszed és kötsz rá támogatást, ne adj isten támogatott hardware-re is telepíted ami legtöbb gyártónál elvárás is:
https://sourceforge.net/software/software-defined-storage-sds/
Emlékeztem a számokra valahonnét, beugrott,
Igy néz ki egy ilyen közbesz kiírás amit azért tudjuk egyszerűsített: (ne politizáljunk, köszi :) )
https://www.kozbeszerzes.hu/ertesito/2021/0/targy/portal_414/megtekint/…
- A hozzászóláshoz be kell jelentkezni
és ha igen?
- A hozzászóláshoz be kell jelentkezni
Van olyan, hogy nem mindenkinek van igénye arra a szintű megoldásra, arra a szintű support-ra. Meg ennél gyakrabban van olyan, hogy igény ugyan lenne rá, de nem tudja megfizetni, mert még nem annyira tőkeerős a cég, hogy megtehesse. Akkor nekik pályát kell váltani, mert ha nem tudnak profi cuccot megvenni, akkor mit keresnek azon a piacon?
Én azt gondolom, hogy ha van egy igény és azt egy szolgáltató ki tudja elégíteni, akkor a mondat végére pont került akkor is, ha az igény és/vagy a szolgáltatás nem az adott területen elérhető legprofibb.
Amennyiben növekszik az igény, akkor vagy felnő hozzá a szolgáltató, vagy másikat keres a helyére a megrendelő. Aki az általad favorizált filmes rendszereket gyártja, egészen biztosan nem ezen a szinten kezdte. Aki az Ő rendszereiket veszi, biztosan nem úgy indultak, hogy no akkor holnap indítjuk az új filmes vállalkozást és hívjuk az adott terület legprofibb informatikai szolgáltatóját, mert kevesebbel nem érjük be.
- Én elképzelhetőnek tartom, hogy lehet olcsóbb az "új" rendszer, pláne akkor, ha a drágább (mindent is tudó, kiforrott, sok megrendelő minden igényét kielégítő) rendszer nem minden szolgáltatására van szükség és azokat el lehet hagyni. De akár minden szolgáltatással sem kizárt, hogy olcsóbban is meg lehet csinálni azonos minőségben.
- A piacra betörés nem úgy van, hogy eldöntöm és betörök. Csinálok egy terméket/szolgáltatást és vagy népszerű lesz, vagy nem. Ha jól sikerül, az adott szakmai körön belül híre megy, és az új megrendelések hozzám jönnek, esetleg lesz, aki vált az addigi megoldásáról is.
- Nem feltétlen kell jobb és megbízhatóbb, ha az elérhető megoldások már jók és megbízhatók. Vagy ugyan azt adom olcsóbban és/vagy adok még valami pluszt amit a meglévőek nem tudnak de a megrendelőnek igénye van rá.
- A támogatás meg a fejlesztők száma szerintem előre nem definiálható. Az adott projekt elvárásait kell teljesíteni, nem többet nem kevesebbet. Mi van azokkal a rendszerekkel, amiket 8-17 között használnak? Arra nem kell 0-24-es támogatás. Mi van a redundanciával? Ha jól van tervezve, akkor nem kell rohanni hiba esetén. Ha meglévő "építőelemekből" rakok össze egy rendszert, akkor nem kell egy csomó klasszikus fejlesztőmérnökkel rendelkeznem, nem kötelező mindenre egyedi hardvert és szoftvert fejleszteni, ha a szolgáltatás előállítható meglévő építőelemek kombinálásával is.
2005 magaságában egy ügyfelünknél IBM Tivoli Storage Manager szoftver futtató rendszert vettek adatmentési célokra (eredeti IBM szereverrel, szalagos egységgel, mindennel ami kell hozzá). De nem kértek beüzemelést, az ajánlatot is úgy kérték, hogy saját IT tudja telepíteni, üzemeltetni. Mi más területen dolgozunk nekik, és jött az ötlet, hogy majd mi beszállunk a beüzemelésbe a helyi IT mellé. Küzdöttünk is vele vagy 3 hónapot sikertelenül. Support volt, doksi volt, segítettek is folyamatosan, a licenc ki volt fizetve, nem volt semmi kerülőút vagy spórolás (nem követelte meg a gyártó, hogy csak partner üzemelheti be). De csak nem kelt életre. Na jó, hát nem vagyunk elég okosak, sem mi sem a helyi IT-s csapat. Mikor már nagyon el voltunk keseredve mi is és az ügyfél is, akkor megkeresték a szállító céget, hogy mégis kérnék a rendszer üzembe helyezését, mert nem megy annak ellenére, hogy direkt user által üzemeltethetőt kértek. Ők további 3 hónapot dolgoztak rajta - sikertelenül. Egy bitet nem mentett le a rendszer 6 hónap intallálás során. Mindezt egy olyan "összetett" rendszeren, ami egy szem szerverből, benne a szalagos egységből és a rá telepített szoftverből állt... Sajnos nem derült ki, hogy pontosan mi hiányzott a sikerhez, mert az ügyfél megunta, és lefújta a projektet.
De a mentést meg kellett oldani, találjunk ki valamit. Erre én vettem két Intel barebone szervert, tettem rájuk FreeBSD-t, arra Bacula adatmentő rendszert. Egyik volt a fő backup, a második az "offsite" egy másik telephelyen. 10 évig üzemelt ez a megoldás, és a rá költött pénz kevesebb volt, mint a Tivoli licenc ára hardverek nélkül.
Namost ez nem az én hozzáértésemről szól, hanem arról, hogy a nagy gyártók kiforrott szuper rendszerei is support-ja sem csodaszer. Azt is emberek készítették és emberek támogatják. Így ennél az esetnél is létezhet, hogy a megrendelő számára olyan rendszert ad át a szállító, amit megelégedéssel használ annak ellenére, hogy nem a filmes iparban bevett, nagy nevű 2-3 cég szálíltotta.
Végül is, mi a francnak állt neki a Microsoft SQL szervert fejleszteni, mikor ott volt az Oracle DB. Minek kezdte el Linus Torvalds a Linux fejlesztését, mikor ott volt az SCO UNIX is meg az MS DOS is és akkoriban már a Windows is kereskedelmi termék volt. Minek álltak neki az LTO-nak, mikor már majd 10 éve elérhető volt a DLT és a Super DLT, hasonló kapacitással, minek jött a React, mikor az Angular mindent is tud? És még sorolhatnám. Ez az "inkább perkálok, és nem találom fel újra a kereket" szerintem nagyon nem releváns az informatikában...
Halál komolyan belinkeltél egy állami intézmény által konkrét megvalósításra (valószínű konkrét kivitelezővel) kiírt tendert amiben tételesen fel vannak sorolva a szállítandó eszközök? Jó, hogy nem gyári számmal tűntették fel, mit kell vinni.
Ezt egy olyan topikba, reagálásnak, ahol annyi az információ, hogy egy szolgáltató/üzemeltető megkeresést kapott valakitől 200 TB videó anyag tárolásának megoldására.
Meg maga a kiírás is érdekes... Bővítés kell, de 300 TB NVMe tárolóval... Mit bővítünk? És minek ekkora kapacitás a leggyorsabb NVMe tárolóból? Egy archiváló rendszerbe? Mennyire releváns ez bárki másnak? Egyáltalán, ez hogyan támasztja alá, hogy nagy, filmes iparban jártas cég szállítson csak ilyesmit, mert egyébként ráfarag a megrendelő?
- A hozzászóláshoz be kell jelentkezni
Akkor truenas, ZFS, 8 / vagy 12 lemezes házzal , 1vagy 2 hba kártya, raid6, pl .seasonic táp, valami jobb alaplap , csavarhúzó, 18TB SEAGATE 3.5 darabja kb 100 ezer netto, oszt jó napot.
- A hozzászóláshoz be kell jelentkezni
Namost ez nem az én hozzáértésemről szól, hanem arról, hogy a nagy gyártók kiforrott szuper rendszerei is support-ja sem csodaszer.
Mindig is mondtam, hogy ha ismered a mtx/mt/tar/dd/ssh parancsokat, és van némi scriptelős tapasztalatod, néhány nap alatt jobb backup rendszert összekalapálsz, mint a piacon lévők 99%-a, ráadásul testreszabva. Ha neadj' Isten SQL a barátod, akkor egy sqlite adatbázisban egy rendes inventory-t is tudsz csinálni.
Persze ha windowsokat kell menteni, akkor arra kell valami más megoldás. (Kivéve ha HyperV VM-ekről van szó)
- A hozzászóláshoz be kell jelentkezni
"Ha neadj' Isten SQL a barátod, akkor egy sqlite adatbázisban egy rendes inventory-t is tudsz csinálni. " - hahaha... Havi archív 12-15 millió fájl, plusz a napi forgóban kirakott mentések, plusz plusz, plusz... Na ezt eskúlájtban meg "kicsit scriptelgetve" nem fogod összerakni.
A "testre szabva" meg addig előny, amíg az, aki "testre szabta" elérhető.
- A hozzászóláshoz be kell jelentkezni
Ez így van, de abba a verembe se essünk bele, hogy egy pár fős kis cég igényeire mindig olyan válaszokat adunk, ami 10000 fő körüli cégekre van szabva :)
- A hozzászóláshoz be kell jelentkezni
+1, bár ha a pár fős cégnek olyan igényei vannak, mint a 10000 fő körüli cégeknek, akkor a szóba jöhető megoldások is hasonlóak lesznek. :)
- A hozzászóláshoz be kell jelentkezni
Messze nem kell ekkora létszám hozzá, "csak" az, hogy rengeteg doc/xls/csv/xml/jóégtudjami fájl keletkezzen/kerüljön hosszabb távon tárolásra - és az archívba minden esetben full mentés kerüljön.
- A hozzászóláshoz be kell jelentkezni
Ha a többmillió fájl nem egy backup eredménye, hanem sok teljesé, akkor az inventory sem egyben van (remélhetőleg).
- A hozzászóláshoz be kell jelentkezni
Nyilván van olyan feladat, amikor "rendes" megoldás kell, de most feltételeztem a kifejezetten nagyméretű videófájlok méretét és számosságának feltételezhető nagyságrendjét, sőt gondoltam arra, hogy a fileoknak lehetnek olyan attribútumai, amit egy átlagos backup rendszerbe nem tudsz beletenni (pl. forgatás projekt; helyszín; típus: nyers, vágott, renderelt; felbontás, fps). Ha ezek egy szimpla adatbázisba belekerülnek, sokkal egyszerűbb így visszakeresni.
A "testre szabva" meg addig előny, amíg az, aki "testre szabta" elérhető.
Ha egy nyílt backup rendszert, aminek látod a <1k LOC scriptjét, egy néhány táblás adatbázissal odateszel egy átlagos üzemeltető elé, néhány oldalas dokumentáció mellett; és nem ugorja meg a továbbüzemeltetését, akkor ott valami nagy baj van szerintem.
- A hozzászóláshoz be kell jelentkezni
"Ha egy nyílt backup rendszert, aminek látod a <1k LOC scriptjét, egy néhány táblás adatbázissal odateszel egy átlagos üzemeltető elé, néhány oldalas dokumentáció mellett; és nem ugorja meg a továbbüzemeltetését, akkor ott valami nagy baj van szerintem."
Addig nincs baj, amig nincs baj. Akkor van baj, ha baj van. És ha az eredeti fejlesztő már nem érhető el, vagy épp valamelyik komponens visszafelé nem kompatibilis módon változik, és utána kell menni... (Volt ilyenhez szerencsém: az "ls" parancs változott Linuxban, adott sorminta paraméterezés mást jelentett - a scriptet hívó program meg az kimenetet formázott táblázatként próbálta értelmezni - path-ra fel kellett rakni egy régi (nagyjából két főverzióval korábbi disztróból) ls parancsot - meg lett oldva egy jól irányzott scripttel, de szép az nem lett...)
- A hozzászóláshoz be kell jelentkezni
Persze, van ilyen. Megtréfált már egyszer a 24h/12h időformátum is (fel nem tudom fogni, miért használ bárki is rendszeridőt AM/PM formátumban). De ezzel is javult a rendszer: mindenhová bekerült egy dátumlekérés standard formátumban.
Illetve ezért használunk régi, jól bevált, vélhetőleg örökre állandósult parancsokat: mtx, mt, tar, dd. Ezek nem annyira gyakran változnak.
De ugyanezzel az erővel egy gyári szoftver körülményei sem bebetonozottak: Windows verzió, .NET, mindenféle SDK, DLL könyvtárak, urambocsá' JAVA verzió, azért ott is eltörhetnek dolgok..
- A hozzászóláshoz be kell jelentkezni
Nem az a kunszt, hogy "békeidőben" valaki képes-e megtanulni egy egyedi rendszert, vagy tudja-e debuggolni némi betanulás után, hanem amikor beüt a szar, akkor lesz-e idő erre a betanulásra.
Igazából arra sincs garancia, hogy a restore annak a feladata lesz éppen, aki a backup rendszert üzemelteti. Lehet, hogy éppen nyaral. Ideális esetben legalább 3 embernek kéne ismernie a rendszert, lesz erre kapacitás a cégnél?
- A hozzászóláshoz be kell jelentkezni
Értem amit mondtok, nem is kötözködni akarok, csak az nem világos, hogy ebből a szempontból miért van előnye egy "dobozos" rendszernek, amikor azt is valahogy "fel kell varázsolni" (ami sokszor nem is triviális, ahogy a fenti példák is mutatják), üzembehelyezni, rendszerbe illeszteni, mentési struktúrát / szabályokat / folyamatokat alkotni és dokumentálni, DR-teszteket dokumentáltan végezni, napi szinten üzemeltetni, és a sokszor nem egyértelmű apróságokra figyelni?
Vagy ha és híres gyártók híres termékét használjuk, és amikor beüt a szar, mitől lesz automatikus, hogy azon a konkrét infrastruktúrán, ami elé odavezényeltek egy helyreállításra, rögtön egyértelmű lesz minden, akár nekem, akár a gyártó felhívott - helyismeret nélküli - supportos kollégájának?
Amúgy dolgoztam Tivoli / Netbackup-pal, tehát nem arról van szó, hogy elzárkózom az ismert termékektől.
- A hozzászóláshoz be kell jelentkezni
> Ők további 3 hónapot dolgoztak rajta - sikertelenül
hasonloban nekem is volt reszem... feladat 1xu: egy ibm blade szervert rakotni egy cisco switchre. nehez, mi? hat az volt.
- helyi IT hamar feladta
- ibm supportos it parszor nekifutott aztan elfutott
- cisco-s it elkerte a speckokat es a konfig fileokat aztan nem vallaltak
vegul en egy delutan alatt osszekonfoltam, es nem azert mert en akkora szupersztar vagyok, csak elolvastam a manualjaban a cisco-ra vonatkozo fejezetet :)
(amugy nem volt trivialis, magamtol en s ejottem volna ra, volt valami inkompatibilitas (=bug) a spanning tree implementaciojukban, es ha osszedugtad a ciscoval, akkor a cisco ettol fejreallt, ahogy ezt sok alkalommal megtapsztaltak a kulonbozo csapatok)
szoval nem mindig/feltetlenul a gyarto a hulye, neha csak a supportot nyujto ceg az.
- A hozzászóláshoz be kell jelentkezni
Nem IT, de amikor a hiperszuper Bosch Condense gázkazánunkhoz kellett volna illeszteni a napkollektoros HMV tároló hőérzékelőjét, hívtam a kazán üzembehelyezőt:
- Ez a villanyszerelő dolga.
Hívom a villanyászt, dugja már össze nekem.
- Ez a kazán üzembehelyező dolga.
Megadtam nekik egymás számát, hogy boxolják le. Kint voltak mindketten, nem működött.
Este berágtam, felcsaptam a manuált, beállítottam egy jumpert és rádugtam az alaplapra az érzékelő kábelét. Elsőre működött.
És most jön a fordulat: a magyar nyelvű guide-ban a rajz rossz helyre mutatott, egy ugyanolyan csatlakozóra csak máshol. Én meg az angol nyelvű doksi alapján csináltam, mert a magyart elvitték magukkal tanulmányozásra.
A tanulság még mindig az RTFM :)
- A hozzászóláshoz be kell jelentkezni
Írtál a bosch magyar részlegének, hogy ugyan bizony szar a leírásuk és különben is basszák meg az anyjukat? (nekem is ilyen kazánom van, csak szimpla hmv tartállyal nem napkollektoros melegítéssel)
Ez a tilitoli meg tipikus, mikor 1nél több fasz iparosnak kéne együtt dolgoznia. De sajnos mégsem döglenek az ilyenek se éhen ebben a trágya orszagban, és rogyasig vannak kuncsafttal.
- A hozzászóláshoz be kell jelentkezni
Economy of scale: lehetsz okosabb az AWS-nél de nem valószínű h valaha is labdába fogsz rúgni.
Gábriel Ákos
- A hozzászóláshoz be kell jelentkezni
Azért itt nem erről lenne szó, meg előzőleg sem ez volt a probléma. A topiknyitó valszin egy büdzsé-büdzsé megoldást rakna össze, és lehet, hogy ettől is erősen felszisszen a kedves megrendelő, mert óhát aszitte ez már olcsó manapság. Ezzel szemben a rommá szupportált SDS, FC meg SAS meg SSD meg NVMe "buzzword"-okkel leszórt hipermegoldás pláne overkill lenne valszin. Bármennyire kompromisszumos, ez fedi le valszin az igényeket, és persze a korlátokra fel kell hívni a végfelhasználó figyelmét. Csak az olcsón jót gyorsan örökzöldet lehet felhozni. A termékfejlesztés nem tudom hol jött be a képbe, mert itt gyakorlatilag kivitelezés volt.
Az AWS, vagy más felhős cucc eleve nem játszik valszin. Nemcsak a tárolás milyensége lesz problémás, hanem a használt sávszél ára.
- A hozzászóláshoz be kell jelentkezni
Az AWS, vagy más felhős cucc eleve nem játszik valszin. Nemcsak a tárolás milyensége lesz problémás, hanem a használt sávszél ára.
UPC 25Mbit upload... :)
- A hozzászóláshoz be kell jelentkezni
Félreértettétek, a méretgazdaságosságról beszélek.
Ha van már egy robotos mentésed ami naponta x TB-ot le tud túrni szalagra akkor még egy ügyfelet kb. Nulla forintért be tudsz vállalni. Ahhoz képest mindenképpen mintha neki is meg kéne venni a robotos infrastruktúrát.
Gábriel Ákos
- A hozzászóláshoz be kell jelentkezni
Nem erre gondoltam. :) Ráadásul az AWS lefelé charge-ol.
Ha mondjuk 10TB/hónapot kell letölteni, akkor csak az adatforgalom USD 900. Ebben a gáláns 100GB-os ingyencuccuk nincs benne. :)
- A hozzászóláshoz be kell jelentkezni
Itt ilyenről szó sincs. Én nem gondolom, hogy az AWS-nél, vagy akár a nagy magyar filmstúdióknak beszállító szakosodott cégnél okosabbnak kell lenni.
Én annyit állítok, hogy az nem igaz, hogy csak akkor lesz megoldás a problémára, ha ilyen céget kér fel a megrendelő, és minden egyéb esetben bukás vár rá.
A LaCie videó szerkesztést támogató 50 ezer dolláros tároló megoldásainál azért barátibb összegből is meg lehet oldani 200 TB videó anyag biztonságos tárolását, ha az ember hajlandó vele dolgozni egy kicsit. És nem fiókba pakolt több 10 db HDD-re gondolok, mint olcsóbb megoldás.
Mi bizonyos partnereinknek nyújtunk "felhős" e-mail szerver szerver megoldást. Proxfix-Dovecot-Roundcube. Szolgáltatásban levelezni tud, slussz. Messze-messze elmarad a legkisebb O365 csomag tudásától. De amikor az ügyfélnek ennyire van szüksége, akkor ezt adjuk, és eltesszük azt a havi 1000 Ft-ot fiókonként, ellenben az O365 legolcsóbb szolgáltatásán eltehető 100 Ft-tal, amiből az ügyfél pont ugyan ennyit használna...
Szerintem mindenkinek van helye a piacon úgy megrendelőként mint szolgáltatóként. Nem tud mindenki bármelyik szolgáltatótól vásárolni és nem tud minden szolgáltató bármilyen ügyfél igényt kielégíteni.
- A hozzászóláshoz be kell jelentkezni
Összedobnék alá egy BeeGFS klasztert, mert a nap végén az SSD-re másolunk és ott majd dolgozunk vele biztosan lassú lesz. PM, ha kell ilyen megoldás.
- A hozzászóláshoz be kell jelentkezni
Nagyon hasonló, konkrét esetről tudok, amikor úgy megy a dolog, hogy amivel dolgoznak, azt átmásolják ssd-re, ott dolgoznak vele pár hétig, hónapig, aztán visszamásolják. (Vagy sem, mert a forrásanyag nem változott - non destructive editing -, hanem csak a projekt(*), sokszor annyit, hogy ez a snitt akkor legyen két kockával errébb... nem, mégis inkább arrébb.. nem is tudom, stb. stb.)
Nem, nem lassú.
*) az meg eleve mentve van már nemtom hogyan.
- A hozzászóláshoz be kell jelentkezni
Plusz ha az eredeti anyagot nem rw érik el valami cifs/samba megosztáson keresztül, akkor egy ransomware vagy más disznóság nem fogja legyakni csak maximum a munkaterületen lévő másolatokat.
- A hozzászóláshoz be kell jelentkezni
Konkretan a fiokban tartjak :)
Igen, ez a megoldas mar kenyelmetlen, pont azert, mert mar macera a sok disk csereberelese. De sokkal-sokkal jobb tanacsot nem tudtam adni. (Figyelembe veve az adatmennyiseget, a cserebere gyakorisagat es egyeb helyi sajatossagokat, mielott meg valaki a szivehez kapna, hogy NAS! Felho! Ket NAS! Ket felho! Szalag + tiering! meg ami meg elhangzott.)
- A hozzászóláshoz be kell jelentkezni
Nézzük, a Yenkik hogyan csinálják a tenger másik oldalán:
https://www.youtube.com/watch?v=pLC0FUnko-M
éppenséggel ez egy 3.2PB (petabájt)-os projekt, de van kisebb is:
https://www.youtube.com/watch?v=3OpwUnuL6Zk
sőt, akár megépíthető az egész, egyetlen desktop házba is:
https://www.youtube.com/watch?v=FAy9N1vX76o
Azt, azért érdemes szem előtt tartanod, hogy, ha HDD alapú tárolót veszel, akkor a fenntartási költség (villany), az a HDD-k számával egyenes arányban fog nőni, cseébe az indulási költséged töredéke egy ugyanilyen méretű szalagos (LTO) megoldásnak.
A fentiek alapján én inkább azt mondom, hogy nézz meg egy ilyen storinator-t, akár, csak 10-15db HDD-vel, később bővítheted, TrueNAS-sal, szerintem jóval egyszerűbb egyben menedzselni az egészet, mint több, kis NAS-on.
Áramban nem fogyaszt többet, mint a sok kis NAS egyszerre, viszont, ha csak mentésnek kell, akkor beállíthatsz egy scriptet, ami WakeonLAN-nal éjszaka felébreszti a rendszert, lehúzza mentendőt a fő számítógépről, majd elaltatja a rendszert, addig sem fogyasztva a villanyt.
- A hozzászóláshoz be kell jelentkezni
Az első az Truenassal mehet, látszik egy pillanatra a képernyő.
A középső, az a 45 drives-os , https://github.com/45Drives/cockpit-hardware, nekik van egy-két használható addonjuk.
A cockpit zfs managerükkel csináltam itthonra a videoban látottaknál egy kicsit szerényebb zfs NAS-t :-)
https://claryel.hu/2023/02/27/zfs-nas-malna-4gb-os-malna-pc-n/
- A hozzászóláshoz be kell jelentkezni
Az utóbbira: miért, a HDD-nek nincs standby módja talán? Ha a szalagot előásni van idő, akkor a HDD-t felpörgetni amikor kell, arra nincs?
Nyilván tényszerűen igaz amit írsz, mert ettől is lineárisan nő a fogyasztás, de azért a standby fogyasztás kb. SSD mértékű lehet.
- A hozzászóláshoz be kell jelentkezni
RAID-tömb (RAID5 vagy 6, jelen esetben RAID6) esetén b/6-od a standby módot - a fájlrendszerben egy adatblokk írása gyakorlatilag valamennyi diszket megmozgatja.
- A hozzászóláshoz be kell jelentkezni
Látom nem ment át a mondandóm lényege.
Ha a szalag azért alternatíva, mert havonta egyszer kell előásni, akkor 29 napra a HDD is elmehet standby-ba.
Ha nem ez a use case, mert a rendszernek folyamatosan kell dolgoznia, akkor viszont a szalag nem lehet alternatíva.
- A hozzászóláshoz be kell jelentkezni
Ha a rendszernek folyamatosan kell dolgoznia, de az adatok elérési ideje nem kritikus(!), azaz sok perces várakozás is belefér, akkor a szalagos megoldás is bőven belefér - miközben az adatok offline tárolása okán a hardverhiba miatti adatvesztés esélyét kifejezetten jelentős mértékben csökkentettük (gyakorlatilag a drive-ba ragadó szétkaszabolandó szalag jelenthet problémát, de ha minden két példányban van szalagon, akkor még az sem) - ekkor gyakorlatilag csak annyi online tárhely kell, amennyi a munkaterület+egy szalagra maximálisan kiírható adatmennyiség. Ez meg messze nem 200TiB.
- A hozzászóláshoz be kell jelentkezni
Én nem értem, hogy tudnak egyesek ennyi információ alapján ilyen határozottan válaszolni. A tippek persze hasznosak, de a túlzott határozottság veszélyes.
Az oké, hogy energia takarékos legyen, de az elvárt rendelkezésre állásról egy szó nem esik. Extrém véglet: hiába lesz nagyon energia takarékos, mert pl. kiválasztjátok a legenergiatakarékosabb NAS-t, de nincs szerviz és hiba esetén újra meg kell venni az egészet vagy hetekig áll a rendszer, akkor a megspórolt energia többszörösen megy a levesbe. Márpedig ekkora adatmennyiség esetén van rá esély, hogy nem 1 ember termelékenysége függ a rendszertől.
Az offline-t is definiálni kellene, hogy pontosan milyen elvárást kell biztosítani, mi az elképzelt folyamat.
Világos, hogy a gyorsaság nem lényeges, mert visszamásolják SSD-re, de nem mindegy, hogy egyszerre hányan mennyi fájlt akarnak visszamásolni: ha minden második nap azzal megy el javarészt, hogy kávézik az illető, mire visszakerül az SSD-re az a bizonyos nagyobb méretű fájl (mert rajta kívül még 10-en várnak másik fájlokra), akkor a vezetés számára előbb utóbb kritikus lesz.
Egyesek több NAS-t is említettek, felmerült a töredezettség, ami szerintem is valós veszély. Ilyen konkrét javaslat előtt egyeztetni kellene, miként áll össze a 200TB (egy nagy massza vagy több kisebb massza). Ha nem világosan szétválasztható több massza, akkor több kisebb rendszer létjogosultsága nagyon kérdéses. Itt is visszaüthet az energia takarékosság egy idő után.
- A hozzászóláshoz be kell jelentkezni
Valszin ismerjük a KKV "igényeket". :) Igen, ha megáll a NAS és nincs hidegtartalék az igen ciki, van vele tapasztalat. Hiába volt nagy cég, azt hagyták jóvá, mi meg modtuk hogy akkor ilyen az élet, majd intézik a garit. A sebességgel ugyanez a helyzet, hogy olcsón, jót, gyorsat közül kettőt lehet választani. A töredezettségnél sokkal rosszabb, ha megvesznek egy NAS-t, és az megáll, majd pár hétig pingvineznek...
A gyakorlatban amúgy úgy kéne kinéznie, hogy aki megvalósítja, az pontosabban felméri az igényeket, majd kialakul néhány megoldási opció, és ezeknek az előnyeit és hátrányait a kedves megrendelő elé tárja. A kedves megrendelőnél nincs egy általános IT vezető jellegű szakember aki dönt, hanem egy random valaki dönt különösebb komoly IT háttér nélkül, jellemzően a pénzügyi helyzet szerint, és egyáltalán nem méri fel, hogy ha 2 hétig nincs (nagyon nincs), akkor az nincs. Azt hiszik sokszor, hogy majd úgyis megoldja, hiszen mindíg megoldotta, sőt mindezt ingyen lehetőleg.
Ellenpélda biztosan van, de pont a napokban milliárdos forgalom (és valszin profit...) mellett láttam csodákat, meg megy a hekkelés. Ráadásul az egyik elvileg ájti vonalas beszállító valami elképesztően tereli a dolgokat, hiszen neki más az érdeke.
- A hozzászóláshoz be kell jelentkezni
Igen, én is láttam már KKV-t, olvasgatom a HUP-ot. A kettő valamennyire összefügg, mert ha kevés információ alapján egyesek megmondják a frankót, akkor nem meglepők az állapotok.
Azt megértem, ha néhány 100e beszerzésnél az ember nem ül le a döntéshozóval beszélgetni (nyilván lehetnek esetek, amikor akár műszakilag, akár hosszú távú üzlet miatt érdemes/javasolt), de itt ennél nagyobb nagyságrendről van szó. A szakember felelőssége, hogy felvilágosítsa a döntéshozót, kb mekkora összeg a kérdés, milyen kockázatokat kell mérlegelni. Nem SSD/NL-SAS nyelven kell kommunikálni, hanem pénz és kockázat nyelven, érzésem szerint ez sokszor hiányzik (ha ilyen ember nincs a cégnél, akkor a külsősnek lenne a feladata).
- A hozzászóláshoz be kell jelentkezni
Igen, felvilágosítod, és az esetek többségében látod, hogy már lezárt az agya, neki mindegy, csak működjön valahogy. A kockázatot kb úgy kezeli, hogy a "f....m fog erre milliókat költeni", jólesz valami egyszerű. Ez sajnos a napi valóság. Amíg működik valahogy az adott bármilyen megoldás, addig nem is érdekli, és sok esetben abból sem tanul, ha néhány napra megáll a cége, miután egy Win10 frissítés telibeverte a szuperfontos cuccot.
Hiába mondod teljesen ájtimaszlag nélkül a dolgokat, hogy ha ő igazából azt sem érti, hogy miért kéne neki ezzel foglalkoznia, hiába mondod, hogy ember basszus, ha megáll a céged, akkor nagyon morcos leszel, esetleg megy a levesbe. Hiszen eddig még mindíg volt valahogy, valaki valahogy megoldotta, meg segített. Előttem írták, hogy X5-re, meg X6-ra meg hasonlókra elmegy a zseton, vagy simán félmila havonta autóra és még efölött ki tudja mennyi benzinre, de már egy normális backup megoldásra nem fussa. Nagyon tele van a zoknim ezekkel, meg tudom kiégett vagyok... na mind1. Ja és persze ha probléma van, akkor nagyon vad emaileket tudnak írni, meg érdekes hangnemben telefonálni.
- A hozzászóláshoz be kell jelentkezni
na ezért hagytam én ott évekkel ezelőtt a magyar kkv szektort
Gábriel Ákos
- A hozzászóláshoz be kell jelentkezni
Az ilyen helyzeteket meg kell tanulni kezelni. Fiatalon, 20 évesen még az embernek nincs benne rutinja. 35-40 évesen már vén rókaként kezeli az ügyfelet.
Érthető, hogy az ügyfél csak a saját dolgára akar fókuszálni, minimálisan akar költeni az IT-ra. Ez nem magyar sajátosság, mindenhol így van.
Szét kell választani, hogy az ügyfél miért is fizet neked (ha te vagy a szolgáltató):
- működjön az IT <-- ez a helyes válasz
- működjön az üzlet, legyen üzletmenet-folytonosság, működjenek a folyamatok
Az utóbbi az NEM az IT feladata. Az IT csak eszköztárat kínál az üzlet folytatásához, a folyamatok működtetéséhez. Van cégvezető, döntéshozó, tulajdonos. Ja, hogy nem végzik a munkájukat...hát ÍJ.
Risk letter (nem jut eszembe a magyar neve hirtelen) csodákra képes. Le kell írni, akár kinyomtatni, aláírni, pecsételni, tanúkkal is. Aztán ha beüt a krach, akkor meg lobogtatni kell. Lobogtattam már én is ilyet párszor. Jött a pingvinezés az ügyfél részéről, néha ordibálás, de én sose vettem személyesre.
- A hozzászóláshoz be kell jelentkezni
Ez sajnos valóban így van. A legtöbb cégnél nincs is IT költségvetés tervezve, ad-hoc döntik el egy-egy IT feladat megoldását, eszközt akkor cserélnek, ha már annyira megállt, hogy senkinek nincs hozzá bontott cserecucca, a rá szánt pénz a cég pillanatnyi állapotától függ, azonnali megoldás kell aminél nem kell számolni a jövővel (mert úgy drágább, majd "akkor" kitalálunk valamit), stb.
Fiatalon az ember próbálta megoldani. Mi szokszor ingyen dolgoztunk, mert van, amit nem lehetett kihagyni szakmailag, de az ügyfél nem akarta kifizetni. Kellett a meló, kellett az ügyfél, így inkább lenyeltük. Az volt az elv, hogy semmiképp sem kókányolunk, mert csak az ügyfél azt kéri.
Most van egy minimum műszaki-minőségi-szakmai szint, ami alatt nem vállaljuk el. Ilyenkor vagy elfogadja (és kifizeti) az ügyfél az általunk javasolt megoldást, vagy keres másik szolgáltatót. Én úgy vagyok vele, hogy ha elvállalok egy munkát, akkor azt jóra kell csinálni. Nem elfogadható, hogy kihagyok valamit ami kell, mert az ügyfél úgy kérte - Ő nem ért hozzá, csak a pénzügyi részét nézi, nekem kell a szakmai részból nem-engedni.
Régen amit az ügyfél nem kért, de muszáj volt az adott feladathoz, hogy a nevünket adhassuk a megoldáshoz, azt megcsináltuk "ingyen", mert kihagyni szakmai hanyagság lett volna. Most már nincs ilyen, vagy kifizeti, vagy keres mást, aki megcsinál neki egy fél rendszer is (és aztán majd együtt pingvineznek, mikor bedől, mert el lett hagyva a fele)...
- A hozzászóláshoz be kell jelentkezni
+1 :) Én sem vállalom, ha valami bénázás van. "Biztos vagyok benne, hogy megtalálja az igényeinek megfelelő szolgáltatót vagy partnert." Bár sok esetben tovább sem jut a dolog egy egyeztetésnél és esetleg ajánlatadásnál, csak esetleg látom, látjuk a bukdácsolást, meg a vakrepülést.
Nekem van egy teóriám, hogy mivel régen sokan dolgoztunk kvázi ingyen, meg tanulási célzattal, ezért berögzült, hogy óhát minden milyen egyszerű.
- A hozzászóláshoz be kell jelentkezni
Kapcsolódó oktatóvideó az "ingyenmunka miatt elkurvult a klientura" témában:
- A hozzászóláshoz be kell jelentkezni
> A legtöbb cégnél nincs is IT költségvetés tervezve
az se sokkal jobb, ahol van. mondd meg masfel evre elore mire lesz pontosan szukseg es az akkor mibe fog kerulni...
- A hozzászóláshoz be kell jelentkezni
Nyilván a költségvetésnek van tervezhető és nem tervezhető része. Ha egy helyen a nem tervezhető a nagyobb, akkor ott gondok vannak.
- A hozzászóláshoz be kell jelentkezni
Ismerem ezt, hidd el. A probléma akkor van, ha te vagy valaki más kiejti a száján, hogy fele ennyiből is meg lehet csinálni (ezalatt értsd, hogy tákolni valamit), mert akkor ha nem kellően gondolkodó döntéshozóról van szó (kockázatokat nem veszi figyelembe és túlságosan fillérb*szó), akkor ráharap. Nyilván senki nem akar a szükségesnél többet költeni, kinél lazább a keret, kinél kevésbé, hol erősebb, hol gyengébb a bizalom. És igen, van olyan, hogy más "megoldja" olcsóbban. És igen, olyan is van, hogy jól megszívják, és olyan is, ahol szerencséjük van és nem történik semmi.
A másik gond, amikor a döntéshozó azt hiszi, hogy ért hozzá (de olyan is van, akinek tényleg jó meglátásai vannak). De ha kellően értelmes, akkor megérti. Ha nem, akkor más gondok is lesznek, bizalmi hozzáállás nélkül nehéz normálisan dolgozni.
Amit elsősorban közölni akartam, hogy amíg sok a Barkács János és Warez Pista, addig az ügyfél hozzáállása is hasonló lesz, és nem is feltétlenül a (potenciális) ügyfeleket kell okolni ezért, hiszen senki nem szeret feleslegesen költeni.
- A hozzászóláshoz be kell jelentkezni
Kiegészítő kérdés: ugyanennyi, 200 TB adatot felhőben, havi 10% adat változással hol tárolnátok legolcsóbban? Mint offsite backup. Köszi.
- A hozzászóláshoz be kell jelentkezni
Mindegyik cloud providernek van kalkulátora. Bepötyögöd, hogy mit akarsz és szépen kiírja, hogy mi mennyibe kerül. Persze pár $ / € eltérés lehet a végeredményben.
- A hozzászóláshoz be kell jelentkezni
Ez azért a "vegyél gyári storage megoldást backup-pal" szintű biztosan működő csak nem túl hasznos válasz, hogy a topiknál maradjunk...
- A hozzászóláshoz be kell jelentkezni
0.0014 USD / GB / hó tárolás, 0.005 USD / GB letöltés. Szalagos tárolás, így a visszatöltéshez akár 48 óra is kellhet.
Sima archivum: 0.0024 USD / GB / hó, 0.011 USD / GB az adatforgalomt (be és ki is)
Ez egy amit én tudok/használok.
- A hozzászóláshoz be kell jelentkezni
Hát, erre sem könnyű válaszolni...
A 10% változás hogyan történik? 10% megy a kukába és kerül a helyére másik 10%-nyi (tehát nincs letöltés és a 200 TB nagyjából állandó mennyiség), vagy 10%-kal növekszik havonta a tárolt mennyiség (tehát jövő hónapban már 220 TB), vagy 10%-ot letöltesz, változtatsz rajta és visszatöltöd (tehát havi 20 TB letöltés is van)?
Milyen gyorsan kell elérni? Nagyjából folyamatosan/azonnal, vagy amikor kell, akkor van idő kivárni (ha offsite mentés, és kell, akkor gondolom már nincs idő várni rá...)?
Az azonnal elérhetőek közül szerintem még mindig a Backblaze B2 a legolcsóbb, és egy ideje már van EU datacenter is. Nagyságrendileg 200 TB az havi ~1000 USD. Ennél olcsóbban (a nagyoknál) csak az AWS Glacier van (~ 900 USD/hó/200 TB), de az kivárós ha le szeretnéd tölteni. De letölteni mindet drága, szóval tényleg olyan backup rendszer kell ezek mellé, hogy csak elméletben kelljen ez az adat, ugyanis a B2-ből letölteni "csak" ~ 4000 USD, de AWS Glacier-ből már ~18e USD letölteni az egészet.
- A hozzászóláshoz be kell jelentkezni
Ezt jó tudni, hogy ilyen is van. Bár az árazás elég vicces, hogy a letöltés többszöröse a tárolásnak. Ennyi erővel szinte a ransomware-t is kifizethetik ;)
Ahhoz mit szólna ilyenkor a kedves provider, hogy köszi, nem foglalnánk sávszélt, adjátok fel csomagban?
- A hozzászóláshoz be kell jelentkezni
csak az AWS Glacier van (~ 900 USD/hó/200 TB)
Hogy micsoda? :)
https://calculator.aws/#/estimate?id=ee44ae45e36ff4c2ce302f992eed294259…
- A hozzászóláshoz be kell jelentkezni
Ohh, hát én egy cloud storage összehasonlító oldalon adtam meg az adatokat, és ott jött ki a 900 USD.
Az tény, hogy nem volt részletezve, hogy AWS Glacier Deep Archive vagy Flexible vagy Instant Retrieval. A "gyári" kalkulátor alapján az Glacier Instant Retrieval a jóval drágább 900 USD/hó.
A Depp Archive 1 USD/TB/hónap eléggé jó ár hosszú távú (archív, nem backup) tárolásra. Ellenben backup-ra nem biztos, hogy ez a jó, mert ha ehhez kell nyúlni, akkor az azt jelenti, hoghy elveszett helyben minden. Onnantól nem biztos, hogy jó lenne még 12-48 órát vármi a letöltés megkezdésére (ami 200 TB-nál szintén nem lesz meg egyhamar).
- A hozzászóláshoz be kell jelentkezni
Átteszed EU-ba mindjárt nem ilyen szépek a számok.
Gábriel Ákos
- A hozzászóláshoz be kell jelentkezni
Áttettem Stockholmba: 202.80 USD per hó.
- A hozzászóláshoz be kell jelentkezni