Aránylag nagy darabszámú (1-2M) és összméretű (500-600GB) fájlt szeretnék minél hatékonyabban és hibatűrően tárolni.
Szempontok:
- lehetőleg optimális diszk foglalás, lehetőleg közel zip mérethez
- tárolt formátumban is olvasható, hozzáférhető egyesével (könyvtárankénti zip-nél pl. ez problémás)
- hibatűrő, tehát diszk hiba, gép hiba esetén is sérülésmentes
Eddig az alábbi a legszimpatikusabb:
- nyers formátumba RAID1 felett ext4-ben
- külső tárolón deduplikációval, pl. borg backup
kérdés, hogy ez mennyi hibatűrő pl. bit hiba esetén, hogy ellenőrizhető?
- 1875 megtekintés
Hozzászólások
BTW: Becsomagolva nem lesz hibatűrő. Ha mégis sérül a "zip" mindent buksz.
EZ mentés lesz vagy aktív tárolás felhasználókkal?
- A hozzászóláshoz be kell jelentkezni
lehet is-is, mivel mindenképp kell egy geo független verzió is, mint fenti példában
- A hozzászóláshoz be kell jelentkezni
Jut eszembe, talán nem teljesen offtopic itt, de úgy kell csomagolni :) Ezért választottam egyszer az arj-t. (Asszem a rar is tud ilyet, ám az valamiért megbukott egy teszten.)
Ja, és régen minden jobb volt :) https://en.wikipedia.org/wiki/Parchive (bár lehet hogy még élő technológia, az usenet nekem kimaradt az életemből).
- A hozzászóláshoz be kell jelentkezni
ZFS dedup + compression.
- A hozzászóláshoz be kell jelentkezni
zfs sajnos nem játszik, mivel hw raid van alatta, ami meg nem ajánlott zfs alá
- A hozzászóláshoz be kell jelentkezni
Sokan használunk hw raid alatt. Nem érzem annyira kritikusnak. BBU-val, esetleg JBOD-ként kiajánlva a diszkeket, szerver alatt UPS.
- A hozzászóláshoz be kell jelentkezni
+1
Vegeredmenyben csak plusz egy reteg. Ha monitorozod rendesen a RAID kartyat, olyan nagy baj nem lehet. Persze sokan elvbol utaljak a HW RAID megoldasokat, de szerintem akar gyorsabb is lehet vele a lemez eleres/atvitel/kesleltetes/..., mint normal lemezekkel es ZFS-sel.
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
En is, szerintem.
Amit ki lehet szervezni cel HW-ra, azt ki kell szervezni. Szenvedjen vele az. :)
- A hozzászóláshoz be kell jelentkezni
Csak ne legyen baja a hw-nek. Igazabol a legnagyobb erv a sw raid mellett, hogy nem igazan fugg az alatta levo retegtol, igy szabadabban/egyszerubben lehet disasterbol visszallni. Kb radugod barmire amin elgut az os.
-
First impressions of the new Cloud Native programming language Ballerina
- A hozzászóláshoz be kell jelentkezni
ez RAID1 esetén is igaz?
ott elvileg nem variál az hw, csak tükrözni, nem?
- A hozzászóláshoz be kell jelentkezni
Csodalkoznek, ha kiveszed a disket a tombbol, radugod egy masik gepre sima diskkent, es bebootolna rola a rendszer. Jo ideje nem frissitettem a tudasom hw raid-el kapcsolatban, szoval lehet en nem tudok valamit, de azert van nemi metaadat, ami a tomb egybentartasahoz kell, es azt csak a disken tudja tarolni. Regen meg az sem volt eleg ha azonos gyartotol volt a kartya, ha nem talaltal pont ugyanolyat ment az adat a levesbe.
-
First impressions of the new Cloud Native programming language Ballerina
- A hozzászóláshoz be kell jelentkezni
mi okbol vennel ki egy diszket egy raid tombbol, hogy azt egy masik gepbe dugva az eredeti adatokkal hasznald?
--
O1G
- A hozzászóláshoz be kell jelentkezni
Végső elkeseredésből.
- A hozzászóláshoz be kell jelentkezni
Hat ha a hw raid1 csak egy mezei tukor lenne, miert ne lehetne ilyet csinalni? Amuy meg pont ez a tema, hogy az a baj hw raiddel, hogy fizikai termektol, es annak meghibasodasatol fugg.
-
First impressions of the new Cloud Native programming language Ballerina
- A hozzászóláshoz be kell jelentkezni
lemez vegen tartolja, eleje 1:1-ben ugyanaz. lsi megaraid.
--
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
Ma már a diszken tárolja a tömbhöz kapcsolódó adatokat, gyakorlatilag még azonos gyártó más szériájából is származhat a vezérlő, jó eséllyel kezelni fogja a tömböt.
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
Van rajta metadata és tök érdekeset tud csinálni. Előtte jobb tesztelni.
DELL Perc 5 és 6 nem volt kompatibilis egymással. 5-ös vinyókat formázni akarta, nem ismer fel a 6-os vezérlő.
De tekintve a topik indító kérdését: backup megoldás. Akkor meg kit érdekel ez az eset. Ez egy mentés lesz, nem az egyedüli példány.
De aki fél tőle, JBOD-ként kiajánlani a rendszernek és sw raiddel összehúzni. Általában az már nem kavar be.
- A hozzászóláshoz be kell jelentkezni
a hw raid1 adott, tehát ezt tekinthetjük fixnek, más is van rajta, szóval ezért nem fog menni a zfs átállás
- A hozzászóláshoz be kell jelentkezni
Írjál meg egy kicsit többet a topik elejére, mert felesleges köröket futunk, ha te lelövöd mindet.
Egy nyomvadt hw raid1 miatt én cseppett sem érzem ezt: "nem fog menni a zfs átállás"
Használom hw raid1, raid5, raid6 alatt, söt még hw raid feletti virtuális gépben létrehozott zfs-t is használok. N+1 baromi jól skálázható backup (compress) és archiv (compress+dedup) célt szolgál. Több hónapra vissza napi mentést tárol, mindig csak annyival növelve a diszk foglaltságot, amennyivel aznap _változott_. Még is minden napra egyben látom a teljes mentést (zfs előnye) dátum mappában. Az egészet meg rsync eteti. Faák egyszerű és gondozás mentes. A snapshotok meg kirotálódnak a a megadott lejárati időben.
- A hozzászóláshoz be kell jelentkezni
Ha lokalis, akkor vmi ZFS megoldast valasztanek (magam egy koegyszeru custom scriptet hasznalok).
Ha lehet remote, akkor meg vmi cloud megoldast, pl. backblaze, v. vmi S3-ra epulo, glacier stb., igenytol fuggoen.
t
- A hozzászóláshoz be kell jelentkezni
- hibatűrő, tehát diszk hiba, gép hiba esetén is sérülésmentes
a hibatureshez redundancia kell es ellenorzo kod. Tehat diszk hiba ellen tobb diszk, gep hiba ellen tobb gep, stb.
ez mennyi hibatűrő pl. bit hiba esetén, hogy ellenőrizhető?
ugy erted, mennyire hibaturo bithiba eseten? Bithibat a hw-hez kozel kellene kezelni a driver-nek/firmware-nek/akarminek. Te ugy tudod ellenorizni, hogy menteskor a forras oldalon keszitesz egy tartalomjegyzeket a file-ok neve ill. sha256sum alapjan. Visszaolvasaskor ujra kiszamolod az sha256-ot es osszeveted a tartalomjegyzekben szereplovel. Ezt a backup megoldasnak kellene kezelnie.
--
O1G
- A hozzászóláshoz be kell jelentkezni
a gép hiba miatt nem duplikálnám a gépet, de egy külső tárolóval gondolom megoldható
az sha ellenőrzést most is használom, de jobb lenne valami komplett megoldás, amibe ez be van építve
- A hozzászóláshoz be kell jelentkezni
Rsync rávehető, hogy minden mentésnél újraszámolja a checksumot és, ha nem egyezik, áthúzza.
- A hozzászóláshoz be kell jelentkezni
igen, csak akkor pont az a probléma, hogy felülírja a jót ha mondjuk a forrás romlott el
- A hozzászóláshoz be kell jelentkezni
"ha mondjuk a forrás romlott el" fixme, de erre nem nagyon lesz gyogyszer. Ha a forras elromlik, akkor az elromlott. Marmint hogyan allapitod meg, hogy rossz? Tartalombol nem tudod, ha mellekraksz egy checksumot, akkor meg lehet a checksum is rossz mar. Ezert kell visszamenolegesen is tarolni az adatot.
-
First impressions of the new Cloud Native programming language Ballerina
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
Hát azért az rsyncnek megadható, hogy ha változás van, azt tegye el egy dátum mappába és így inkrementális mentésed IS van sok napra visssza.
De zfs-sel ez mégkényelmesebben működik. Azt meg egy partícióra fel tudod húzni.
- A hozzászóláshoz be kell jelentkezni
Mekkora az adat kritikussági frekvencia?
Mekkora a példány igény fájlonkent?
Mennyi a az adatváltozas blokk és fájl szinten?
RTO RPO igény mennyi?
OS?
Egyéb lényeges service?
Csak az adat vagy a rendszer is lényeges?
A pontos és jó megoldáshoz ismerni kell az összes lényeges információt a környezettel és a felhasználással kapcsolatban.
- A hozzászóláshoz be kell jelentkezni
bevallom, nem értem minden kérdésedet :)
os: ubuntu
változás: minimális, inkább bővül
RTO RPO: kb. 24 óra
- A hozzászóláshoz be kell jelentkezni
Mindenképp magad akarod megoldani? Ha backup, akkor gondolom nem változik a fájlok tartalma, tolt fel Glacier-be, ott ez az adatmennyiség mennyiség havonta ~2.5 dollárba van és bulk módban ~1.5 dollár a visszaállítás innen. A hátránya az, hogy API-n keresztül tudod elérni. Magadnál megy úgy tárolod, ahogy olcsó, és van backup, ha kell.
- A hozzászóláshoz be kell jelentkezni
a live verziót azért nem tárolnám felhőben, mivel gyakran és teljes adatmennyiséget érintő readeket kell futtatni, ami felhőben drága
backupot meg azért nem raknám felhőbe, mert saját tároló 1x-s költség, felhő pedig havi
szóval egyik esetben sem látom előnyét
- A hozzászóláshoz be kell jelentkezni
Vegyük ketté a kettőt:
- Backup: időnként írod, ritkán olvasod, akkor is vagy cherry picking (aka véletlenül törölt fájl) vagy teljes visszaállításra használod (aka disaster recovery)
- Live: magadnál tartott adatmennyiség, általános meghibásodásra elég redundanciával, mert bármikor vissza tudod állítani a backup-ból
Ezek szerint Te ezt a két homlokegyenest más feladatot akarod egy lépésben megoldani? Miért?
"backupot meg azért nem raknám felhőbe, mert saját tároló 1x-s költség, felhő pedig havi"
Hát, havi 2,5 dollárból a villanyszámlája nem jön ki a saját tárolódnak, főleg, ha három-négy földrajzi helyszínen akarod tárolni, de te tudod...
- A hozzászóláshoz be kell jelentkezni
lenne ebből 5-10 ilyen tároló, úgy pedig 2-3 havi költségből kijön már egy hdd
- A hozzászóláshoz be kell jelentkezni
Oké, de majd szólj, hogy mi lett az olcsóbb megoldás, mert én egyelőre ennél olcsóbbat nem találtam. A saját hardver, szoftver és üzemeltetés csak akkor olcsóbb, ha ingyen dolgozol és nem számolod a hardver költségét sem, mert "az már úgyis van"...
- A hozzászóláshoz be kell jelentkezni
Engem csak az erdekelne, hogy hogyan tud az amazon hardver ara alatt szolgaltatni.
Egyszer csak el kell tarolnia neki is, es a kulonbozo emberek backupjai csak kulonbozoek.
Valahogy a penzugy nem all ossze.
---
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
Pedig nagyon egyszeru a matek. hogy tudsz aliexpresszrol 30 Ft-ert zoknicsipeszt rendelni, es ugyanaz a zokni csipesz miert kerul a muanyagboltban 600 Ft-ba? Ugy tudja, hogy az hw koltsege teljesen mas mint a tied, valamint kiepitett rendszere van, tehat az egy diskre juto operatorok szama is joval alacsonyabb mint nalatok. Szerinted o milyen dijjon kapja az aramot hozzad kepest? Egyszeruen akkora ceg, hogy neki fillerekbol jon ki a dolog. Arrol nem is beszelve, hogy ha berant teged egy 2.5 dollaros backuppal vagy egy "annyit fizetsz amennyit futtatsz" lambda-val, akkor piaci elonybe kerul masokkal szemben, amikor egyeb dolgokat ki szeretnel szervezni.
-
First impressions of the new Cloud Native programming language Ballerina
- A hozzászóláshoz be kell jelentkezni
"Engem csak az erdekelne, hogy hogyan tud az amazon hardver ara alatt szolgaltatni."
Nem tud a hardver ára alatt szolgáltatni, egy LTO tud nagyjából 1,5 - 2 dollár / TB áron működni és a szalag nem kér áramot, ha épp a polcon pihen, tehát az Amazon legombolja rólad néhány havonta azt, amibe az több telephelyre kimásolt adataid fizikai tárolása kerül neki life-time. Nyilván ezen felül kell áram, telephely, kiszolgáló személyzet, öltönyösök és a többi corporate cucc, meg a toronyóra lánccal.
Ha saját LTO megoldásod van, akkor a hardver, a telephely és a villany nagyjából a felére-harmadára jön ki, mint az Amazon Glacier... az apró hibácska az, hogy ez nagyjából pár ezer TB adatmennyiség felett éri meg, mert hiába 10-15 dollár egy 6,25 TB LTO-6 szalag (ha nem egyesével veszed a piacon), ha a drive 5000 dollár, amibe kézzel kell tömnöd a megfelelő kazettát... és persze erősen függ az üzemeltető technikai személyzet tudásától és bérköltségétől is, hogy a problémákat mekkora költségszinten oldják meg vagy mekkora kárt okoznak a problémamegoldás közben, mert balfaszok.
Ha neked nincs ennyi adatmennyiséged és nincsenek szakértőid, akkor go to cloud, ha meg vannak, akkor go to on premise.
- A hozzászóláshoz be kell jelentkezni
> egy LTO tud nagyjából 1,5 - 2 dollár / TB áron
'''
Amazon employee as saying that Glacier is based on custom low-RPM hard drives attached to custom logic boards
'''
Wikipediarol.
---
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
Pletykák vannak mindenféléről, ha tovább olvasod, akkor látod, hogy van ugyanígy pletyka a szalagos tárolásról, az optikai tárolásról és a kevert technológiájú tárolásról... normál esetben akár órák múlva tudod csak letölteni a cuccodat, ami vagy optikai vagy szalagos megoldást jelez. Vagy direkt szopat az Amazon, hogy elfedje, hogy drága HDD-t használ ekkora méretben baromi olcsó tape helyett. :)
- A hozzászóláshoz be kell jelentkezni
"mert saját tároló 1x-s költség" ez igy jol hangzik, csak nem feltetlen igaz :) hw koltseg, disk koltseg mondjuk raid5-el, configuracios koltseg, szunetmentes tap. Aztan jonnek a havi kiadasok, mint aram/hosting, karbantartas. Es akkor imadkozz, hogy ne legyen mondjuk tuzeset azon az egy helyen ahol az adatokat tarolod. Vajon az itt felsorolt osszegbol mennyi geo redundant storaget lehet venni?
-
First impressions of the new Cloud Native programming language Ballerina
- A hozzászóláshoz be kell jelentkezni
Tudsz ajánlani olyan klienst, ami támogatja ezt? (KKV, nem kell enterprise)
- A hozzászóláshoz be kell jelentkezni
Én a Java kliensüket használtam, faék egyszerűségű... mivel akarod integrálni?
- A hozzászóláshoz be kell jelentkezni
Egy RAID1 (vagy RAID1+0), akár 2+ (4+) diszkből és az rdiff-backup -pal igen jó eredményeket lehet elérni. Az offsite verzióra rsync, olyan módon, hogy több fullos példányt mentesz (naponta egyet és mondjuk vasárnaponként egy külön példányra). (Az offsite mellett én néha egy helyi diszkre is kitennék egy példányt...)
Ha fizetős megoldás is szóba jön, akkor nézd mega Veeam-et, az jóval kényelmesebb és mindenféle luxusfunkciókat is tud.
- A hozzászóláshoz be kell jelentkezni
Btrfs compress=zlib paraméterrel és ezzel be se kell csomagolni az egészet zip-be. Mehet a RAID1 is, btrfs natívan tudja.
-------------------
https://onlinestream.hu/ - A legtöbb magyar rádió és TV egy helyen!
- A hozzászóláshoz be kell jelentkezni
"tárolt formátumban is olvasható, hozzáférhető egyesével" kb fs szintu tomoritessel lehet ezt csak kivitelezni. Vagy a backup cuccon keresztul kell elerni. Szoval jo lenne tisztani mit jelent a hozzaferhetoseg? a user felcsatolja a disket es olvassa a fajlokat, vagy pl a backup szoftverben lehet bongeszni a fajlokat, es akar egyesevel visszaallitani? Nagyon nem mindegy!
"RAID1" a raid nem backup, attol, hogy atsynceled egy masik raid 1-es storagera, a backupolast nem uszod meg.
First impressions of the new Cloud Native programming language Ballerina
- A hozzászóláshoz be kell jelentkezni
lehet 2 tároló: live (helyi) és backup (fizikailag máshol)
a live esetén követelmény csak a könnyű olvashatóság, pl Total Commander szintű programokkal
- A hozzászóláshoz be kell jelentkezni
En azt mondanam, hogy !legyen! ket tarolo, a problemadat nem lehet ugyanis megoldani egy lepesben. Kell egy raid1 tukor fs szintu tomoritessel, halozatban felcsatolva. A tukrozes-hez jo lenne ha a forras fs tamogana a snapshotokat, maskulonben a hajadra kenheted a tukrozest. Es a tukorrol szinten snapshotolva lehet kesziteni a tavoli szerverre az inkrementalis es mondjuk heti full backupot. Ide erdemes raid5-ot pakolni, ott talan a "legoptimalisabb" a kapacitas/biztonsag arany. Tervezd meg, hogy mit szeretnel, aztan lehet valami kesz sw meg is felel.
-
First impressions of the new Cloud Native programming language Ballerina
- A hozzászóláshoz be kell jelentkezni
A bithibához: a fotóiról md5sumot készítek amikor lemásolom a kártyáról. Úgy döntöttem, hogy ez a változat a jó változat. Az md5sum később kényelmesen ellenőrizhető. Nem állítom hogy milliós nagyságrend esetén is remek megoldás, de lehet hogy a havi egyszeri futás belefér. Esetleg ionice-szal idomítva.
Csak egy ötlet.
- A hozzászóláshoz be kell jelentkezni
Ha mar homebrew.
En bongeszo alapon csinaltam meg:)
Az md5sum helyett sha256, mert van parancssorbol sha256sum bongeszoben meg crypto.sublte.digest.
Kb. egy .bittorrent fajlt csinalok hozza, amiben benne van a fajl sha256 sumja, a chunkok listaja, a neve es merete.
Ha a feltoltes megszakad, akkor csak azokat a darabokat tolti ujra, ami a szerver oldalon hianyzik.
Konyvtarra is mukodik a webkitdirectory attributummal.
Meg az hianyzik, hogy a szerver is tudja a chunkokat egymas kozt adni venni:)
Egy 2GB-os fajl letoltese kicsit trukkosebb, mert ott is chunkokat tolt le a bongeszo, csak indexedDB-be.
Nehany gondolatebreszto:
https://developer.mozilla.org/en-US/docs/Web/API/HTMLInputElement/webki…
https://github.com/mi-g/webextensions-examples/blob/example/indexeddb-f…
---
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
szerintem nézd meg ezt: https://syncthing.net/ :)
- A hozzászóláshoz be kell jelentkezni
Nem ugyanaz:)
En azert csinaltam, hogy tudjak 4GB-os fajlt feltolteni es letolteni. Ugy, hogy megszakadhat a net alatta, meg meg lehet allitani es folytatni.
Ez a primary usecase weboldalon. Innen indult, erre keszitettem.
Az osszes tobbi (szerverek adjak-veszik a chunkokat) mar csak a tovabbgondolasa es todo.
---
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
En ezt hasznalom otthoni adatok tukrozesere: https://www.resilio.com/
-
First impressions of the new Cloud Native programming language Ballerina
- A hozzászóláshoz be kell jelentkezni