Ajánljatok backup megoldást

Fórumok

Sziasztok,

szeretném lecserélni a jelenlegi mentési rendszereket.
Bareos-t használok három különböző rendszeren és nem vagyok vele elgedett, mert sok benne a bug és instabil.

Jellemzően 1-3 havonta készül full, 2-4 hetente differential, naponta incremantal.

A három jelenlegi megoldás:

1. AWS S3-ba ment, full-ok átkerülnek Glacier Deep Archive-ba.
   Nagyságrendileg 8TB amit mentek. Ez a legstabilabb, de időnként nem hajlandó létrehozni az új foldert a bucketban

2. Helyi diskre ment, naponta elmásolja az újonnan készült backupokat AWS S3-ba, onnan megy át szintén GDA-ba
    2-3TB amit mentek, itt is előjönnek pár hetente random hibák, elsősorban volume kezeléssel.

3. Helyi diskekre ment, hetente LTO5-re másol egy konszolidált mentést
    30TB körüli a méret

 

A hibákat a mentő service restartja megolja, tehát nem config hiba, de már belefáradtam a debuggolásba.

Erre keresek alternatívát.

A legigéretesebb a Restic backup, az időzítést Rundeck-kel oldanám meg. A 2. és 3. esetben egy helyi Minio serverre mentenék local esetén, az S3 nyilván eleve megoldott benne. A tape az ami kérdéses lehet, ott hetente kipakolnám tar-okba a hostok mentéseit a Minio-bol és a jó öreg Amandával írnám ki és kezelném a szalagokat, az atombiztos.

Ismertek olyan megoldást ami stabil és bevált?

Hozzászólások

Azert en megneznek egy cloudtrail-t miert nem sikerul neki a foldert a bucketben. Nem gondolom hogy a progi egyszercsak azt mondana: "he, majus 3.dika van, ma nem csinalom meg a foldert" :D

Mar tul vagyok ezen, AWS oldalon minden rendben van.

A random anomaliakat csak lokalis mentesnel is hozza mindharom rendszeren. Azt nem en allitottam be, ok is hasonlo problemakkal kuzdenek.
A 16-os major verzioig nem volt gond, azota romlott sajnos a minosege es mar elfaradtunk a folyamatos debugban.

Szerkesztve: 2021. 06. 18., p – 14:46

Aws-hez vannak olyan megoldások is, hogy virtuális tape driveként kezelje a bucketeket. Ha jól emlékszem lehet úgy, hogy lokálisan futtatsz egy gépet gatewayként vagy náluk bérelsz egy instancet gatewaynek. De ha jól emlékszem mindenképpen felszámolnak forgalmi díjat a gateway mód használatáért is.
https://aws.amazon.com/storagegateway/vtl/

A mostani megoldásnál sima bucketnél van bepipálva, hogy valamennyi idő után (30 nap) váltson át az adat olcsóbb tárolási módra? Vannak flagek (felülírhatóság, deep archive), amiért sírhat az oda nyúlkálni próbáló program, ha olyanhoz akar nyúlni, ami már más állapotba került, ha erre nincs felkészítve. És persze plusz díjakat is generál, ha nem megfelelő rotáció van, törlés/módosítás olyan adatokra, amelyek más módban vannak már.

A program nem nyul hozza, en allitottam be a lifecycle rule-okat a bucketen (pontosabban a CloudFormation template amivel elkeszult).

Visszallitasnal (ami eleg ritka) ha mar Deep Archive-ban van akkor api-val en kerem ki a szalagot vissza IA storage tier-be es utana inditom a restore-t.
Egy teljes disasternel a visszaallitas teljes koltsege be van kalkulalva, elhanyagolhato az adat ertekehez viszonyitva.

Költséghatékonyságban azt hiszem talán a google előfizetésben lévő megosztott meghajtó lehet olcsóbb, mondjuk másodlagos backupnak. Csak arra kell figyelni, hogy adott usernek van napi 750GB kvótája feltöltésben (lehet nagy fájlt feltölteni egyben - max 5TB, de egy nagy után már nem fér a kvótába több aznapra). Rclone -ra érdemes lehet még ránézni, az is támogat aws-t és google-t is sok egyebek meellett.

Szerkesztve: 2021. 06. 18., p – 15:01

Restic et ajanlom, nekem nagyon szimpatikus progi. En Nethserver alatt hasznaltam, site to site backuphoz, szuperul mokodott. Szinten Minio local server volt a backend.