Ilyen meretnel mar semmifele raid nem jatszik.
Minden szervered minden diszkje onallo entitas, semmifele raid sehol, es egy kozponti storage program biztositja hogy az adataid redundansan meglegyenek tobb helyen.
Ugyanez a program vegez szabad hely es smart monitorozast, diszkhiba eseten ujabb masolat letrehozasat, API-n keresztul adat letarolast illetve meglevo adataid elereset szinten az API-n keresztul.
Kb. 6 evvel ezelotti munkahelyemen 2 petaig skalaztunk egy ilyen infrastrukturat Supermicro vasakkal, sima HDD-kkel, szepen mukodott, mivel statikus tartalmat adtunk igy CDN mogott volt az egesz, a kimeno savszelesseg kb. 1Gbit/s korul volt csucsidoben adatkozpontonkent, a CDN-nel meg 12Gbit/s.
A storage program termeszetesen hazon beluli fejlesztes volt.
Az adat betarolasa API alapu volt, a redundancia merteket te hataroztad meg a storage programban (itt volt lehetoseg geolokacio figyelembe vetelere is, volt DC-nk USA-ban, Japanban illetve az UK-ben), az adathozzaferes pedig nginx-en keresztul volt megvalositva, az url-eket a storage program API-ja biztositotta.
Volt meg elkepzeles tobbszintu storage bevezetesre (mint pl. a facebooknal) hogy legyenek kulon hdd es ssd szerverek, de vegul ez nem lett megvalositva mert egyszerubb volt hogy ha uj, nagy nezettseget varo anyag kerult fel akkor egyszeruen pre-heateltuk a CDN cache-t scriptekkel meg mielott az appokban elerheto lett volna a film.