( bazso | 2025. 03. 11., k – 08:14 )

Hát... de. Legalábbis az eredeti célja ez volt. Évtizedekig jól elvolt a világ vertikálisan skálázható relációs adatbázisokkal. Csak elértük, hogy már nincs akkora gép ami kezelni bír értelmes válaszidő mellett (vagy egyáltalán) annyi adatot amennyi keletkezik. Egy ideig a normál környezeteknek még ott volt az Oracle RAC, ami olvasásra szépen skálázódott, írásra viszont kb egy node sebességét hozta. De a Google és társai már akkor is szenvedtek, és létrehozták az első igen kompromisszumos, de legalább mind írás mind olvasás szempontjából lineárisan skálázódó big data rendszereket. Aztán ezek nyílt forrású kiadása és az, hogy a kisebb cégeknél is kezdett probléma lenni az adat mennyisége, berobbantotta ezt a piacot. Kicsit túl lett tolva a hype és mindenre és mindenkinek bigdata kellett, Közben a legtöbben rájöttek, hogy 

  • Nem, mégsem oldja meg a kuplerájt helyettünk
  • Lettek sokkal nagyobb diszkek és így már elférünk. SSD is elfogadható áron gyorsít annyit hogy már nem szoftverből kell körbedolgozni a hardvert.
  • Jó bigdata fejlesztő drága, nincs is annyi adatunk (lenne, csak drága tárolni, inkább nem is fontos)
  • Vehetek bigdata matricás dobozt, amit átlag fejlesztő sql-lel vagy egyéb igen hasonló módon el tud hajtani

És szépen be is dőlt ez a piac. Ma maradt a nagy felhőszolgáltóktól vásárolható szolgáltatás, nagyon keveseknek éri meg saját adatközpontban saját, szoftveresen összehúzott vasakon művelni ezt. Mert ugye amit korábban írtam. Ha nem fontos az adat, akkor minek, ha meg az, akkor jönnek az olyan kérdések hogy ebből hogyan lesz mentés és geo-redundáns kialakítás. 

Úgyhogy amikor ma azt mondod nem a méret a lényeg, valószínűleg az utolsó ponttal találkoztál: dobozos megoldás ami azt állítja magáról, hogy bigdata (is tud lenni). Persze vannak jó megoldások bennük, én is van, hogy szívesen veszem elő valamelyiket, de baromi ritkán van valóban szükség igazi bigdata megoldásra.