jo, ne vicceljuk mar el. en ugy ertettem, hogy az adat formatum a backend storage-ben szinte sosem clear text "insert into.." vagy json vagy xml, hanem valamilyen olyan datttarolasi frma ami a felhasznalaslnak megfelel es a legjobban tamogatja azt. Az engine meg felelos azert hogy ugy add hozza es vedd ki az adatot ahogy az neked legjobban tetszik, legyen az sql, json, xml vagy whatever. Igy azon is ertelmetlen vitatkozni hogy mennyi adat kell egy xml vagy sjon tarolasahoz, mivel az adat nem azokban lesz eltarolva. hanem peldaul columnar storage-ben, vagy innodb-ben, vagy akarmiben. Igy peladaul mondjuk elasticsearch-ben is hozzaadhatod az adatot JSON-kent, de az nem jsonkent lesz tarolva, hanem lucene indexenkent, aminek mar semmi koze magahoz a json formatumhoz. Es lehet hogy 2GB JSON tarolasa csak par szaz megabyte helyet foglal, mivel mondjuk nem indexelsz egy csomo mezot csak tarolod oket, stb, stb. Ugyanakkor lehet hogy 100KB sql adat is tobb megabyte-ra rughat pedig ott csak "insert into .." text-el tolod be az adatot es nem JSON-ben.
Megegyszer. Az adattarolas formatumanak a backend strorage-ban semmi koze ahhoz, hogy milzen formatumban toltad be az adatot es milyen formatumban veszed ki. Igy ertelmetlen arrol beszelni hogy egy CSV, egy JSON vagy egy XML foglal e tobbet. Ugyanazzal az adattartalommal mindegyik foglalhat akar ugyannyi teruletet is fuggetlenul a formatumtol. Nem file-okat tarolsz egy RDBMS vagy egy noSQL db-benhanem adatot!!!