( bucko | 2017. 02. 18., szo – 09:24 )

Miközben igazad van, de a valóság ennél bonyolultabb. ;)
Van az a mennyiségű rekord, amikor figyelembe lehet venni egyéb szempontokat.
Pl. a fantasztikusan jó eredményt adó btree esetén sokan elfelejtik, hogy a fa mélységének megfelelően lépkedni kell az ágakon a levélig. Ennek alapján (adott rendszeren) sikerült már a btree+RDBM sebességéhez képest két nagyságrenddel gyorsabb keresést készíteni.
Amit leírtál, annak alapján használtak a rendesebb adabáziskezelők raw volume-ot. Ezzel a egyszerre kiküszöbölhető a filesystem overhead és a filesystem tranzakció és cache is. Mert ugye az adatbázis jobban tudja mi a saját tranzakció/cache elvárása. Ezzel szemben manapság az adatbázis -> filesystem a divi, hiszen a gépek és a diszkek gyorsak...aztán jön a koppanás.

De van másik DE is! A file írásról sem szabad valami elvont dologként beszélni. A valóságban a "file" alatt ott csücsül még 3-4 layer, amelyek együttesen határozzák meg az egyes műveletek sebességét. Rendszer válogatja, de néha döbbenetes eltéréseket lehet mérni. És itt a használat módja a domináns és nem az, amit az egyes benchmarkok állítanak.