( _Franko_ | 2017. 02. 18., szo – 11:36 )

"A valóságban a "file" alatt ott csücsül még 3-4 layer, amelyek együttesen határozzák meg az egyes műveletek sebességét."

Szerinted az adatbázis alatt hány réteg csücsül?

"Amit leírtál, annak alapján használtak a rendesebb adabáziskezelők raw volume-ot. Ezzel a egyszerre kiküszöbölhető a filesystem overhead és a filesystem tranzakció és cache is."

Nézd, én továbbra is tartom, hogy ha a fájlrendszer lassabb, mint ugyanazon a gépen legjobb esetben is egy driver-en, socket-en, majd több absztrakciós szinten keresztül elért adatbázis, akkor ott nem az adatbázis a paranormálisan gyors, hanem a fájlrendszer nem alkalmas apró fájlok kezelésére. Lehet ezt csűrni és csavarni, de nincs nagyon értelme. Egyébként érdemes utánaolvasni az INDX Buffer fájl működésének és megérteni, hogy miért gyenge a sok és kicsi fájl kezelésében az NTFS. Aztán esetleg térjünk vissza a témára.