( vl | 2021. 03. 15., h – 19:43 )

Egyébként SSD esetében mit jelent a "random" teszt? Mármint hogy kell/lehet értelmezni?

Az ssd belső szerkezete úgy néz ki, hogy aszimetrikus a törlés és az írás művelet szempontjából. Azaz míg az üres biteket akár egyesével is lehet gyorsan a 1->0 irányban állítani, addig a fordított irányhoz egy egész nand erase block méretű részt egyben lehet csak törölni, ráadásul ez egy relatíve lassú művelet (ms-okban mérik). És ahogy nőnek az ssd-k, úgy lesz ez az erase block egyre nagyobb, de már régen is a 128-256KB körül volt, most már inkább az MB nagyságrendjébe esik.

Emiatt az ssd vezérlő nyilvántartja, hogy hol van hasznos adat, és hol nincs. Valamint ha már hasznos adatot tartalmazó területen egy kisebb blockot ki akarsz cserélni, akkor a nagyobb törlés szükségessége és lassúsága miatt ez egy read-modify-write művelet formájában fog megtörténni, egy új üres területre (aztán a régi használt területet majd valami háttérfolyamat felszabadítja), a kiírandó adatmennyiség jelentős növekedése mellett.

A random I/O írás teszt (jellemzően valamilyen kisebb I/O mérettel) valójában ezt a működést teszteli.

A random I/O olvasás teszt a cache-elést meg az I/O kérésenkénti overheadet teszteli a szekvenciális teszthez képest.