A gond az h. itt nincs elvárás, nekem van csak elvárásom. Ahogy korábban írtam: ez jelenleg működik és elégedett az aki használja. A DB néha lehetne gyorsabb. Ez ugye akkor van ha mancika épp nem 5 megás fájlt tölt fel, hanem mondjuk 2gigát mert kapott pár CAD fájlt.
Az egyszerű megoldás h. az a 2DB szerver átmegy SSD-re és pont.
Engem meg a bonyolultabb érdekelne, ahol nem megy semmi sehova, hanem 2 enterprise ssd-t felhasználok arra h. ezeket a ritka bottleneckeket cacheléssel kiegyenlítsem. Mindenféle szintetikus tesztet találtam a neten, nem akarok feleslegesen belebonyolódni a millisecekbe, mert nincs értelme. Tételezzük fel h. az SSD 1.92-es, tud mondjuk 60k IOPS-t. A backing store (HDD) meg tud mondjuk 300 IOPS-t a cél az lenne h. a 60k IOPS-t hajtsuk meg amikor kell (értsd beesik 5G adat), onnan meg pakoljuk le a 300IOPS-es tömbre a háttérben. Hogy ezt mi tudja jól megcsinálni, na ezért tettem fel kérdést. Mindenki másra esküszik, a millisec azon is múlik ki gyártotta az SSD-t, ennyire nem kell ebben az esetben pontosan tervezni, mint pl. amikor egy 80TB-s erasure code-os ceph backup poolt csinálsz.
De ennél többet nem is akarok róla konkretizálni, csak az elmélet, a tapasztalatok, meg az érdekelt h. itt inkább az jön ki h. ez hülyeség és dedikált ssd a jó választás, vagy esetleg valaki azt mondja h. nem hülyeség, használ ilyet, működik és meg van vele elégedve, x,y,z technológiának menjek utána és boldog leszek. Ha még azt is leírja h. az a tapasztalat h. az SSD teljesítményének max a negyedére számítsak, de azt tudja az SSD méretének feléig mondjuk, az is segítség.