Sziasztok!
Van egy régi Dell PowerEdge T410 szerverünk HDD-vel. Gondolkozunk az SSD upgraden. A szerveren van pár kisebb nagyobb forgalmú weboldal, több 10 GB MySQL és több 10 GB PostgreSQL adatbázis. Milyen SSD-t ajánlanátok bele és hányat? PCI-E alapú SSD-k menni fognak,? pl ez:
https://ssd-meghajto.arukereso.hu/samsung/970-pro-1tb-m-2-pcie-mz-v7p1t0bw-p408169109/#termek-leiras
A hardver mostanában nagyon nem az én világom, de valószínűleg nekem kell ezt megoldanom mind hardveresen mind szoftveresen ( a rendszer költöztetését is).
Köszönöm.
- 3336 megtekintés
Hozzászólások
A linkelt kártya alapból nem fog menni.
Mennyi a keret amúgy? Vegyél két SATA SSD-t, RAID1-be őket és kész. A HDD-hez képest úgyis sokkal gyorsabb lesz.
- A hozzászóláshoz be kell jelentkezni
Szeretném, ha 200 ezerből kijönne az egész történet. Kösz az infót egyébként.
<befőttesüveg>
meggy
</befőttesüveg>
- A hozzászóláshoz be kell jelentkezni
A fenét, megint megszopattatok, ez egy 3 éves topik, és csak most veszem észre, hogy potyára írogatok bármit is. Tényleg zárni kéne ezeket már.
“The world runs on Excel spreadsheets.” (Dylan Beattie)
- A hozzászóláshoz be kell jelentkezni
na vegre egy ertelmes hosszusagu valasz! :-D ha sikerulne tobb ilyet irnod, es kevesebb kisregenyt, meg tobbet olvasnank ;)
- A hozzászóláshoz be kell jelentkezni
Ja, ezt jobb lenne elkerülni. Először egy elég hosszú hsz-t írtam, majdnem 4 sor volt az NVMe-támogatásról, az már Jókai kisregény, de aztán veszem észre, hogy 2019-es a dátum, és már valószínűleg a gépet is kidobták, vagy megy még, de az SSD-t rég megvették bele.
“The world runs on Excel spreadsheets.” (Dylan Beattie)
- A hozzászóláshoz be kell jelentkezni
Az én kérdésem az lenne, hogy milyen rendszer, van-e virtualizálás, milyen tipusú partíciók?
Amúgy, ha jól látom, ebbe sima sata csatis SSD mehet csak.
( •̀ᴗ•́)╭∩╮
"speciel a blockchain igenis hogy jó megoldás, ezért nagy erőkkel keressük hozzá a problémát"
"A picsat, az internet a porno es a macskas kepek tarolorandszere! : HJ"
Az élet ott kezdődik, amikor rájössz, hogy szart sem kell bizonyítanod senkinek
Ha meg akarod nevettetni Istent, készíts tervet!
- A hozzászóláshoz be kell jelentkezni
Ubuntu 14.04 nincs virtualizáció 1 db ext4 partició van. A cigány gyerek kivételével viszont szinte minden van a szerveren, nagyon heterogén az egész.
<befőttesüveg>
meggy
</befőttesüveg>
- A hozzászóláshoz be kell jelentkezni
Nézd meg a Samsung PM883 vagy SM883-as cuccait, SATA-s enterprise cuccok. Hogy a konkrét DELL gépben, illetve az abban lévő vezérlővel hogy megy az megint más kérdés. Esetleg érdemes lehet a serverelite.hu -soknál érdeklődnöd, mert lehet vele tapasztalatuk. Ha már a géphez hozzányúltok akkor ehhez a RAM és CPU bővítés is filléres lehet, illetve ha már SSD, akkor szerintem mindenképp. (Példul ha E55xx széria, akkor az E56xx tetejével elég jót lehet robbantani, de az X56xx -ekkel akár két E55xx is kiváltható adott esetben.)
- A hozzászóláshoz be kell jelentkezni
Köszi az értékes infót! Kb. egy bő éve a memóriát felbővítettük 64 GB-ra, de itt van még bespájzolva 64GB, csak még egy procit kellene szerezni, jelenleg E5645 van benne, de amikor a memóriát bővítettük nem találtunk eladót, aztán el is felejtődött a projekt.
<befőttesüveg>
meggy
</befőttesüveg>
- A hozzászóláshoz be kell jelentkezni
Az egy kiváló proci, érdemes megvenni a párját, meg rá a hűtőt. Az előbbi kereskedőhöz azt a tippet tudom adni, hogy érdemes ajánlatot kérni és kiderül van-e nekik belőle, illetve ugyanez SSD-re.
- A hozzászóláshoz be kell jelentkezni
Nekem ment már levesbe egy Samsung PM883. Egyik reggel soha többé nem látta a szerver és más gép se. 860PRO-t rakok azóta szerverbe ha kell és nincs pénz gyártói supportált SSD-re. Azokkal még nem volt gondom. Ha RAID1-be mennek akkor párjának EVO-t veszek. Azokkal se volt még gondom.
- A hozzászóláshoz be kell jelentkezni
Szintén samu pro sorozat megy az "olcsójánosoknak".
- A hozzászóláshoz be kell jelentkezni
Azok nem olcsojanosok.
Jo quad cell sam qvo, veszel 4 darabot mehet a dupla R1 tukor.
Every single person is a fool, insane, a failure, or a bad person to at least ten people.
- A hozzászóláshoz be kell jelentkezni
Ez bármelyik SSD-el vagy HDD-vel előfordulhat. Nálam elég sok példányban mennek az SM és PM SSD-k és justworks módon jók. Ha a RAID-ekben mégis meghal egy, akkor csere, a rebuild úgyis jóval gyorsabb. :)
- A hozzászóláshoz be kell jelentkezni
- swappet kapcsold ki (de legalábbis swappines=1) sok a memória, a linux relatíve rosszul swappel, inkább ne swappeljen. Ha nem fér be, akkor kell neki még ram. Sehogy se jó, ha swappel. (hard page out)
- a rendszer (kernel, libek, /usr) maradjon HDD-n. Ugyanis, a boot mindegy hogy 30 sec vagy 42 sec. Amit egy szerver normál üzemben használ prgramok, azoknak úgy is a memóriában a helye (teljes nevén named page pool), ezen dolgok SSD-re paokolása nem segít menet közben.
- biztos a diszk IO a kevés? 'sar -d -p 3' nézegesd erős terhelésnél. Utolsó oszlop 100% körül van, lehet kezdeni gondolkodni; a legfontosabb oszlop a aqu-sz (hány kérés várakozik egyszerre arra a diszkre?) ez nem árt, ha csúcsterhelésnél is 1 alatt/körül marad (30 diszkes raidnál azért megengedhető aqu-sz=30 is)
- nem a cpu a kevés? `uptime` kiírja a load average-t, 'top' meg kiírja, hogy hány 'R' (cpu-ra vár) és hány 'D' (diszkre vagy névfeloldásra vár) processz van. ezek összege a load.
Naszóval, ha oda jutottál, hogy tényleg a diszk IO a kevés, akkor.. vegyél pcie intel optane-t. És csak a DB-ket rakd oda. És ha valamely webapp használ átmeneti file-t, akkor azt rakd tmpfs-re. Olyan érzés lesz, mintha felszállnál.
- A hozzászóláshoz be kell jelentkezni
A T410 szerintem még nem eszi meg az optane-t.
- A hozzászóláshoz be kell jelentkezni
várhatóan bootolni nem lehet róla, de a kernel miért ne ismerné fel. Igen, ez mindenesetre kérdéses.
- A hozzászóláshoz be kell jelentkezni
Mennyi a sebesége egy optane-nak szinkron írásnál ? (VM-ek alapértelmezetten szinkron írnak).
fio --name=ssdtest --filename=testfile1 --size=100M --bs=4k --iodepth=16 --rw=randwrite --randrepeat=1 --sync=1 --fsync=1
a fenti méréssel az "asztali " Samsung-ok 4k-s szinkron írásnál tudnak kb 15-20 MB/sec-et,(850, 860 EVO, stb, de 970 EVO pl csak 5 Mb/sec, hiába NVMe), INTEl DC-k kb 70 MB/sec (pl. s3700)
Lemérné valaki , hogy egy ilyen 10 μSec-es SSD mit tud 4k-s szinkron írásnál?
- A hozzászóláshoz be kell jelentkezni
nem véletlenül írtam az optane-t, hanem mert 4k/64k, 1..32 szál, O_SYNC vagy sem, random vagy seq írásnál mindenhogy egyenletesen kitolta a ... sajnos nem emlékszem a pontos értékre, csak arra, hogy sehol nem láttam renyhülést. Azóta is szépen teljesít egy 24 diszkes ZFS intent log-ként, és nem az a szűk keresztmetszet (soha).
Mellesleg egy Xeon E5620 -ös gépen fut, az pont ugyan az a korosztály, mint a Tisztelt Topicnyitó E5645 cpu-ja.
A tesztelt optane: INTEL 280GB 900P Series PCI Express HHHL/PCI Express SSDPED1D280GASX
- A hozzászóláshoz be kell jelentkezni
ez szar meres, mert iodepth=16, meg csak 100 mega.
itt egy jo meres:
root@s19:~# fio --filename=/dev/nvme0n1 --direct=1 --sync=1 --rw=write --bs=4k --numjobs=1 --iodepth=1 --runtime=60 --time_based --group_reporting --name=journal-test journal-test: (g=0): rw=write, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=psync, iodepth=1 fio-3.13 Starting 1 process Jobs: 1 (f=1): [W(1)][100.0%][w=217MiB/s][w=55.5k IOPS][eta 00m:00s] journal-test: (groupid=0, jobs=1): err= 0: pid=2689150: Fri Nov 1 22:07:09 2019 write: IOPS=55.6k, BW=217MiB/s (228MB/s)(12.7GiB/60001msec); 0 zone resets clat (usec): min=13, max=1749, avg=17.23, stdev= 3.80 lat (usec): min=13, max=1749, avg=17.33, stdev= 3.80 clat percentiles (nsec): | 1.00th=[14784], 5.00th=[15296], 10.00th=[15424], 20.00th=[15680], | 30.00th=[16064], 40.00th=[16192], 50.00th=[16768], 60.00th=[17280], | 70.00th=[17536], 80.00th=[17792], 90.00th=[18048], 95.00th=[18560], | 99.00th=[41216], 99.50th=[41728], 99.90th=[45824], 99.95th=[52992], | 99.99th=[84480] bw ( KiB/s): min=219328, max=225880, per=100.00%, avg=222454.19, stdev=1340.55, samples=119 iops : min=54832, max=56470, avg=55613.56, stdev=335.15, samples=119 lat (usec) : 20=97.35%, 50=2.60%, 100=0.05%, 250=0.01% lat (msec) : 2=0.01% cpu : usr=10.32%, sys=27.54%, ctx=3336824, majf=0, minf=12 IO depths : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued rwts: total=0,3336799,0,0 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=1 Run status group 0 (all jobs): WRITE: bw=217MiB/s (228MB/s), 217MiB/s-217MiB/s (228MB/s-228MB/s), io=12.7GiB (13.7GB), run=60001-60001msec Disk stats (read/write): nvme0n1: ios=44/3331054, merge=0/0, ticks=1/43653, in_queue=0, util=99.89% root@s19:~# nvme list | grep nvme0 /dev/nvme0n1 PHMB7363005X480DGN INTEL SSDPED1D480GA 1 480.10 GB / 480.10 GB 512 B + 0 B E2010325 root@s19:~#
- A hozzászóláshoz be kell jelentkezni
Köszi a mérést, az iodepht=1 a korrekt nem a 16, csak akkor most azt látnám , hogy Samsung 3 MB/sec ,Optane 230 MB/sec.
Nekem meg Samsungjaim vannak.
Szerintem a szinkron írás sebessége nem függhet a tesztfile méretétől, én direct=1 helyett --fsync=1 et használtam, és mindegy volt a fájlméret.
- A hozzászóláshoz be kell jelentkezni
igy van, a consumer samsung tud vagy 2-3MB/s-et, nincs ezen semmi meglepo, nincs rajta PLP
- A hozzászóláshoz be kell jelentkezni
Ez a lassúság ok vagy okozat?
- A hozzászóláshoz be kell jelentkezni
marmint?
azert tud ennyit, mert ha directben irsz, akkor megkered a driveot, hogy volatilis cachebe ne irjon. mivel a samsungban nincs power loss protection (PLP), igy ha igy kered az irast, o kenytelen kozvetlen a nandra irni, ami lassu. (foleg 4k-ban, hiszen a nand csippeket >4kban cimzik, ugyhogy kapsz szep read-modify-write ciklusokat...)
a legtobb "sima" enterprise driveon (ami nem az optane), ott van rajta memoria, es van rajta eleg kondi, hogy ha elmegy az aram, akkor ki tudja flusholni a teljes RAM-ot NAND-ra, mielott leall, igy itt nem gond az, ha a 4k-s irast elobb a driveon levo memoriaba irja, amit majd utana idonkent a GC kiflushol.
a high-end enterprise driveokon (mint pl az IBM FCM, vagy egyes gyartok proprietary drivejai) tobb hierarchia is van, RAM, SLC es QLC egymas mellett.
az optane teljesen mas ebbol a szemszogbol, ugyanis nand helyett phase change memory van rajta (amigy az IBM Research fejlesztett ki amugy elsonek, pont Zurichben :P), ami annyit tesz, hogy olyan fizikai anyagbol van, aminek valtozik egy fizikai allapota (ellenallas altalaban) valamilyen behatasra (altalaban valtozo feszultseg), igy a feszultsegvaltozassal tudod programozni 0/1/2/..-be, majd utana eleg megmerned az ellenallasat, hogy megkapd a bitet.
tehat PLP-s enterprise driveokon illetve optanen nagyon gyors lesz minden, ami meg nem ez, ott meg nagyon lassu, ha direktben irsz. a kerdes mar csak az, hogy fontos-e a direkt iras. enterprise kornyezetben fontos az end-to-end integrity, ugyhogy igen, illetve a kulonbozo adatbazisok (Db2, Oracle) szeret sync/direct irni.
- A hozzászóláshoz be kell jelentkezni
Igen, kössz, a PLP megléte esetén a dram kessbe történő szupergyors írást azt így már akkor értem. Ahol nincs PLP, ott a dram cache nem is ÉRDEMES használni írásra csak olvasásra, mint amikor a HDD write cache-t kikapcsoltuk szerveren? Ebben a fenti tesztben a szinkron írás direktben a flashre írat, a dram kesst szándékosan kihagyva?
Illetve akkor az nem világos nekem, egy konzumer ssd pl. samsung evo 860 / 870 csak a dram kess telítésig gyors? Utána leesik annak a sebessége is ilyen 5-10 MB/sec-re?
- A hozzászóláshoz be kell jelentkezni
PLP nelkuli eszkozzel ha van barmifele aramkimaradas elleni vedelmed, akkor kicsi az eselye, h beszivod. a legtobb laptop pl ilyen, ott ez nem fordul elo altalaban.
igen, a fenti teszt kihagyta az eszkozon levo dram cachet.
igen, ez hosszabb teszteken szepen latszik, hogy az elso par perc nagyon gyors, aztan leesik - ha nem 4k a blokkmeret, hanem mondjuk mondjuk 128k akkor is nagyon szepen latszik a grafikonon, de akkor messze nem ilyen drasztikus az eses. de a 2GB cachet kozben folyamatosan pakolja ki a kontroller a NANDra, tehat nem konkretan az telik meg.
a szakmai velemenyem az, hogy annyira olcso a PLP-s datacenter NVMe (pl a Samsung 9A3), hogy nem erdemes nem ilyet venni ma mar.
- A hozzászóláshoz be kell jelentkezni
ez mi ez? valami kep hangyaknak? bazz, nincs 300x300 pixel se! te min nezed, regi nokian?
masreszt "nagy terheles" az, ha mondjuk irok ra 2 percig ? :)
- A hozzászóláshoz be kell jelentkezni
Ja, jönnek elő a a parketta alól ilyenkor tavasszal.
- A hozzászóláshoz be kell jelentkezni
A történet teljességéhez azért hozzátartozik, hogy az iodepth=1 egy nagyon speciális használati eset. Ez gyakorlatilag tisztán a latency-t méri, nem az áteresztőképességet. Nyilván, ha meg kell mutatni, hogy miben jobb az Optane egy NAND alapú SSD-nél, akkor ezt érdemes elővenni.
A legtöbb gyakorlati alkalmazásnál (főleg szerveren) egyidejűleg több művelet is lesz folyamatban és a NAND-alapú SSD-k elég jól tudják kezelni a párhuzamosan zajló műveleteket. A latency akkor számít, ha minden írásművelet után azonnal barrier van (valami patologikus journal használat és/vagy nagyon buta tranzakciókezelés miatt). Nem állítom, hogy nem fordulhat elő ilyen DB-nél, de nem ez a tipikus. Szarul megírt alkalmazás persze bármilyen hardvert és DB engine-t képes kétvállra fektetni :)
"Illetve akkor az nem világos nekem, egy konzumer ssd pl. samsung evo 860 / 870 csak a dram kess telítésig gyors? Utána leesik annak a sebessége is ilyen 5-10 MB/sec-re?"
Nem, a DRAM cache valójában nagyon pici az SSD méretéhez képest, és írásnál user adat pufferelésre nem is nagyon merik használni a PLP nélküli drive-okban. Pár perc nagyon intenzív random write után a desktop SSD-k teljesítmény visszaesése két fő okra vezethető vissza (benchmark grafikonon általában két külön töréspont látszik):
- Az SLC cache megtelése. Az üres flash-t gyorsan felzabálja, ha cellánként 1 bites módban írják, ezért a kontroller idővel el kell kezdje az SLC-s blokkokat TLC vagy QLC-re összepakolni. Ez jellemzően az SSD üres kapacitásának negyede-harmadánál üt be.
- A blokk-fragmentáció miatti garbage collection. Ez jellemzően nagyon hamar, az első pártíz GB írása után beüt. A flash erase blokkja sokkal nagyobb (16+MB), mint a logikai blokk (512byte vagy 4kB), fizikailag felülírni flash-t nem lehet, csak erase blokkot egyben törölni és az egészet újraírni. De az SSD vezérlőnek úgy kell tennie a host fele, mintha kis blokkokat tudna felülírni. Ilyenkor a kontroller annyit tud tenni, hogy a régi adatot meghagyja az eredeti helyen (mert óriási blokkot kéne törölni és újraírni). Egy új helyre (tipkusan valami journal-szerű sorfolytonos naplóba) bekerül a felülírt a blokknak frissebb tartalma. Ehhez extra hely kell és ez idővel kifogy. Ilyenkor a kontroller kénytelen garbage collectolni, a régen megírt, már sok elavult adatot tartalmazó erase blokkot törölni és a naplóból friss adatokkal berendezve újraírni. A garbage collection stratégia a desktop és az enterprise SSD-k között nagyon eltérő. A desktop SSD-k végletekig halogatják a garbage collection-t, hogy a csúcsteljesítmény szép nagy szám legyen. Viszont ha már muszáj, akkor nagyon lelassulnak. A szerver SSD-k meg igyekeznek transzparensen folyamatosan csinálni, így a csúcsteljesítményük kisebb lesz, de legalább azt konstans tudják tartani akármennyi ideig.
Régóta vágyok én, az androidok mezonkincsére már!
- A hozzászóláshoz be kell jelentkezni
A legtöbb gyakorlati alkalmazásnál (főleg szerveren) egyidejűleg több művelet is lesz folyamatban és a NAND-alapú SSD-k elég jól tudják kezelni a párhuzamosan zajló műveleteket. A latency akkor számít, ha minden írásművelet után azonnal barrier van (valami patologikus journal használat és/vagy nagyon buta tranzakciókezelés miatt). Nem állítom, hogy nem fordulhat elő ilyen DB-nél, de nem ez a tipikus. Szarul megírt alkalmazás persze bármilyen hardvert és DB engine-t képes kétvállra fektetni :)
WAL ala tipikusan meg mindig ilyeneket raknak elosztott rendszerekben is, illetve lattam en mar optanebol cachet is. nem kell mindig szar appokra gyanakodni (bar van boven..)
- A hozzászóláshoz be kell jelentkezni
Nem állítom, hogy nincs olyan valós alkalmazás, ahol tényleges elvi okokból ne lehetne szükség rá. De azt igen, hogy a legtöbb embernek előbb jön szembe egy szarul megírt app, aminek a jóisten hardvere sem elég :)
(Félig off: Épp most kuncogtam egyet GKH 128-magos szerverén... Ó, hogy mi már mennyi ideje használunk 128 magos gépeket... egy szarul megírt, skálázhatatlan appszerver alá. Bár épp nemrég raktam vissza őket 64 magos VM-ekre miután rámutattam, hogy az előző devops-os bandának nem tűnt fel, hogy windows-on, processor group támogatás nélkül sosem fog egy folyamat 64 magnál többet kihasználni.)
Régóta vágyok én, az androidok mezonkincsére már!
- A hozzászóláshoz be kell jelentkezni
A történet teljességéhez azért hozzátartozik, hogy az iodepth=1 egy nagyon speciális használati eset.
Majd kijavítanak, ha rosszul gondolom, szerintem nem speciális eset a szinkron írás. Az iodepht=1 (és az fsync=1) az a szinkron írás. fio-nál azért adják meg, ha netán aszinkron motorral tesztelsz (nem adtad meg a motort) , akkor kényszerítsd szinkron írásra , Szinkron motorral mindegy hogy iodepth=1 vagy 100. Nincs sorban állás, csak az aszinkron írásnál. Például ZFS ZIL log ssd ilyen terhelést kap. Proxmox-ban is választhatod VM enként a szinkron írást, a biztonság megnő, a teljesítmény borzalmas lesz. Ide kellene az optane, de legalább plp-s ssd.
- A hozzászóláshoz be kell jelentkezni
miert ne lehetne qd>1 szinkron irasnal? hibas a feltetelezesed :)
- A hozzászóláshoz be kell jelentkezni
Ok, de én ezt mérem ha libaio motor helyett ioengine=sync motort adok meg:
Model Family: Intel 520 Series SSDs
Device Model: INTEL SSDSC2CW120A3
root@srv01:/# fio --name=ssdtest --filename=testfile1 --size=1000M --bs=4k --iodepth=1 --rw=randwrite --randrepeat=1 --sync=1 --fsync=1 --ioengine=sync |grep write:
write: IOPS=508, BW=2034KiB/s (2083kB/s)(1000MiB/503489msec)
root@srv01:/#
root@srv01:/# fio --name=ssdtest --filename=testfile1 --size=1000M --bs=4k --iodepth=512 --rw=randwrite --randrepeat=1 --sync=1 --fsync=1 --ioengine=sync |grep write:
write: IOPS=521, BW=2085KiB/s (2135kB/s)(1000MiB/491161msec)
root@srv01:/#
Szépen hozza a nem PLP-s ssd-k 2MB/sec sebességét mindkét esetben.
- A hozzászóláshoz be kell jelentkezni
wow de kemény teszt.
öregecske dellecske, benne intel ssd:
write: IOPS=2186, BW=8747KiB/s (8957kB/s)(1000MiB/117073msec); 0 zone resets
fogok a dell-be keríteni nvme samsungot, azt is megmérem.
(mondjuk ez egy zfs raid1 igazából, nem tudom ez mennyit számít)
Gábriel Ákos
- A hozzászóláshoz be kell jelentkezni
Nyilván az OP problémafelvetése alapján (1db régi szerverbe SSD) én nem az ilyen large-scale storage infrákra asszociáltam, így a "speciálisat" értsd úgy, hogy a ZFS ZIL szinkron üzemmódban már nem hétköznapi eset. Egy MySQL alá, nem feltétlen az iodepth=1 lesz a reprezentatív mérési eredmény. Pláne, ha több független DB instance fut ugyanazon a vason, akkor ha külön-külön éppen szinkronban is írnak, együttesen mégis magasabb queue depth-et fognak okozni.
Régóta vágyok én, az androidok mezonkincsére már!
- A hozzászóláshoz be kell jelentkezni
Pláne, ha több független DB instance fut ugyanazon a vason, akkor ha külön-külön éppen szinkronban is írnak, együttesen mégis magasabb queue depth-et fognak okozni.
És pontosan ugyanolyan sebességgel megy majd az irás mint a qd=1 -nél, ahogy a fenti mérésből is látszik. qd 1 és 512
- A hozzászóláshoz be kell jelentkezni
És ha két külön fio-t futtatsz párhuzamosan 2 külön file-ba, ugyanarra az eszközre, mindkettőt qd=1-el? (most fejből nincs meg, de lehet, hogy van is erre dedikált paraméter)
Nekem az a feltevésem, hogy (itt most szándékosan valami egyszerű metadata-journaling filerendszert tételezek fel, mondjuk default paraméteres ext4-et, nem pedig zfs szinkron write ahead logot vagy btrfs cow-t) az ioengine=sync nem fog külön file-okba történő adat írás között kikényszeríteni szinkronizálást. Vagyis két független fio összeadva nagyjából a kétszeresét fogja kiadni annak az eredménynek, amit 1 fio futtatásnál kapnál. És ez legalább kb 4-8 instance-ig majdnem lineárisan skálázódni fog, csak utána telítődik.
Ha ma este ráérek, akkor mérek én is párat.
Régóta vágyok én, az androidok mezonkincsére már!
- A hozzászóláshoz be kell jelentkezni
Árban is ekkora a különbség?
"Nem akkor van baj amikor nincs baj, hanem amikor van!"
Népi bölcsesség
- A hozzászóláshoz be kell jelentkezni
egy 400GB-os Intel P5800X az olyan ~1117 CHF eppen most (kisker brutto). 2.8 CHF/GB.
egy 960GB-os Samsung PM9A3 az olyan ~176 CHF eppen most (kisker brutto). 0.184 CHF/GB.
egy 1TB-os Samsung 980 Pro az olyan ~148 CHF eppen most (kisker brutto). 0.148 CHF/GB.
~19x dragabb a P5800X, cserebe a teljesitmenye ennek a tobbszorose. ahova kell, oda megeri. nekem epp ev elejen jott meg egy doboznyi belole, eleg jo cucc :-)
- A hozzászóláshoz be kell jelentkezni
Jah most néztem meg, döbbenet ez az ár. Inkább akkor ráérek. :)
"Nem akkor van baj amikor nincs baj, hanem amikor van!"
Népi bölcsesség
- A hozzászóláshoz be kell jelentkezni
A régebbi sorozatnál (pl. P4800X) HHHL és U.2 csatlakozást tüntet fel az Intel. A P5800X-nél 2.5-ös form factorhoz PCIe 4.0 x4 NVMe-t ír. Ránézésre ugyanaz az U.2/SAS interfész, mint korábban. Ha U.2-es csatlakozó van a szerver alaplapon, akkor azzal működik (Xeon Scalable 2nd gen)?
Horror az ár. Nincs fölösleges 1.6Tb-os meghajtód? :-) 3.2Tb-ost lehet egyáltalán kapni?
"Jegyezze fel a vádhoz - utasította Metcalf őrnagy a tizedest, aki tudott gyorsírni. - Tiszteletlenül beszélt a feljebbvalójával, amikor nem pofázott közbe."
- A hozzászóláshoz be kell jelentkezni
U.2-es a P5800X. ha van U.2-od, menni fog. annyi limitaciod lesz, hogy PCI-e v3 csak az az U.2, nem v4, de amugy mukodni fog.
a 3.2TB-os P5800X nem kaphato retail csatornan
- A hozzászóláshoz be kell jelentkezni
# Dell EMC PowerEdge T440 (PERC H750 RAID)
- 4 x Dell 960GB SATA MU SSD HOT-PLUG Kerettel, 5 év helyszíni gari - 151.000 FT + ÁFA / db
Elégedett vagyok, gyors, minden ok.
# RHE, Rocky, NethServer, MBP14
- A hozzászóláshoz be kell jelentkezni
Ebből a teljes konfig került ennyibe, v. csak a "4x Dell 960GB ..." sor?
- A hozzászóláshoz be kell jelentkezni
4db. SSD: 600e nettó (151.000 FT + ÁFA / db)
Teljes konfig: 1.7m nettó
# RHE, Rocky, NethServer, MBP14
- A hozzászóláshoz be kell jelentkezni
Ha már feltámasztottuk a halott topicot...
Én nem értem miért adják ennyire drágán a brandelt ssd-ket... Értem én hogy az iphonet is megveszik sokan annyiért, de akkor is.
Sok szervert építettünk vagy fejlesztettünk úgy, hogy sima kommersz SATA SSD-t tettük/teszünk bele (desktopokba is egyébként ezeket pakoljuk). Apacer, A-Data, Teamgroup, meg még nem is tudom mik voltak. Egy sem döglött még meg (sem szerverbe, sem desktopba), pedig van olyan konfig ami sok éve megy. Teljesítményben nincs igazán összehasonlítási adatom, mert ugye ugyanazt a vasat kéne mérni valami nagyobb nevű diszkkel vagy brand diszkkel, de egyik géppel sincs teljesítmény probléma, tökéletesen ellátja a feladatát, nyilván fényévvel előtte van bármilyen hdd-nek. A desktopokat kivéve mindenhol RAID van, általában RAID10, illetve napi backup. 150k-ból még a mostani árak mellett is ki lehet hozni simán 6 olcsóbb SSD-t vs. 1-ért adsz annyit. Ha meg mégis megdöglik, akkor akár a sarki boltba bemehetsz, veszel másikat, beteszed és kész.
"Sose a gép a hülye."
- A hozzászóláshoz be kell jelentkezni
mert a brandelt SSD nem fos, nagyon egyszeru.
raknek VALAHA a-data, teamgroup, apacer SSD-t en barmilyen szerverbe (de akar a sajat desktopomba)? a valasz az egyertelmu nem. soha. semmilyen korulmenyek kozott.
es akkor maris nem az olcso fos vs brand a kerdes, hanem az intel/samsung/micron enterprise drive vs Dell drive (ami ugyanaz, csak rebandelve), es rajossz, hogy jee, ugy mar nem is olyan draga, foleg, hogy benne van mondjuk 24x7 4 oran beluli csere, etc.
- A hozzászóláshoz be kell jelentkezni
Mert a nem brandelt fos? Nem ezt látjuk.
OK, és miért is nem tennél? Mert azt nem írtad.
Ha ennyire kell hogy gyorsan legyen cserélve, akkor rászánsz még egy diszk árát (150k/6db=25k), magyarul 175k-ért veszel 7-et, 1-et elteszel a fiókba, és ha megdöglik egy, akkor akár 10 percen belül kicserélted. Vagy beteheted hot-spare-nek ha fizikailag belefér, és beugrik automatán.
Baromira nem látom az előnyt még mindig.
"Sose a gép a hülye."
- A hozzászóláshoz be kell jelentkezni
nem azert olcso, mert a hudecsunya multi lehuz teged a dragabb cuccokon, hanem van anyag benne. emberek, akik letesztelik az FW-t rendesen, az elektronika rendesen meg van epitve, az aram- es homanagement rendben van, a NAND nem gagyi, etc, etc. ezert nem vennek ezekbol.
25k-ert nem tudsz rendes enterprise diszket venni a szabad piacon, en nem tudom te mirol beszelsz.
- A hozzászóláshoz be kell jelentkezni
Senki nem beszélt enterprise diszkekről (bár abba inkább ne menjünk bele, hogy ez az enterprise sokszor bullshit), de a kérdésemre továbbra sem válaszoltál.
Szóval ott tartunk, hogy a kolléga vett 600k-ért 4db enterprise diszket, én meg azt mondtam, hogy inkább veszek 150k-ért 6 olcsót, aztán ha megdöglik esetleg, akkor veszünk másikat. Erre te azzal válaszoltál, hogy dehát garancia meg 4 órán belül cserélik, erre meg én mondtam hogy ha ez ennyire szempont, akkor veszünk 7-et 175k-ért, még mindig 425k-val bentebb vagyunk és azonnal vagy akár 10 percen belül ki lesz cserélve a hibás diszk.
"Sose a gép a hülye."
- A hozzászóláshoz be kell jelentkezni
de a kérdésemre továbbra sem válaszoltál.
Mert pont erről szólt a méricskélés feljebb . Intenziv lemezhasználat esetén, magas iops random szinkron írásnál , - speciális eset , pl ZFS ZIL lemez - két nagyságrend lehet a különbség. (2MB/sec vs 200 MB/sec).
Egy topic a proxmox forumról - Consumer nvme ssd log-nak és a felére esett a teljeaítmény,
https://forum.proxmox.com/threads/nvme-slog-gives-slower-write-performance.65272/
Proxmox fórumon sok hasonlót találhatsz.
- A hozzászóláshoz be kell jelentkezni
Senki nem beszélt enterprise diszkekről
de, de, arrol szol az egesz. szerverrol beszelunk. ha veszel egy Dell/Supermicro/akarmi branded diszket, akkor az enterprise diszk lesz, nem desktop.
bár abba inkább ne menjünk bele, hogy ez az enterprise sokszor bullshit
???? meselj mar szerinted miert bullshit...
- A hozzászóláshoz be kell jelentkezni
Nem ugyanabban a világban mozogtok, nincs tapasztalatotok a másikéról. Teljesen feleslegesen vitatkoztok, szerintem.
Gábriel Ákos
- A hozzászóláshoz be kell jelentkezni
nem vitatkozom, a tudatat tagitom. :)
- A hozzászóláshoz be kell jelentkezni
Varazsgombanak kepzeled magad? :)
- A hozzászóláshoz be kell jelentkezni
Mert dolgozunk 1-2 nagyobb cégnek, és az látszik, hogy sokszor az enterprise kulcsó valamin (most elsősorban szoftverekre és supportra gondolok), az annyit jelent, hogy 3-4x-es árcímkét (vagy egyáltalán az árcímkét a free helyett) rá lehet tenni anélkül, hogy egyébként bármivel is jobb lenne vagy több lenne a free/community változattól. Cserébe ha valami szar, akkor lehet lobogtatni a számlát meg a licencet, ugynakkor a problémát ha meg akarod oldani, kb. ugyanúgy neked kell kút főből, logikából meg googleből, stackoverflow-ból meg a többiből megoldani, mert a supportnak halvány lila fingja sincs arról (fele annyi se, mint neked), hogy mi a probléma, és teljesen értelmetlen dolgokat kér vagy javasol, vagy totálisan rossz irányba indulna el hibakereséssel.
"Sose a gép a hülye."
- A hozzászóláshoz be kell jelentkezni
ne terelj! hwrol volt szo, erre szoftverrol irsz.
az az 1-2 nagyobb ceg biztos orulne amikor kiderul hogy desktop adata ssdt raktal be...
- A hozzászóláshoz be kell jelentkezni
Hat, nem tudom. Define "nagy"...
Nagy ceg vagyunk, es nagyoknak dolgozunk. A meretekrol annyit, hogy pl. a storage osszesiteseknel a peta es exa elotagok szerepelnek a beszamolokban.
Semmi esetben se engedhetjuk meg magunknak, hogy csak ugy, komoly support nelkul fogadjunk be illetve nyujtsunk SW vagy HW termeket. Ezt a beszallitoink es a customereink se engedhetik meg maguknak, ha az ellatasi lancon megyunk jobbra vagy balra. Ki vallalna be mondjuk egy olyat, hogy egy nyari olimpia alatt egyszercsak megall az internet vagy telefonhalozat anelkul, hogy pancellal vedene az ulepet?
A support ebben a kornyezetben nem azt jelenti, hogy egy random munkatarsad valamit egy, a vendor weblapjan uzemelo forumba, ahol majd egy random munkatars irkal valami okosat.
Itt arrol van szo, hogy amint hibat talalsz (rosszabb esetben a customered fut bele elesben), az keresztul megy az erre felkeszult mernokodon (lasd meg, certified engineer), aki eldonti, hogy ez a hiba tenyleg a vendornal van, majd felveszi a kapcsolatot a megfelelo csatornakon kereszul. Erre a vendor szepen ramozdul, es megoldja kozosen a mernokeiddel. Ha kell, akkor repulore ul egy kisebb csapat.
Szigoru meroszamok vannak a hibamegoldashoz. Peldaul 7/24-ben 30 percen belul ACK, 24 oran belul fix/workaround, 72 oran belul kesz javitas. Ez sokba kerul. Nagyon...
- A hozzászóláshoz be kell jelentkezni
Egy másik, kicsit cinikus, de valamennyire tanulságos nézőpont lehet, hogy ha 600k-ért veszed meg a brand disket, akkor nem (feltétlenül) a te tökeid lesznek satuban, ha idő előtt elpukkan az egyik. Ellentétben azzal, amikor a sarki számtech boltból hozod az SSD-ket. Ez az életérzés sokszor megéri a felárat, és nem csak az SSD-re igaz.
Illetve még egy szempont, hogy ha 600k budget van SSD-re, akkor nem veszünk 150-ért, mert a különbözetet nem fogod megkapni, ellenben a későbbi problémákat igen. :)
- A hozzászóláshoz be kell jelentkezni
Úgy bizony. Nem találkoztam még olyan hellyel ahol az ilyen típusú takarékosságot értékelték volna.
Gábriel Ákos
- A hozzászóláshoz be kell jelentkezni
Minden esetben tájékoztatjuk az ügyfelet arról, hogy ez azért ennyi, azért olcsó, mert nem erre van, ugyanakkor véleményünk szerint teljesen megfelelő.
Emellett valamiért nem akarjátok megérteni a különbséget.... Szóval 150k-ért vesz valamit. Ami nem mondom, hogy ugyanazt hozza, akár teljesítményben, akár élettartamban mint az enterprise, de neki tökéletesen megfelelő. Ha esetleg mégis hullana (ami mint írtam egyáltalán nem jellemző), akkor elfogadja azt, hogy akár újabb 150k-ért venni kell 6 új diszket 2-3 év múlva. De még akkor is a felénél jár (300k vs. 600k)
"Sose a gép a hülye."
- A hozzászóláshoz be kell jelentkezni
Emellett valamiért nem akarjátok megérteni a különbséget....
Nem kell mindenhova DC ssd. Viszont van egy olyan szegmense az ssd-k nek, ahol jelenleg 100 szoros a különbség. Ezt azért nem mondhatod "csili vili túlárazott" szerveralkatrésznek. HDD -nél nincs ilyen különbség, smr HDD és 10 k sas HDD között sem.
lemérheted:
fio --name=ssdtest --filename=testfile1 --size=1000M --bs=4k --iodepth=1 --rw=randwrite --randrepeat=1 --sync=1 --fsync=1 --ioengine=sync |grep write:
nem plp-s ssd-knél 1.5 MB/sec -et kapsz majd
plp-s sata DC ssdk: 70-100 MB/sec-et
Nvme plp, optane 200- MB/sec.
Volt aki ezekre a mérésekre azt mondta, nem jó a fio. pedig jó.
Adatbáziskezelők, ZFS (SLOG/ZIL) , iops intenzív lemezhasználathoz célszerű elsősorban.
Az optane-t nem az irodai szerverekhez árazták, de használtan akár magyar szerverboltokban is 1 év garanciával kapsz p36xxx, p37xx Nvme ssdt, egy 1.6 Tb-os 95 ezer, egy új samsung asztali 1 TB-os meg 60 ezer.
- A hozzászóláshoz be kell jelentkezni
Ez a desktop gépem, Teamgroup SATA.
*-sata
description: SATA controller
product: 9 Series Chipset Family SATA Controller [AHCI Mode]
vendor: Intel Corporation
physical id: 1f.2
bus info: pci@0000:00:1f.2
logical name: scsi0
version: 00
width: 32 bits
clock: 66MHz
capabilities: sata msi pm ahci_1.0 bus_master cap_list emulated
configuration: driver=ahci latency=0
resources: irq:29 ioport:f0d0(size=8) ioport:f0c0(size=4) ioport:f0b0(size=8) ioport:f0a0(size=4) ioport:f060(size=32) memory:f7d39000-f7d397ff
*-disk
description: ATA Disk
product: TEAM T253X2001T
physical id: 0.0.0
bus info: scsi@0:0.0.0
logical name: /dev/sda
version: KR
serial: TPBF2009150030100480
size: 953GiB (1024GB)
capabilities: gpt-1.00 partitioned partitioned:gpt
configuration: ansiversion=5 guid=ae53f75f-e452-415d-9327-63ff66a4a948 logicalsectorsize=512 sectorsize=512
ssdtest: (g=0): rw=randwrite, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=sync, iodepth=1
fio-3.26
Starting 1 process
ssdtest: Laying out IO file (1 file / 1000MiB)
Jobs: 1 (f=1): [w(1)][99.7%][w=5640KiB/s][w=1410 IOPS][eta 00m:01s]
ssdtest: (groupid=0, jobs=1): err= 0: pid=210724: Thu Apr 14 10:45:26 2022
write: IOPS=747, BW=2988KiB/s (3060kB/s)(1000MiB/342649msec); 0 zone resets
clat (usec): min=576, max=846489, avg=1279.45, stdev=7235.47
lat (usec): min=576, max=846490, avg=1279.63, stdev=7235.52
clat percentiles (usec):
| 1.00th=[ 594], 5.00th=[ 594], 10.00th=[ 603], 20.00th=[ 611],
| 30.00th=[ 635], 40.00th=[ 644], 50.00th=[ 644], 60.00th=[ 660],
| 70.00th=[ 676], 80.00th=[ 701], 90.00th=[ 742], 95.00th=[ 807],
| 99.00th=[ 30278], 99.50th=[ 45876], 99.90th=[104334], 99.95th=[123208],
| 99.99th=[204473]
bw ( KiB/s): min= 8, max= 5928, per=100.00%, avg=2998.73, stdev=2622.91, samples=683
iops : min= 2, max= 1482, avg=749.67, stdev=655.71, samples=683
lat (usec) : 750=90.96%, 1000=6.41%
lat (msec) : 2=0.98%, 4=0.14%, 10=0.47%, 20=0.01%, 50=0.69%
lat (msec) : 100=0.24%, 250=0.11%, 500=0.01%, 1000=0.01%
fsync/fdatasync/sync_file_range:
sync (usec): min=19, max=213957, avg=55.72, stdev=1072.42
sync percentiles (usec):
| 1.00th=[ 24], 5.00th=[ 26], 10.00th=[ 27], 20.00th=[ 28],
| 30.00th=[ 30], 40.00th=[ 31], 50.00th=[ 32], 60.00th=[ 32],
| 70.00th=[ 34], 80.00th=[ 36], 90.00th=[ 43], 95.00th=[ 58],
| 99.00th=[ 145], 99.50th=[ 206], 99.90th=[ 529], 99.95th=[15139],
| 99.99th=[52691]
cpu : usr=0.42%, sys=3.47%, ctx=1029338, majf=0, minf=16
IO depths : 1=200.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued rwts: total=0,256000,0,255999 short=0,0,0,0 dropped=0,0,0,0
latency : target=0, window=0, percentile=100.00%, depth=1Run status group 0 (all jobs):
WRITE: bw=2988KiB/s (3060kB/s), 2988KiB/s-2988KiB/s (3060kB/s-3060kB/s), io=1000MiB (1049MB), run=342649-342649msecDisk stats (read/write):
dm-5: ios=0/1806344, merge=0/0, ticks=0/664867, in_queue=664997, util=99.73%, aggrios=0/1806386, aggrmerge=0/0, aggrticks=0/462973, aggrin_queue=463101, aggrutil=99.70%
dm-4: ios=0/1806386, merge=0/0, ticks=0/462973, in_queue=463101, util=99.70%, aggrios=9524/1543458, aggrmerge=1/269373, aggrticks=304916/426053, aggrin_queue=1008493, aggrutil=97.88%
sda: ios=9524/1543458, merge=1/269373, ticks=304916/426053, in_queue=1008493, util=97.88%
Ez pedig egy szerver, Samsung NVME. (Azt hittem, megmarom magam, míg végez...)
*-pci:1
description: PCI bridge
product: Cannon Lake PCH PCI Express Root Port #21
vendor: Intel Corporation
physical id: 1b
bus info: pci@0000:00:1b.0
version: f0
width: 32 bits
clock: 33MHz
capabilities: pci pciexpress msi pm normal_decode bus_master cap_list
configuration: driver=pcieport
resources: irq:123 memory:51000000-510fffff
*-nvme
description: NVMe device
product: SAMSUNG MZVLB1T0HALR-00000
vendor: Samsung Electronics Co Ltd
physical id: 0
bus info: pci@0000:02:00.0
logical name: /dev/nvme1
version: EXA7301Q
serial: S3W6NX0M911083
width: 64 bits
clock: 33MHz
capabilities: nvme pm msi pciexpress msix nvm_express bus_master cap_list
configuration: driver=nvme latency=0 nqn=nqn.2014.08.org.nvmexpress:144d144dS3W6NX0M911083 SAMSUNG MZVLB1T0HALR-00000 state=live
resources: irq:16 memory:51000000-51003fff
ssdtest: (g=0): rw=randwrite, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=sync, iodepth=1
fio-3.19
Starting 1 process
Jobs: 1 (f=1): [w(1)][100.0%][w=491KiB/s][w=122 IOPS][eta 00m:00s]
ssdtest: (groupid=0, jobs=1): err= 0: pid=508482: Thu Apr 14 11:12:45 2022
write: IOPS=139, BW=557KiB/s (571kB/s)(1000MiB/1837719msec); 0 zone resets
clat (msec): min=2, max=179, avg= 6.98, stdev= 1.98
lat (msec): min=2, max=179, avg= 6.98, stdev= 1.98
clat percentiles (usec):
| 1.00th=[ 3097], 5.00th=[ 3228], 10.00th=[ 3359], 20.00th=[ 5473],
| 30.00th=[ 7373], 40.00th=[ 7504], 50.00th=[ 7570], 60.00th=[ 7701],
| 70.00th=[ 7767], 80.00th=[ 7963], 90.00th=[ 8225], 95.00th=[ 8586],
| 99.00th=[11469], 99.50th=[12518], 99.90th=[15270], 99.95th=[16188],
| 99.99th=[20055]
bw ( KiB/s): min= 280, max= 1280, per=100.00%, avg=557.74, stdev=184.43, samples=3668
iops : min= 70, max= 320, avg=139.26, stdev=46.15, samples=3668
lat (msec) : 4=18.95%, 10=78.12%, 20=2.91%, 50=0.01%, 250=0.01%
fsync/fdatasync/sync_file_range:
sync (usec): min=60, max=142913, avg=187.69, stdev=565.79
sync percentiles (usec):
| 1.00th=[ 73], 5.00th=[ 80], 10.00th=[ 95], 20.00th=[ 100],
| 30.00th=[ 109], 40.00th=[ 128], 50.00th=[ 147], 60.00th=[ 157],
| 70.00th=[ 163], 80.00th=[ 169], 90.00th=[ 180], 95.00th=[ 202],
| 99.00th=[ 3097], 99.50th=[ 3490], 99.90th=[ 7177], 99.95th=[ 7504],
| 99.99th=[ 9765]
cpu : usr=0.29%, sys=1.57%, ctx=1285438, majf=0, minf=13
IO depths : 1=200.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
issued rwts: total=0,256000,0,255999 short=0,0,0,0 dropped=0,0,0,0
latency : target=0, window=0, percentile=100.00%, depth=1
Run status group 0 (all jobs):
WRITE: bw=557KiB/s (571kB/s), 557KiB/s-557KiB/s (571kB/s-571kB/s), io=1000MiB (1049MB), run=1837719-1837719msec
Disk stats (read/write):
dm-0: ios=0/1051088, merge=0/0, ticks=0/1919477, in_queue=1919477, util=100.00%, aggrios=3/1589441, aggrmerge=0/0, aggrticks=0/0, aggrin_queue=0, aggrutil=0.00%
md1: ios=3/1589441, merge=0/0, ticks=0/0, in_queue=0, util=0.00%, aggrios=2/1054517, aggrmerge=0/20151, aggrticks=1/1755009, aggrin_queue=1755011, aggrutil=99.02%
nvme0n1: ios=4/1054518, merge=0/20150, ticks=3/1752099, in_queue=1752102, util=98.89%
nvme1n1: ios=0/1054516, merge=0/20152, ticks=0/1757919, in_queue=1757920, util=99.02%
"Sose a gép a hülye."
- A hozzászóláshoz be kell jelentkezni
Erről beszléltünk:
Ez pedig egy szerver, Samsung NVME.
WRITE: bw=557KiB/s (571kB/s), 557KiB/s-557KiB/s (571kB/s-571kB/s), io=1000MiB (1049MB), run=1837719-1837719msec
Egy HDD -nél ez 400 Kib/s.
Nem szokták elsőre elhinni. Persze ettől még lehet jó, de jobbnak gondolják.
- A hozzászóláshoz be kell jelentkezni
OK, és az én szaros teamgroupom meg 2988KiB/s-et tud?
"Sose a gép a hülye."
- A hozzászóláshoz be kell jelentkezni
tok mindegy, mert az is szar.
itt van egy kozepes enterprise drive (Samsung SAMSUNG MZQL23T8HCLS-00A07, PM9A3, 3.84TB): write: IOPS=74.4k, BW=291MiB/s (305MB/s)(17.0GiB/60001msec); 0 zone resets
itt van egy optane (Intel SSDPF21Q400GB, P5800X): write: IOPS=94.0k, BW=371MiB/s (389MB/s)(21.7GiB/60001msec); 0 zone resets
itt meg egy Samsung 970 PRO: write: IOPS=462, BW=1848KiB/s (1892kB/s)(108MiB/60001msec); 0 zone resets
- A hozzászóláshoz be kell jelentkezni
Értem, és akinek ez elég? Akinek jó a suzuki, nem fog lexust venni...
Viszont az akkor kimondható, hogy az olcsó "noname" SSD-k semmivel sem rosszabbak márkás nagynevű társaiknál.
"Sose a gép a hülye."
- A hozzászóláshoz be kell jelentkezni
Igen, de leginkább a tranzakciókezelés szempontjából. A te saját mérésedből is látszik, hogy egy nvme samsung consumer ssd ugyanolyan lehet mint egy hdd: 400 vs 570 kbájt/sec.
Nem szokták elhinni. Higgyek a szememnek vagy a marketingnek? Ott a nevében a pro. Vagyis asztali, de professzionális, azaz top termék.
Vagy nem.
- A hozzászóláshoz be kell jelentkezni
Ezt azért kétkedve fogadom, hogy annyit tud, mint egy bármilyen HDD. Bármilyen gépben, bármilyen HDD helyett amikor SSD került/kerül be, fényévek a különbségek.... Természetesen az SSD javára.
"Sose a gép a hülye."
- A hozzászóláshoz be kell jelentkezni
CSAK a tranzakciókezelésre érvényes a megálapítás. Aszinkron - és vagy, szekvenciális- irásnál sokkal jobb mint egy HDD. 200 Megabást/sec vs 500 -1500 Megabájt/sec.
Mi CSAK AZ IOPPS igényes, másképp kis latency-t igénylő intenziv lemezhasználatról vitázunk. Minél kisebb a latency annál drágább az ssd, Optane-nél ez kell megfizetni.
Ahogy csökken a latency , úgy nő az ssd ára. Fajlagosan az optane nagytestvére, a permanens memória viszont valamivel olcsóbb (gigabájtra átszámolva) mint a DRAM, igaz itt nincs 4.8,16 GB , 128 GB-tal kezdődik egy modul.
Ezt azért kétkedve fogadom, hogy annyit tud, mint egy bármilyen HDD.
Most mérted le. És hát kinek higgyél, a marketingnek vagy a saját mérésednek. Hát a marketingnek, természetesen.
Mégegyszer Proxmoxos fórumról 2020 februári topic , WD SN750 nvme, kb ugyanazt kapta amit mértél: Nvme asztali ZIL/SLOG ssd-nek és felére eseik az IOPS:
https://forum.proxmox.com/threads/nvme-slog-gives-slower-write-performance.65272/
- A hozzászóláshoz be kell jelentkezni
Csinálhatnál egy kicsit szájbaragós blogposztot a hátteréről ennek az egész méricskélésnek, hogy mi miatt nem igaz mindig minden körülmények között a 3000MB/sec nagyságrendű számok amik a dobozon vannak, és ez mikor lémyeges.
- A hozzászóláshoz be kell jelentkezni
Ez azert egy igen massziv topic :)
Komoly folytatasos teleregeny lenne, ha valaki vallalkozna ra. Eleve egy szep tema a blokkos eszkozok kulonfele teljesitmeny-parameterei, aztan a benchmarkolas buktatoi, es vegul meg ennel is sokkal nagyobb temakor, hogy az egyes alkalmazasoknak mikor mi kell belole es miert. Itt aztan vannak boven nagyon mely rabbithole-ok tranzakciokezelessel, elosztott rendszerekkel, meg ugy altalaban a filerendszerek lekivilagaval (incl az advanced megoldasok, mint brtfs, ceph, zfs, amik kb alapjaiban meg tudjak valtoztatni a felettuk futo alkalmazas IO profiljat).
Egy feleves egyetemi tantargy siman kijonne belole, es akkor meg mindig nem fedtel le mindent.
Elismeresem annak aki ebbol tudna egy "tldr" osszefoglalo blogposzt irni ugy, hogy ne legyen durva elvarratlan szalak benne.
Régóta vágyok én, az androidok mezonkincsére már!
- A hozzászóláshoz be kell jelentkezni
lazan kapcsolodik, hogy egyszer tartottam egy eloadast arrol, hogy hogyan csaljunk block storage benchmarkon... :) mindig megkerdeztem a kozonseget, hogy mondjanak mar egy metrikat, ami szerintuk fasza (a kulcs az _egy metrikan_ van), aztan hoppa, mar ki is dobta a rendszer... :D
mindig orom volt nezni az allakat, meg a megvilagosodast.
btw kulon blogposztot nem er, de multhet penteken hivatalos ceges hatszelet kapott az az uj blokk storage rendszer, amirol irtam, hogy elkezdjuk majd nyilt forraskoddal, szoval lesznek itten ujdonsagok! :-D
- A hozzászóláshoz be kell jelentkezni
Úgy értem pl. kezdjük soho/otthoni felhasználásra.
Van sata3, meg nvme csatolós SSD az otthoni torrentszerverbe. Sata3-nak ma már látványosak a korlátai, amik ezek és így lehet előhozni: .....
Vagy pl. a SATA3 elméleti max. átviteli sebessége valahol 550-600MB/sec körül van, a 870 EVO-m mégse tud gyorsabban olvasni, mint 250-300 MB/sec, ez azért van, mert:.......
A samsungnak van perpill 870 evo, 870 qvo, ezek között a különbség teljesítményben:.....
De aztán jön a 970 / 980, Pro, nem-pro, plus, nem-plus. DRAM és DRAM-nélküli. Van ami már csak a system RAM-ot használja vmi trükkös megfontolásból. Ezek teljesítménye így alakul:......
A dobozra írt nagy számok 3000MB/sec, vagy 10ezer MB/sec akkor érhetőek el csak, ha így méred vagy ezt csinálod: ........
A random 4K, queue1-depth1, stb. eredmények azt mutatják, hogy:........
És akkor szintet lépünk a gagyi pistike otthoni szarjáról a nagyvállalati ssdk-hez. Ahol látványos a különbség a dupla-tripla-tízszeres árkülönbség miatt, pl. ebben:......
Ilyesmire gondoltam.
- A hozzászóláshoz be kell jelentkezni
az advanced megoldasok, mint brtfs, ceph, zfs, amik kb alapjaiban meg tudjak valtoztatni a felettuk futo alkalmazas IO profiljat.
Ez is egy "új szál", nem is tudom elvarrni. Például, proxmox szerver default zfs , rajta egy VM guest , mysql-lel. Mysql szintén default, ir egy 16 K-s blokkot, utána szinkron fsync() , lemezre írás, zfs meg ir akár 160 KB-ot. mindennel együtt. Tettünk ide egy tizszer gyorsabb ssd-d, aztán mégis ott vagyunk ahol voltunk? Hát ez egy érdekes kérdés.
Ha van lehetőséged, használj plp-s ssd-t ilyen környezetben, használtan akár. Az nem igaz, hogy az ssd-k nek van egy széles skálája , és a top consumer ssd -k már majdnem szerver szintűek.
SSD-k a latency alapján különálló, eltérő csoportokban vannak, nem pedig lineárisan elszórva. Csoprton belül persze nem egyformák, 1 év garancia 5 év garancia, TBW, "name space"-s Nvme ssd-k stb.
- A hozzászóláshoz be kell jelentkezni
180 eur most egy hasznalt pici optane, az tok jo ZILnek
- A hozzászóláshoz be kell jelentkezni
Hat, ha megfelelnek az ilyen odadobott valaszok anelkul, hogy tenyleg ertened mi miert van...
"Sata3-nak ma már látványosak a korlátai, amik ezek és így lehet előhozni:...."
Pl veszel egy 10Gbit/s-es halozati kartyat, es epitesz komplett halozatot hozza. Egy torrent szerverben nem hiszem, hogy enelkul elo tudnad hozni a "latvanyos" korlatait.
"a SATA3 elméleti max. átviteli sebessége valahol 550-600MB/sec körül van, a 870 EVO-m mégse tud gyorsabban olvasni, mint 250-300 MB/sec, ez azért van, mert:......."
Ez megmondhatatlan, anelkul, hogy a pontos meresi modszert, setup reszleteit rogiztened. SATA3-bol soha senki nem latott 600MB/s-et kijonni. Az 550 is elegge necces, a valos "goodput" maximuma valahol 530-540MB/s korul van.
"A samsungnak van perpill 870 evo, 870 qvo, ezek között a különbség teljesítményben:....."
Here you go:
https://www.anandtech.com/show/15887/the-samsung-870-qvo-1tb-4tb-ssd-re…
https://www.anandtech.com/show/13633/the-samsung-860-qvo-ssd-review
https://www.phoronix.com/scan.php?page=article&item=samsung-870-qvo
https://www.phoronix.com/scan.php?page=article&item=samsung-860-qvo
"Van ami már csak a system RAM-ot használja vmi trükkös megfontolásból. Ezek teljesítménye így alakul:......"
Here you go:
https://www.phoronix.com/scan.php?page=article&item=samsung-980-linux
https://www.anandtech.com/show/16504/the-samsung-ssd-980-500gb-1tb-revi…
"A dobozra írt nagy számok 3000MB/sec, vagy 10ezer MB/sec akkor érhetőek el csak, ha így méred vagy ezt csinálod: ........"
dd if=/dev/nvme0n1p1 of=/dev/null bs=1M
"A random 4K, queue1-depth1, stb. eredmények azt mutatják, hogy:........"
...mennyi az iras/olvasas latencyje. Ha olyan alkalmazasod/DB-d/filerendszered van, ami eros adatkonzisztencia garantalas miatt minden irasmuveletet bevar es addig nem megy tovabb, amig az eszkoz vissza nem jelezte, hogy az irt adat stabil tarban van, akkor ez szamodra egy fontos metrika lesz. Ha csak ext4-en torrentezel, akkor nem ez lesz relevans. Olvasas oldalon pedig, ha az alkalmazasod olyan, hogy ez egyik felolvasott blokk tartalmabol tudja meg, hogy melyik lesz a kovetkezo felolvasando blokk (lancolt lista, b-fa, graf bejaras, kodtoreshez rainbow table stb.), akkor random read qd=1 lesz relevans.
"Ahol látványos a különbség a dupla-tripla-tízszeres árkülönbség miatt, pl. ebben:......"
Hogy van rajta egy csomo kondenzator, ami a tap elvesztese utan par masodpercig eleg aramot ad a vezerlonek, hogy a dram cache-bol ki tudja irni a dirty adatokat a flash-be. Igy nem kell felni, hogy elvesznek user adatok a DRAM-bol, ezert a gyarto egyaltalan meri a user adatokat write buffer-elni DRAM-ba. Ezzel a host feloli qd=1 irasoknal nem kell bevarni a flash latency-jet, a teljesitmenye akkor is olyan lesz, mintha qd=16 qd=32 vagy ilyesmi lenne.
Aztan a firmware nem arra van optimalizalva, hogy rovid ideig amilyen gyorsan csak lehet, minel tobb irast benyeljen, majd utana idle idoben szepen berendezgesse a vegleges helyukre a flash blokkokba. Helyette egy alacsonyabb teljesitmenyszintet kell tudjon, de azt gyakorlatilag korlatlan ideig stabilan.
Tovabba a firmware nincs kifejezetten mondjuk NTFS filerendszer (rosszabb esetben konkret benchmark alkalmazasok) tipikus IO mintaira raoptimalizalva, hogy a tesztekben jol mutasson. A gyakrolatban meg, a user ugy sem veszi eszre, hogy tul lassu lenne... (Hint: erdemes osszenezni az Anadtech-es windows-on futattott benchmark eredmenyeket es a phoronix Eredmenyeket, sokszor teljesen mas sorrend jon ki)
Meg tovabba van olyan amelyik tud un. "zonas" uzemmodot, amikor a flash translation layer kikapcsol, es az oprendszerre vagy DB engine-re bizza a flash minden nyugjenek (elborult blokkmeretek, kulon iras es erase muvelet, wear levelling) kezeleset. Ami nehany specializalt esetben lehet optimalisabb, mintha az SSD vezerlo emulalna egy normali block device-ot, amit a DB engine hasznalna fogalmatlanul nagyon szerencsetlen modon.
Aztan van olyan (igen draga) flash pl Samsung Z-NAND, ami latency-re optimalizalt, cserebe az adatsurusege sokkal rosszabb, emiatt fajlagosan dragabb. Meg vannak az ilyen egzotikumok, mint Optane, meg MRAM, amik szinten sokkal jobb latencyvel rendelkeznek, sokkal tobb ujrairast kibirnak, cserebe kis kapacitas, nagy ar, es esetleg rovid adatmegtartasi ido jar.
Régóta vágyok én, az androidok mezonkincsére már!
- A hozzászóláshoz be kell jelentkezni
Meg tovabba van olyan amelyik tud un. "zonas" uzemmodot,
nem tudni ebből mi lesz, mindenesetre "next generation ssd" -ként emlegetik, ZNS SSD néven. Rájöttek hogy a HDD-s smr belső felépitése ,- ami olyan amilyen, vagyis borzalmas- , nagyon hasonlít az ssd-k struktúrájához, és ide viszont nagyon is jó.
- A hozzászóláshoz be kell jelentkezni
Igen erre gondolok. Mukodni en sem lattam eddig, csak olvastam rola, hogy allitolag van 1-2 DB engine ra. Hogy a gyakorlatban mennyire lehet szivas hasznalni, elkepzelesem sincs...
Régóta vágyok én, az androidok mezonkincsére már!
- A hozzászóláshoz be kell jelentkezni
Csak érdekességképp... Laptopom Apacer... A legolcsóbb 1TB-os SSD volt, amikor vettem. Nagyjából ugyanazt hozza mint a Teamgroup, ami viszont érdekes, hogy míg a teamgrouppal ugrált a sebesség kb. 90K és 5900K között, ez stabilan hozta a sebességet kb. 2600K és 3000K között.
*-sata description: SATA controller product: Wildcat Point-LP SATA Controller [AHCI Mode] vendor: Intel Corporation physical id: 1f.2 bus info: pci@0000:00:1f.2 logical name: scsi0 version: 03 width: 32 bits clock: 66MHz capabilities: sata msi pm ahci_1.0 bus_master cap_list emulated configuration: driver=ahci latency=0 resources: irq:44 ioport:30a8(size=8) ioport:30b4(size=4) ioport:30a0(size=8) ioport:30b0(size=4) ioport:3060(size=32) memory:f123c000-f123c7ff *-disk description: ATA Disk product: Apacer AS350 1TB physical id: 0.0.0 bus info: scsi@0:0.0.0 logical name: /dev/sda version: 3PE0 serial: A45A079A108600191597 size: 953GiB (1024GB) capabilities: gpt-1.00 partitioned partitioned:gpt configuration: ansiversion=5 guid=1af624e0-4e68-499a-b3f8-ba8327559daa logicalsectorsize=512 sectorsize=512
ssdtest: (g=0): rw=randwrite, bs=(R) 4096B-4096B, (W) 4096B-4096B, (T) 4096B-4096B, ioengine=sync, iodepth=1 fio-3.26 Starting 1 process ssdtest: Laying out IO file (1 file / 1000MiB) Jobs: 1 (f=1): [w(1)][100.0%][w=2986KiB/s][w=746 IOPS][eta 00m:00s] ssdtest: (groupid=0, jobs=1): err= 0: pid=519980: Fri Apr 15 07:06:02 2022 write: IOPS=672, BW=2688KiB/s (2753kB/s)(1000MiB/380904msec); 0 zone resets clat (usec): min=1074, max=404399, avg=1413.13, stdev=2193.75 lat (usec): min=1075, max=404400, avg=1413.61, stdev=2193.78 clat percentiles (usec): | 1.00th=[ 1139], 5.00th=[ 1156], 10.00th=[ 1172], 20.00th=[ 1205], | 30.00th=[ 1221], 40.00th=[ 1237], 50.00th=[ 1270], 60.00th=[ 1287], | 70.00th=[ 1336], 80.00th=[ 1401], 90.00th=[ 1516], 95.00th=[ 1762], | 99.00th=[ 4178], 99.50th=[ 4752], 99.90th=[ 7963], 99.95th=[34866], | 99.99th=[68682] bw ( KiB/s): min= 8, max= 3152, per=100.00%, avg=2690.47, stdev=647.87, samples=761 iops : min= 2, max= 788, avg=672.61, stdev=161.97, samples=761 lat (msec) : 2=96.16%, 4=2.66%, 10=1.09%, 20=0.01%, 50=0.06% lat (msec) : 100=0.01%, 250=0.01%, 500=0.01% fsync/fdatasync/sync_file_range: sync (usec): min=26, max=431911, avg=66.38, stdev=1027.06 sync percentiles (usec): | 1.00th=[ 33], 5.00th=[ 35], 10.00th=[ 37], 20.00th=[ 40], | 30.00th=[ 42], 40.00th=[ 44], 50.00th=[ 47], 60.00th=[ 50], | 70.00th=[ 54], 80.00th=[ 60], 90.00th=[ 74], 95.00th=[ 95], | 99.00th=[ 167], 99.50th=[ 217], 99.90th=[ 971], 99.95th=[13829], | 99.99th=[17957] cpu : usr=0.97%, sys=6.69%, ctx=1034245, majf=0, minf=15 IO depths : 1=200.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0% submit : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% complete : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0% issued rwts: total=0,256000,0,255999 short=0,0,0,0 dropped=0,0,0,0 latency : target=0, window=0, percentile=100.00%, depth=1 Run status group 0 (all jobs): WRITE: bw=2688KiB/s (2753kB/s), 2688KiB/s-2688KiB/s (2753kB/s-2753kB/s), io=1000MiB (1049MB), run=380904-380904msec Disk stats (read/write): dm-5: ios=2352/1805804, merge=0/0, ticks=8033/433945, in_queue=442081, util=99.86%, aggrios=2352/1805860, aggrmerge=0/0, aggrticks=7784/349038, aggrin_queue=356924, aggrutil=99.76% dm-4: ios=2352/1805860, merge=0/0, ticks=7784/349038, in_queue=356924, util=99.76%, aggrios=14186/1519256, aggrmerge=3066/292868, aggrticks=351110/444555, aggrin_queue=1053076, aggrutil=99.41% sda: ios=14186/1519256, merge=3066/292868, ticks=351110/444555, in_queue=1053076, util=99.41%
"Sose a gép a hülye."
- A hozzászóláshoz be kell jelentkezni
ugyanakkor véleményünk szerint teljesen megfelelő.
itt szakitanam meg az uzleti kapcsolatot.
de neki tökéletesen megfelelő.
aztan majd lesz nagy meglepodes amikor felhivnak hogy 1MB/s-et huz a mysql alatt
- A hozzászóláshoz be kell jelentkezni
Még szerencse, hogy nem vagy ügyfél. :)
Akkor majd jöhet az teljesen jogosan, hogy vegyük meg bele a drágább diszket.
"Sose a gép a hülye."
- A hozzászóláshoz be kell jelentkezni
emberek, akik letesztelik az FW-t rendesen
* HPE has entered the chat :D
- A hozzászóláshoz be kell jelentkezni
az nem SSD-n volt, hanem NIC-en, amivel mi szivtunk, es Intel NIC, de igen, a HW ott nem letesztelte, hanem elcseszte.
- A hozzászóláshoz be kell jelentkezni
Bulletin: (Revision) HPE SAS Solid State Drives - Critical Firmware Upgrade Required for Certain HPE SAS Solid State Drive Models to Prevent Drive Failure at 32,768 Hours of Operation
https://support.hpe.com/hpesc/public/docDisplay?docId=emr_na-a00092491e…
- A hozzászóláshoz be kell jelentkezni
azt hittem legalabb az Intel NIC hibara gondolsz, amit debuggoltunk egyutt :(
(amit linkeltel amugy egy intel bug, imho, csak a hpt is erinti :))
- A hozzászóláshoz be kell jelentkezni
Az én tapasztalatom az volt, hogy anno Samsung 840 Pro és 850 Pro-kat raktunk Jenkins slave alá, IBM szerverbe. Ha elpusztul, elpusztul, nincs reprodukálhatatlan adat rajta, a gép ansible-el gyorsan újrahúzható. Kb 1-2 hét használat után olyan szinten belassultak, hogy az eredeti 10k-s SAS HDD gyorsabb volt. Egy párszor eljátszottuk, hogy kivettük, külön letrimmeltük, secure erase, utána megint gyors, megint 1-2 hétig. Egy darabig küzködtünk vele, hogy csak a 2/3-át particionáljuk be, meg a TRIM-et próbáltuk különféle trükkökkel megoldani, hogy a SAS kontroller áteressze.
Aztán beláttuk, hogy a desktop SSD egyszerűen nem bírja, ha tartósan szerver workload-ot kap. Nem romlik el, nem veszít adatot, de használhatatlanul lelassul, és magától nem nagyon recover-el.
Nyilván nem tudom, hogy ez az évekkel ezelőtti tapasztalat a mai típusokra mennyire igaz.
Régóta vágyok én, az androidok mezonkincsére már!
- A hozzászóláshoz be kell jelentkezni
Pedig a 850 Pro az egyik legjobb konzumer SATA SSD. Ahogy írod is, nem engedtétek át a TRIM-et, az volt a baj. Secure erase előtt felesleges a TRIM, mert a secure erase önmagában megfelel egy teljes meghajtófelületű TRIM-nek. Átlag desktopban akár évekig is elvan egy SSD TRIM nélkül, de szerveres terhelés mellett jobban rá van szorulva. Ez lyen, emiatt a TRIM-et át kell engedni egész lemezes titkosításokon, RAID-ten, LVM-en, virtuális gépeken, mindenféle technológián, amit SSD-k fölé húzol.
“The world runs on Excel spreadsheets.” (Dylan Beattie)
- A hozzászóláshoz be kell jelentkezni
ne gondold, hogy ha trimmelsz, akkor majd folyamatosan jo lesz a perf. nem lesz jo. jobb lesz, de nem jo.
- A hozzászóláshoz be kell jelentkezni
Ez sajnos nem választás kérdése volt. Az LSI SAS kontrolleren semmilyen trükkel nem lehetett átvinni a TRIM-et.
A secure erase és a külső gépben végzett trim külön-külön próbálkozás volt. A trim magában nem tudta teljesen visszahozni a teljesítményt (azért vicces, mert ez régen a Sandforce vezérlős SSD-k tipikus baja volt, de kellő abuzálással a Samsungokat is ki lehetett annyira fektetni).
Régóta vágyok én, az androidok mezonkincsére már!
- A hozzászóláshoz be kell jelentkezni
hardver költség [ sokkal < ] szoftver + üzemeltetés költségei
# RHE, Rocky, NethServer, MBP14
- A hozzászóláshoz be kell jelentkezni
Nekem több helyen is futnak Intel SSD-k gond nélkül HW RAID és SW RAID-ben is. DC S3510 és D3-S4610 sorozatúak, 400 GB-tól 960-ig bezárólag.
- A hozzászóláshoz be kell jelentkezni
azok mar nem a consumer kategoria szerencsere!
- A hozzászóláshoz be kell jelentkezni
400G-s DC S3700 fut itthon az összes mindenben. :) Kaptam egy marékkal , hogy rosszak....
Nem mai darabok kb 2013-ból.
- A hozzászóláshoz be kell jelentkezni
Érdemes PH-n szétnézni, szoktak lenni jó Enterprise osztályú SSD-k, bár főként SATA csatival. Én szerencsésen kifogtam egy jó eladót, tőle jött több Intel 710 -otthonra-, volt amiben 42GB írás volt, meg 300 nap.. (apropó, SMART értékeket nem lehet felülírni? :) )
Majd ZFS-sel kíváncsi leszek, hogy mit hoz az otthoni cuccokkal szemben.
- A hozzászóláshoz be kell jelentkezni
apropó, SMART értékeket nem lehet felülírni? :)
Állítólag a szarrákínzott csia májner ssd-ket adják el resetelt smart-tal, látszólag évszázadüzlete jó áron.
- A hozzászóláshoz be kell jelentkezni
Kisebb dedikalt node-oknal nekem nagyon bevalt az elmult 2-3 evben az NVME + Intel VROC parositas.
- A hozzászóláshoz be kell jelentkezni