Nálunk is 1:4-be megy az ssd-journal:hdd-Osd-data arány.
Itt szépen össze van szedve hogy számolhatod ki. http://www.sebastien-han.fr/blog/2014/10/10/ceph-how-to-test-if-your-ss…
Valamint a fenti linken páran összedobtuk az olcsó SSD-k ceph journal képességeit. Nagyon nem mindegy milyen ssd-t vesztek.
Nálunk kb. ilyen a felállás, nagyon nem a legjobb de "szegény ember vízzel főz"
.most 3 node van, node-onként: 2db. ssd, 3-4 sata disk. 4gbit háló, olvasásnál ki tud koppanni a 4gbit.
Itt minidg az a dilemma, hogy 2 replikációval fasza az írás de gyatra az olvasás, 3 replikációval fasza az olvasás gyatra az írás.
felállás:
1 ssd a journal
1 ssd cache tier-nek, ennek is ssd-re került a jorunalja.
a többi sata disk osd data.
Nem basz oda a sebesség, kicsit jobbat vártam, de eddig úgy tűnik elfogadható.
Amivel lehet tuningolni kicsit, ezeket jól ki kell tesztelni, nem mindig nem mindenkinek hoz bármennyit is, meg lehet köpködni:
HDD-nél: echo cfq > /sys/block/sdX/queue/scheduler
SSD-nél: echo noop > /sys/block/sdX/queue/scheduler
ceph config ba:
osd recovery max active = 1
osd max backfills = 1
xfs mount opciók: "rw,noatime,inode64,logbsize=256k,logbufs=8,delaylog,allocsize=4M"
debug kikapcsolás:
debug lockdep = 0/0
debug context = 0/0
debug crush = 0/0
debug buffer = 0/0
debug timer = 0/0
debug journaler = 0/0
debug osd = 0/0
debug optracker = 0/0
debug objclass = 0/0
debug filestore = 0/0
debug journal = 0/0
debug ms = 0/0
debug monc = 0/0
debug tp = 0/0
debug auth = 0/0
debug finisher = 0/0
debug heartbeatmap = 0/0
debug perfcounter = 0/0
debug asok = 0/0
debug throttle = 0/0
kvm guesten, virtio disk-re: echo 4096 /sys/block/vdX/queue/read_ahead_kb
--------------------
http://grant-it.com/