Naplózó filerendszerek (journaling) https://hup.hu/ hu EXT4 formázás (filesystem create) sebessége https://hup.hu/node/188333 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Sziasztok,</p> <p>egy csecsemőnek minden vicc új. OMV-t felraktam próbából 1 régi gépre. Ment bele egy 250 gigás SSD az OS-nek (elég pazarló, de ennél kisebb SSD-m nem volt kéznél). Storage-nak meg raktam bele egyelőre 1 db 2TB-os HDD-t. Formázáshoz kiválasztom azt EXT4-et (a ZFS 1 diszken lesz a következő próba, de a gyors előreolvasás alapján ez olyan speciális eset lehet amit talán ismernie kell az OS-nek is h. egyáltalán engedjen ilyet?)</p> <p>Na itt elcsodálkoztam, h. miért tartott a 2TB-os EXT4 particiót vagy 10 percig létrehozni? A lassú progress bar megy szépen felfelé, a diszk folyamatosan világít tehát csinált valamit nagyon. Érzésre ez nem az a fajta lassúság, ami a teljes diszk terület írásából-visszaellenőrzéséből ered (windows-style full format), mert akkor az viszont lenne vagy 2-3 teljes óra ezen a diszken (kb. 100MB/sec-et bír írni max).Tényleg ilyen sok metaadatot "pazarol" az EXT4, aminek kell az a 10 perc mind kiírni? Vagy ez csak OMV-specifikus hülyeség, h. nem tud "quick format"-ot?</p> Fri, 01 Aug 2025 09:13:26 +0000 ricsip 188333 at https://hup.hu inode/x-corrupted type [már rájöttem] https://hup.hu/node/184840 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Sziasztok.</p> <p>Egy nap arra keltem, hogy a Thunar és a GUI-s fájlkezelők mindegyike bizonyos könyvtárakat a tárgyban megadott</p> <p>inode/x-corrupted type</p> <p>típussal jellemezték. Parancssorban, mc alatt, saját szkriptekkel minden rendesen működik, de amint egy GUI-s program open dialogboxot vagy mentésnél egy fájllistázást végez, a könyvtárak már ismeretlen fájlként jelennek meg.</p> <p>Nem értem a jelenséget, sosem volt nekem ilyen <s>jó</s> jelenségem.</p> <p>(fájlrendszerekhez kategorizáltam a kérdésemet, ami lehet, hogy téves, ha a probléma inkább GUI-jellegű)</p> <p>Mivel orvosolható?</p> Sat, 06 Apr 2024 17:35:28 +0000 bzs 184840 at https://hup.hu 22 TB -ra jó még az NTFS? https://hup.hu/node/182959 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Röviden persze nem mert 16TB a max méret NTFS-nél, így eleve két partíció kell, egy 16 TB és mellette 6 TB. Vagy két 11 TB</p> <p>Egyébként 10 TB felett van hátránya az NTFS-nek? </p> <p>ext4-nél is 16 TB a felső limit, viszont Btrfsnél már 50 TB. De Btrfs már magával hozza a Linuxot is, és ezen a gépen egyelőre jó a Windows. Kivéve azt az esetet ha nagyon rosszul teljesítene az NTFS 10 TB felett például linuxos Btrfsel szemben. Ebben az esetben megfontolom a Linuxra váltást. </p> <p>Inkább nagyobb fájlok fognak dominálni. Nem akarom elaprózni sok "kis" partícióra. Jó ide az NTFS vagy rendszerrel együtt jöjjön inkább Btrfs vagy esetleg ZFS? </p> Tue, 19 Sep 2023 15:03:39 +0000 timi 182959 at https://hup.hu [MEGOLDVA] zfs damaged, fileokat megmenteni https://hup.hu/node/179743 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>adott egy zpool, ami degraded. zpool import azt mondja rá, hogy </p> <blockquote><p>   state: FAULTED<br />  status: The pool metadata is corrupted.<br />  action: The pool cannot be imported due to damaged devices or data.</p> </blockquote> <p>meg hogy:</p> <blockquote><p>cannot import 'mypool': I/O error<br />         Destroy and re-create the pool from<br />         a backup source.</p> </blockquote> <p>kellenének a file-ok. valakinek ötlete?</p> <p>A zpool az hardware raid-en volt (tudom, hogy zfs mirror kellett volna, de ilyen volt a hardver) és ott a hardware raiddel cseszték el.</p> <p>szerk: zfs on linuxról van szó, debian 10</p> Wed, 19 Oct 2022 11:17:04 +0000 uid_4672 179743 at https://hup.hu Alacsony memóriaigényű linuxos filerendszer https://hup.hu/node/176889 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Egy 128 GB-os pendrive-on létrehoztam egyetlen partíciót, majd megformáztam f2fs-re. Bedugtam a kis szappantartó router-embe - 64 MB RAM-ja van - dugott USB hubba, majd megpróbáltam mount-olni. Tulajdonképpen sikerült, csak egy-egy parancsra alig reagált a router, majd kb. két perc elteltével össze is dőlt, nem natolt tovább.</p> <p>A lényeg, hogy úgy tűnik, az f2fs driver RAM-ban akarta tartani a filerendszer leírókat, valami adminisztrációt, amihez kevés volt a RAM.</p> <p>Milyen filerendszert válasszak, ami nem eszi meg a RAM-ot, s lehetőleg kíméli az USB mass-storage flash device-t, azaz a pendrive-ot, lehetőleg kezeli a linuxos jogosultságokat, valamint naplózott?</p> Fri, 04 Feb 2022 21:57:44 +0000 locsemege 176889 at https://hup.hu ZFS mozgatás másolás nélkül https://hup.hu/node/175389 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Sziasztok,</p> <p>Kezdő ZFS felhasználóként a következőket tettem: két régi, kisebb HDD-ről egy nagy SSD-re másoltam anyagokat.</p> <p>Ezt úgy tettem, hogy az ssd_pool/root datasetbe tettem a hdd1 anyagait, a ssd_pool/root/hdd2-be pedig a hdd2 anyagait, hogy miért az már lényegtelen, így sikerült send/recv-elni a régi HDDkról.</p> <p>A kérdésem, hogy miképpen tudom megszüntetni az ssd_pool/root/hdd2-t, azáltal, hogy a rajta található fájlokat az ssd_pool/root-be szeretném átmozgatni.</p> <p>Amikor megpróbáltam, akkor észrevettem, hogy ez fizikai másolással jár, amit nem igazán értek, hiszen a mozgatás még ext4-nél is egy gyors művelet volt, csak áttette a bejegyzést egy másik könyvtárba és kész.</p> <p>Van eset, amikor az egyszerű mv is másolás nélkül megy ZFS-en? Beállításokon, a datasetek elrendezésén múlik? (tekintve, hogy szülő-gyerek módon vannak a datasetek, főleg nem kellene akadály legyen ez..)</p> <p>Valami más mód amivel tudok másolásmentesen mozgatni? (clone?)</p> <p>Azért érdekel, mert egyrészt nem szeretném az SSD-t feleslegesen írni, másrészt mi történik, ha nincs annyi szabad hely, hogy egy adott fájl kétszer is elférjen mielőtt törölné az eredetit?</p> <p>Nekem idáig úgy tűnt, hogy a pool az, ami a fizikai hardverrel van közelebbi kapcsolatban, a datasetek inkább logikai elválasztást jelentenek. De több helyen is azt olvastam, hogy mozgatás szempontjából két dataset az mint két önálló fájlrendszer funkcionál.</p> <p>Valaki légyszives homályosítson fel! :)</p> Thu, 07 Oct 2021 18:48:47 +0000 zoldnap 175389 at https://hup.hu F2FS diszk használat https://hup.hu/node/173961 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Most migrálom az adataimat a régi gép SSD-jéről a másikra, és ezt látom az újon:</p> <pre> <code class="language-bash">root@XXX-mobile:/home# df -h Filesystem Size Used Avail Use% Mounted on /dev/mapper/rootvg-home--lv 320G 308G 13G 97% /home root@XXX-mobile:/home# du -sh * 267G XXX</code></pre><p>Ez hogy lehet? Azért a ~40 GB eltérés elég combos. F2FS alatt nincs root-nak fentartott százalék, és amúgy is, root-ként annak nem kéne látszania.</p> Thu, 20 May 2021 11:59:57 +0000 wowbagger 173961 at https://hup.hu Hogy lehet megtudni fájlok méretét btrfs-en? https://hup.hu/node/173772 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Elkezdtem kb. két hete btrfs-t használni a NAS-ban, és ugyan tetszik és elégedett vagyok vele, de hozott magával pár buktatót.</p> <p>A NAS tartalmáról több kisebb külső hdd-re készítek mentést időnként. Régen ez úgy ment, hogy a NAS-on hardlinkekkel és törléssel csökkentettem a duplikációt, és rsync-kel ment a másolás a backup diszkekre. Mindegyik backup diszkhez tartozott egy rsync parancs, ami néhány könyvtárat átmásolt (és közben figyelt a hardlinkekre).</p> <p>Btrfs-en a blokk szintű deduplikációt próbálom belőni (még nincs kialakítva a végleges megoldás).</p> <p>Azt észrevettem, hogy az rsync ezt nem kezeli, így vagy azt csinálom, hogy a backupra dedup nélkül másolok mindent, vagy rsync helyett mást használok. Erre mondta valaki, hogy btrfs send/receive.</p> <p>send/receive-hez subvolume kell, nem tudok csak random könyvtárakat megadni, mint eddig. Ezzel csak az a gond, hogy subvolume-ok nem osztoznak az inode-okon (ibögökön :-D ), ezért hardlink nem megy mindenen át.</p> <p>OK, akkor a subvolume-ok kialakítása után, de még az oda tartozó könyvtárak átmásolása előtt lekérdezem, hogy vannak-e olyan hardlinkek, amik ezeken a könyvtárakon kívül vannak, és amiket a mv eltörne. OK, ezeket akkor cp --reflink módon helyettesíteni tudom. Így nem nő meg az eddigi helyfoglalásom.</p> <p>De most meg abba a problémába futottam bele, hogy 1) a du-nak fogalma sincs arról, hogy fájlok megosztoznak blokkokon, szóval egy reflinkkel másolt fájlt kétszer simán megszámol, és aztán behazudja nekem, hogy pl.</p> <pre> <code class="language-bash">root@bananapi:/srv/dev-disk-by-id-dm-name-nas/gee/to-backup# du -h reflinktest/ 316G reflinktest/ </code></pre><p>Miközben valójában a könyvtárban ugyanaz az egy darab 158G-s fájl van meg kétszer. Ami egyébként a könyvtáron kívül is megvan. Szóval nekem az lenne jó, ha ezt a könyvtárat kérdezem, akkor 158G-t mondjon, ha meg mondjuk egy könytár struktúrát számolok rekurzívan, akkor ha már egyszer megszámolta ezt a fájlt máshol, akkor ezt a könyvtárat 0-nak vegye.<br /> Ahogy ezt hardlinkek esetén a du ügyesen le is kezeli.</p> <p>Szóval egyfelől ha valaki tudja, hogy tudom egy fájl, egy könyvtár hierarchia vagy egy subvolume on-disk méretét lekérdezni, annak örülnék.</p> <p>2) Ha reflinkkel másoltam egy fájlt, nem tudom, hogyan tudom meg róla, hogy osztozik blokkokon más fájlokkal - és ha igen, melyik fájlokkal. Illetve nem tudom, hogy van-e egyáltalán ilyen funkció, remélem, hogy igen.</p> <p>Erre tud valaki megoldást?</p> <p>Illetve ha van ötletetek, hogy lehetne ezt jobban, hatékonyabban vagy egyszerűbben csinálni, az is jöhet.</p> <p>Egyelőre most ott tartok, hogy dobom az egész subvolume és btrfs send/receive koncepciót, mert sokat kell pl. az eltört hardlinkek egyenkénti kézzel helyettesítésével vacakolni, és akkor még jön a többi; megtartom, ami eddig volt, hardlinkek és rsync csak néhány könyvtárra, és ugyan a NAS-on lesz blokk szintű deduplikálás, a biztonsági másolatoknál nem, csak a hardlinkek lesznek, mert csak rsync-kel másolok. Így továbbra is tudom a du-t használni és látom előre, hogy belefér-e a kisebb backup hdd-re az, amit oda akarok másolni. Cserébe kb. 1TB-tal több tárhely kell a backup diszkeken, mint amennyit a NAS foglal majd a dedup után. :-(</p> Thu, 06 May 2021 10:20:09 +0000 gee 173772 at https://hup.hu [DUPLÁN MEGOLDVA] [C/C++] ZFS + VPS + Ext4 = Corrupted InnoDB https://hup.hu/node/173688 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Két dolog miatt szánok egy kis szösszenetet a sztorinak.</p> <p>Az egyik oka, hogy igencsak meglepődtem, hogy ilyen meg tud történni a másik oka, mert készült is rá egy megoldás melyet örömmel szeretnék megosztani a közösséggel.</p> <p>Nagy vonalakban a sztori, hogy egy ZFS storage -el ellátott VPS (KVM alapú) anyagépen, egy tucat Linux VPS -ből az egyik, ext4 fájlrendszere egyik pillanatról a másikra eldobta magát.</p> <p>ZFS checksum ON, hiba nincs.<br /> ext4 naplózott, nem volt hirtelen halál, ac loss, igazából nagyjából ilyen féléves uptime -ját ünnepelte maga a VPS, 1,5 évvel ezelőtt volt bővítve a fájlrendszer, amúgy Virt-IO.</p> <p>A történet sajnálatos eredménye, hogy az innoDB .ibd fájlait szépen elkorruptálta, tehát I/O Error -t írt ha másolni, megnyitni akartam, éppen ezért a mySQL vagy el sem indult, vagy nagyon rövid időn belül "felakasztotta magát".</p> <p>Szóval én láttam már sok mindent, de ilyet nem, mármint VPS esetén:</p> <blockquote><p>[23563.216403] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23563.356236] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23563.527275] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23563.805136] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23564.244561] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23564.375360] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23567.440755] blk_update_request: 12 callbacks suppressed<br /> [23567.440781] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23567.520537] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23567.587946] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23568.054547] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23568.075419] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23568.077621] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23568.078390] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23568.079057] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23568.080408] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23568.081079] blk_update_request: I/O error, dev vda, sector 960227912<br /> [23572.441857] blk_update_request: 7307 callbacks suppressed<br /> [23572.441881] blk_update_request: I/O error, dev vda, sector 960227920<br /> [23572.443353] blk_update_request: I/O error, dev vda, sector 960227920<br /> [23572.444023] blk_update_request: I/O error, dev vda, sector 960227920<br /> [23572.444575] blk_update_request: I/O error, dev vda, sector 960227920<br /> [23572.445979] blk_update_request: I/O error, dev vda, sector 96022792</p> </blockquote> <p>Tehát mégegyszer az "underlaying storage" (ZFS) rendben van, a diszkek is.<br /> qemu-img check nem talált hibát, fsck force lefutott rendben.<br /> qemu-nbd -vel felcsatoltam anyagépen, ott se volt hiba, egészen addig míg nem léptem bele egy "badsector" -ba.</p> <p>Na erre mondjon valaki okosat nekem.</p> <p>A másik oldala a dolognak, hogy ám az adatbázis rohadtúl kellett és nem találtam az interneten olyan programot amivel kimondottan csak 1-1 fájlt, helyre lehessen állítani gyorsan és az sem baj ha véres marad, illetve minimálisan testreszabható legyen a visszaállítás, ezért készítettem egyet és a helyzet az, hogy megmentette a napot.</p> <p>Az ötlet onnan született, hogy van egy fájl ami 500MB, 384MB -nál I/O Error -t dob... Gondoltam, hogy most maximum 512KB -ot nem tud kiolvasni, de a többi részét meglehetne menteni, csak hogy I/O errornál minden belefut az END_OF_FILE -ba és hibával kilép, én meg maradtam egy 384MB -os fájlal amit biztos nem fog megenni a mySQL.</p> <p>Ami megoldást találtam az a dd és a ddrescue volt, </p> <blockquote><p>dd if=./file1 of=./file1.fix bs=512 conv=noerror,sync iflag=fullblock </p> </blockquote> <p>De ezzel az volt a probléma, hogy kellett egy olyan feature is, hogy ne 0x00 -val írja ki a hiányzó részeket, mert pont bekavar az innoDB -nek és nem igazán találtam megfelelő dokumentációt ennek a működéséről és rengeteg helyen kinullázott dolgokat.</p> <p>Aztán született egy saját megoldás, ami ezt megoldja azzal, hogy ugyanúgy továbblépteti és a hiányzó adatokat tetszőleges karakterrel helyettesíti, és bájtonként halad a recovery része így viszont kaptam egy ugyanakkora méretű fájlt mint az eredeti, csak 1-1 helyen pár kilobájt éppenséggel killett nullázva vagy pont más karakterrel lett behelyettesítve, a visszaállítás sebessége is felülmúlta az alternatívákat.</p> <p>Ennek köszönhetően, elindult az adatbázis, viszont ahogy belefutott a problémás részbe, "Buffer overflow" -al meg is döglött, létezik egy varázstrükk, ez pedig az `innodb_recovery_mode`, ezt 6 -osra állítva simán adott egy mysqldumpot, ráadásul úgy, hogy egy bájt adat nem hiányzott.</p> <p>Ja és ECC RAM meg modern környezet.</p> <p>A program végezetül ami mentett egy nagyott, szó szerint.<br /> <a href="https://github.com/DaVieS007/Partial-File-Recovery">https://github.com/DaVieS007/Partial-File-Recovery</a></p> <p> </p> Fri, 30 Apr 2021 02:49:20 +0000 davies007 173688 at https://hup.hu BTRFS kezdő subvolume kérdés https://hup.hu/node/173669 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Egy másik topicban felmerült ez, és most kérdéseim vannak.</p> <p>A felállás ez: Van egy NAS, benne egy nagyobbacska hdd, btrfs.</p> <p>Van több kisebb hdd, amikre szeretnék a NAS-on tárolt adatokból backupot készíteni.</p> <p>Ahogy olvasom, ha készítek egy snapshotot a NAS-on, akkor utána egy btrfs-send --full paranccsal mindent át tudok küldeni egy másik btrfs fájlrendszerre. Remélem, ezt eddig jól értem.</p> <p>Viszont úgy tűnik, hogy ez a teljes subvolume-ot vinné át és nincs mód arra, hogy mondjuk csak adott könyvtárakat másoljak.</p> <p>Ha jól sejtem, erre az lenne a megoldás, hogy létrehozok subvolume-okat, a jelenlegi könyvtárakat beléjük mozgatom és így a külön backupolni kívánt könyvtárak külön subvolume-ban lennének.</p> <p>Ahogy olvasom, minden subvolume-nak külön inode tere lesz, szóval az eddig használt hardlinkekkel vigyáznom kell.</p> <p>Van valami más, amire oda kell figyelnem?</p> Wed, 28 Apr 2021 13:10:32 +0000 gee 173669 at https://hup.hu ZFS részleges send helyreállítása https://hup.hu/node/172952 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Nagyobb méretű datasetet (több tera) replikálok -s opcióval. </p> <p>A send még tart, de ha valamiért megszakad, vajon bármilyen módon hozzáférhetek a félig áttöltődött datasetben lévő adatokhoz?</p> Sat, 06 Mar 2021 08:24:24 +0000 Darkfish 172952 at https://hup.hu Ki foglalja a mit foglal a hol foglalja? - Nem létező fájl létező ballaszt üzemmódban https://hup.hu/node/172775 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Adott egy kiszolgalo, fejlesztestamogatasra hasznaljuk, a kovetkezot jatssza:</p> <p>135G szabad hely tegnaprol mara elfogyott (aszongya, hogy nincs u"r az eszkozon), tehat a df szerint elfogyott a hely; du szerint a foglaltsag osszesen (rekurzivan) konstans 25G korul van, magyarul valami fog egy(?) fajlt es veszettul irja, de nem sikerul megallapitani, mi. Tipikusan hasonlot a $TMPDIR vagy valamelyik !syslog altal hasznalt log directory eseten tapasztaltam - ezek jol behatarolhato processzek voltak - ; de jo lenne, ha sikerulne megallapitani, ilyenkor mi fogja a melyik filedescriptort.</p> <p>Van arra valami hasznalhato tool, hogy megallapitsam, mik az elhagyott file-k, amik mikozben latszolag nem leteznek, folyamatosan hiznak, majd reboot utan visszaall a normalis foglaltsag az erintett (donto reszben/jelenleg ext4) fajlrendszerben?</p> <p>Remelem, ertelmesen meg tudtam fogalmazni, mit szeretnek elerni. :D</p> <p>Koszi! :)</p> Fri, 19 Feb 2021 08:31:41 +0000 wladek1 172775 at https://hup.hu udisks2 automount ro https://hup.hu/node/171910 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Sziasztok!</p> <p>Adott:</p> <ul> <li>RPi 4B+ 8GB</li> <li>Raspbian Lite (Buster)</li> </ul> <p>Erre telepítve egyebek mellett:</p> <ul> <li>. Kodi Leia</li> <li>. udisks2</li> </ul> <p>kodi-standalone indulásakor szépen felmountolja a rádugott USB eszközöket (vinyók) az udisks2 által.<br /> De akármit csinálok, mindig rw lesz az összes mount.</p> <p>Próbálkoztam:</p> <ul> <li>/etc/udisks2/udisks2.conf</li> <li>/etc/udisks2/mount_options.conf</li> </ul> <blockquote><p>[defaults]<br /> defaults=ro<br /> allow=noexec,ro,...</p> </blockquote> <p>Hiába veszem ki allow-ból is az rw-t, mégis rw lesz minden mount.<br /> Tudom, hogy udev rules-ban felül lehetne bírálni, de érdekel, hogy az udisks miért disrespecteli a konfigomat.</p> <p>Mit rontok el?<br />  </p> <p>Mivel egyébként sincs szükség rw hozzáférésre (ha mégis, akkor ssh-n remountolom), így igyekszem elejét venni a fájlrendszer korrumpálódásának, ha pl. valaki umount nélkül kihúzza.</p> <p>Arra van mód, hogy az ro-ként mountolt eszköz kihúzásakor az udisks2 felismerje mi történt és eltakarítsa a romokat? (adjon egy lazy umount-ot mondjuk, hogy kikerüljön az eszköz a mount táblából).</p> Thu, 17 Dec 2020 13:12:15 +0000 pink 171910 at https://hup.hu EXT4 -> BTRFS migráció https://hup.hu/node/171136 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Otthona konfigom Fedora31 külön /boot, /boot/efi, /, és /home partíciókkal EXT4-ekkel.<br /> BTRFS-ről pedig azt olvastam, még korábban, hogy elég lesz 1 BTRFS partíció mindenre és ez - the way it  meant to be played.<br /> OK.<br /> Majd egy évvel később újratelepítéssel frissítem a Fedora 33-at.<br /> EXT4 esetén formáznám a /boot és / partíciókat, de mi a scenario BTRFSsel?<br />  </p> Sat, 17 Oct 2020 15:02:27 +0000 drobert82 171136 at https://hup.hu CEPH size/data min_size https://hup.hu/node/170463 <a href="/taxonomy/term/138" hreflang="hu">Naplózó filerendszerek (journaling)</a> <p>Ha jól értem Size /  data min_size  3/2 értékénél 3 lemez 3 osd esetén 1 lemeznyi szabad helyem lesz a poolban? </p> <p>És  a 33% legjobb érték, a többi "értelmes"   érték ennél kevesebb.</p> Tue, 18 Aug 2020 20:32:10 +0000 vasla_ 170463 at https://hup.hu