Defrag Linux

Ext2 fájlrendszert használóknak (bár elméletileg fájlrendszer független) jól jöhet Con Kolivas szkriptje: http://ck.kolivas.org/apps/defrag/

AMD Athlon 64 X2 6400+, 4GB RAM, 250GB HDD (ext2), 2473 fájl (2.7kB-2.1GB), futási idő kb. 2.5 óra; töredezettség előtte 73%, utána 40%.

Egy próbát megér.

Hozzászólások

Nem vagyok benne biztos, hogy nekiesnék egy éles fs-nek ezzel. ext* -ek esetén a töredezettség általában tűréshatár alatt marad, kivéve ha hirtelen elfogy az összes üres placc. Jól tudom?

--
eladni a' eladhatót! http://napivatera.blog.hu/

README azt írja, 2x érdemes lefuttatni. Egyébként elég beteg egy script. :)

--
Don't be an Ubuntard!

Lényegében azt csinálja, hogy minden filet újratárol a partíción, méret szerinti csökkenő sorrendben.
A beteg inkább arra vonatkozik, hogy pl:


# read the file first to cache it in ram if possible
if (( filesize < maxsize ))
then
	echo -e "\r $numfiles files left \c"
	cat "$i" > /dev/null
else
	echo -e "\r $numfiles files left - Reordering large file sized $filesize ... \c"
fi

vagy:


#We could be this paranoid but it would slow it down 1000 times
#if [[ `lsof -f -- "$i"` ]]; then
#	echo -e "\n File $i open! Skipping"
#	continue
#fi

--
Don't be an Ubuntard!

Hát igen, ráférne egy "atomic file I/O" blokk, ha lehetne ilyet bash scriptben csinálni. ;)

Egyébként ha feltesszük:
- hogy az ext2 fájlkezelő műveletei alapvetően hibátlanok
- nem ér hardware hiba illetve védve vagyunk a tápkimaradás ellen
- liveCD-ről futtatjuk, adott eseteben csak ennek a scriptnek írási jogot adva az adott filerendszerre

Akkor azért meg lehet úszni a dolgot épségben ;)

hat ebben meg van hiba...
filesize=`find "$i" -printf "%s"` vs datestamp=`find "$i" -printf "%s"`
--
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!