nagy mennyiségű adat törlése

Sziasztok!

Van egy 4.1 es Mysql adatbázis, melyben van egy Innodb típusú tábla. Ebben van kicsivel több, mint 3 millió sor. Ezt a táblát kellene ürítenem. A truncate és delete nem jött össze, mert timeout -tal elszállt. Hogy tudnám üríteni ezt a nagy táblát?

Hozzászólások

Navazze... Leírtam a megoldást, de a szerver kivédett...
újra, trükkösen:
4 sor:
1.: c r e a t e t a b l e tmp_tabla l i k e tabla
2.: d r o p t a b l e tabla
3.: c r e a t e t a b l e tabla l i k e tmp_tabla
4.: d r o p t a b l e tmp_tabla

:D
--
Coding for fun. ;)

Köszi! Mindjárt kipróbálom, csak még eléggé be van halva az mysql adatbázisom :(.
Ez a tábla a spamassasin bayes_token táblája. Van a sa-lear --force-expire, amivel kitakarítgatná. De korábban elindítottam és nagyon sok idő elteltével sem végzett. Tudja valaki hogy kb. mennyi idő alat kellene lefutnia ennek a parancsnak ekkora táblán (Dual p4 xeon 2.2 GHz - régi típus és 2gb ram)? Mert ha emberi idő, akkor nem törölném a tokeneket. Minden egyéb szolgáltatást lekapcsoltam, aminek köze lehet a mysql -hez.
___________________________________________________________________
Lógnak a pálmafán a kókuszok .... :)

Köszi! Már rá is engedtem a rendszerre.
Milyen időkzönként lenne érdemes futtatni a sa-learn --force-expire -t hogy elkerüljem ezt a nagy táblaméretet?
___________________________________________________________________
Lógnak a pálmafán a kókuszok .... :)

Egyébként az úgy teljesen normális, hogy a bayes_token tábla sorainak a száma folyamatosan változik? Ugrálgat pár százezret fel majd le.... Miközben fut a sa-learn --clear. A csökkenést még csak érteném, de a növekedést már kevésbé. Ma franc lehet ezzel :(?
___________________________________________________________________
Lógnak a pálmafán a kókuszok .... :)