Linux-haladó

Zakkant logrotate

Fórumok

Üdv!

Van egy debian -os gép, amire távolról ftp-n ment több szerver is.
A mentett könyvtárra fut a logrotate, amivel valami gond van, csak nem 'tom mi.
Ilyeneket gyárt:

*.gz.1
*.gz.1.1
*.gz.1.1.1
*.gz.1.1.1.1

Ráadásul van amelyik 0 byte hosszú. Egyszóval nem jövök rá, hogy miért.
A logrotate ugye a cron.daily -kor fut, azaz most kb, 1:55 -kor.
A backupok hajnal 3:00 -kor indulnak, és kb 1-2 óra alatt végeznek. Elvileg így előbb lesz
a logrotate, mint a backup.

Ez a logrotate (logrotate.d/backup):

/home/web02/Backup/*
/home/web04/Backup/*
{
daily
rotate 7
missingok
notifempty
}

A /var/lib/logrotate könyvtárban van status file, de csak a rotálások vannak benne.

Valaki legyen oly kedves a megoldásban!

Tilla

50% CPU terhelés felett program automatikus kilövése

Fórumok

Adott egy játék szervereket futtató gép és ezekre a játékokra lehet modot és mutátorokat is telepíteni.
Néhányan viszont mindig megtalálják az alfa verziójó bugos vackot és ezzel a játék 60-80%-os CPU terhelést okoz.
Szeretném azt elérni, hogy ha egy adott program x ideig 30% felett terheli a procit akkor vegye le a prioritást. Ha pedig 50% felett akkor meg lője ki.

Van valakinek erre ötlete?

[MEGOLDVA!] console hu backspace

Fórumok

Sziasztok!

Az a kérdésem, hogy miért töröl két karaktert a backspace, ha magyar ékezetes betűket használok. Értem én, hogy azok 2 byte-on tárolódnak, de miért nem tudja a console, hogy azok is csak egy karakternek számítanak a megjelenítésnél. (Tehát a bufferből kettőt, de a képernyőről csak egyet kéne törölnie ugyebár.)
A beállítási módszerem igen egyszerű:

loadkeys hu
setfont lat2-16

Lehet, hogy túl puritán? Kéne még valami hozzá?

A válaszokat előre is köszönöm, főleg a használhatókat. :-)

MEGOLDÁS:
loadkeys -u hu
setfont lat2-16
export LANG="en_US.UTF-8"

Software RAID kérdés

Fórumok

Hali,

Adott egy 4 diskből álló tömb. Sajnos kihullott az egyik disk. Holap tudom csak kicserélni a disk-et. Az a kérdés érdemes már most eltávolítani a tömbből a hibás disk-et vagy csak a csere előtt. Vagy ez nem számít.

Köszi,
Sz.

Suspend to RAM-ból resume régen ment, már nem

Fórumok

Hahó!
Adott egy FSC Amilo Li1718 notebook egy Ati X200m videokártyával, ami jó ideje (amióta az enyém és linux van rajta /másfél éve/) nem hajlandó felébredni altatásból. Az ébresztés utáni 1-2 másodpercben teljesen kiakad, sajnos ilyenkor még logolás sincs, hogy valami használható információt ki lehessen hámozni.

Ma a kezembe került egy Little Susie telepítő/liveCD, amit live módban ki is próbáltam. Sajnos 3d gyorsításom nem volt vele, ellenben ment a resume! Tehát valaha (a 2.6.27-48-as kernellel) ment, viszont azóta nem megy (2.6.35-28 ubuntu maverick). Valamit megváltoztattak ezekben a funkciókban, amit kifagyasztja a gépet.

Letöltöttem a 2.6.37-es és 2.6.27-48-as kernelek forrásait, és egy-két fájlt meg is találtam benne, amik ezekért a funkciókért felelnek, de messze nem mindet.

Melyik fájlok azok, amik kellenek nekem pontosan? Hogy találhatnám meg az összeset, hogy összehasonlítsam őket? (eddig még sosem nyúltam kernelhez, gondoltam, egy próbát megér, hátha rájövök. Kódtól C-től nem ijedek meg. Bár nem vagyok programozó, de hátha kihámozok valamit.)

Előre is köszönöm a segítséget!

Pop3->IMAP; ráadásul kimenő levelekkel

Fórumok

Sziasztok!
A következőben kérném a segítségeteket.
Adott egy pop3-as email szerver (ez nem saját), és adott egy belső háló kb 5 windowsos géppel és egy RedHat alapú szerverrel (szerver és átjáró).
Hogy lehetne azt megoldani, hogy a RedHat alapú szerver letöltené a mail kiszolgálótól a leveleket és a többi gép erről a szerverről töltené le IMAP-ot használva a leveleket? És a kimenő levelek szinkronizálására is szükség lenne.
Tehát, ha egy gépen elküldenek egy e-mailt, akkor a többi gépen is megjelenjen a kimenő mappába.
Egy e-mail cím van használatban, és a gépek is egy felhasználóval csatlakoznának a saját szerverhez.
A windows-os gépeken OutLook Express kliens van.
Előre is köszi a válaszokat.
Üdv

Squid kérdések

Fórumok

Sziasztok!

Van egy működő squid-em, Debiannal, de lenne vele kapcsolatban néhány kérdésem.

A felállás az, hogy van két telephely (A és B). Van saját domain név is, az az "A" telephelyre mutat, itt van több WEB kiszolgáló is, ami internetről is elérhető. Mivel a domain név és a telephelyek intézmény nevei megegyeznek, hívjuk mostantól domain névnek ezt a nevet.
A Squid a "B" telephelyen van. Ennek a gépnek a neve szerver, telepítéskor megadott domain neve pedig legyen domain.hu.
Ha a "B" telephelyen levő squid mögül el akarjuk érni az "A" telephely mögött levő WEB tartalmat, az nem cache-elődik, minden hívás direktbe megy. Arra gyanakszom, ez azért van, mert a squid helyi domainnek gondolja, mivel szerinte elvileg ő is abban a domain névben van.

Némileg konkrétabban:
Az "A" telephelyen van egy webmail.domain.hu cím.
A "B" telephelyen levő squid szerver.domain.hu nevet kapta.
Ha "B" telephelyről akarjuk elérni az "A" telephelyen levő webmail.domain.hu címet, akkor a legutolsó .png fájl is direktben töltődik mindig.

Lehetséges az, hogy azért - amire gondolok is - mivel látszólag ugyanaz a domain név, azt nem akarja proxyzni? Ha így van, mit lehet tenni azért, hogy menjen? Mivel egy intézményről van szó, nagyon sok hívás megy "B" telephely proxyja mögül az "A" telephelyen üzemeő WEB-es szolgáltatások felé, emiatt nagyon jó lenne, ha menne a proxy.

A másik kérdésem: Elképzelhető-e az, hogy nem minden WEB oldal proxyzódik? :)
Itt már konkrétabban mondom a dolgokat, van a virusbuster.hu domain, a telepely Windowsos gépei erre a domainre járnak vírusdefincíiós frissítésekért. Ha egyik gép befrissül, majd utána menne a másik is, akkor az is direktben tölti le minden esetben a fájlokat, soha nem proxyból megy. Ez azért lenne fontos, mert viszonylag kicsi az internet sávszélesség, mögötte van több, mint 20 gép. Mindegyik minden nap megy, tehát az nem lehet, hogy nem ugyanazokat a frissítéseket töltenék le.
Azt gondolom hasonló a helyzet egy Windows Update esetében is, arra találtam megoldást és működik is szépen. Ott mondjuk annyi volt a difi, hogy több szerverről is tölthette a frissítéseket, emiatt kicsit bele kellett nyúlni a squid konfigba. De a virusbuster esetében mindig ugyanaz a domain név. Mit lehetne tenni, hogy ez is squidből jöjjön?

Kicsit hosszú lett, de így talán teljes a kép. Minden ötletet szívesen vennék. Mutatom a squid.conf-ot:

-----------------------------------------------------------------------------------------------------
range_offset_limit -1
maximum_object_size 256 MB
quick_abort_min -1

acl all src all
acl manager proto cache_object
acl localhost src 127.0.0.1/32
acl localnet src 192.168.0.0/24

#################### Windows Update miatt ################
acl windowsupdate dstdomain windowsupdate.microsoft.com
acl windowsupdate dstdomain .update.microsoft.com
acl windowsupdate dstdomain download.windowsupdate.com
acl windowsupdate dstdomain redir.metaservices.microsoft.com
acl windowsupdate dstdomain images.metaservices.microsoft.com
acl windowsupdate dstdomain c.microsoft.com
acl windowsupdate dstdomain www.download.windowsupdate.com
acl windowsupdate dstdomain wustat.windows.com
acl windowsupdate dstdomain crl.microsoft.com
acl windowsupdate dstdomain sls.microsoft.com
acl windowsupdate dstdomain productactivation.one.microsoft.com
acl windowsupdate dstdomain ntservicepack.microsoft.com

acl CONNECT method CONNECT
acl wuCONNECT dstdomain www.update.microsoft.com
acl wuCONNECT dstdomain sls.microsoft.com

http_access allow CONNECT wuCONNECT localnet
http_access allow windowsupdate localnet

#################### Windows Update miatt ################

acl SSL_ports port 443 563
acl Safe_ports port 80 # http
acl Safe_ports port 21 # ftp
acl Safe_ports port 443 # https
acl Safe_ports port 70 # gopher
acl Safe_ports port 210 # wais
acl Safe_ports port 1025-65535 # unregistered ports
acl Safe_ports port 280 # http-mgmt
acl Safe_ports port 488 # gss-http
acl Safe_ports port 591 # filemaker
acl Safe_ports port 777 # multiling http
acl CONNECT method CONNECT

# http_access allow manager localhost
http_access allow manager localhost
http_access deny manager
http_access deny !Safe_ports
http_access deny CONNECT !SSL_ports

http_access allow localnet
http_access allow localhost
http_access deny all

http_reply_access allow localnet
http_reply_access allow localhost
http_reply_access deny all

icp_access allow localnet
icp_access deny all

http_port 8080 transparent

hierarchy_stoplist cgi-bin ?

cache_mem 1024 MB
cache_dir ufs /var/spool/squid 2048 16 256
cache_mgr admin@email.com
# cache_effective_user squid
# cache_effective_group squid

cache_effective_user proxy
cache_effective_group proxy

access_log /var/log/squid/access.log squid

refresh_pattern ^ftp: 1440 20% 10080
refresh_pattern ^gopher: 1440 0% 1440
refresh_pattern (cgi-bin|\?) 0 0% 0
refresh_pattern . 0 20% 4320

visible_hostname szerver.domain.hu

icp_port 3130

always_direct allow all

coredump_dir /var/spool/squid

[megoldva]PHP fejlesztő subversion

Fórumok

Sziasztok a következő a problémám. Csináltam egy SVN szervert ami tökéletesen müködik eddig legalább is. Fel tudok menni weben rá minden oké. Csak egy a gondom, hogy én PHP programozással foglalkozom és erre is szeretném használni vagyis webprogramozásra. Szóval a kérdés hogyan tudom megoldani, hogy ha valamit változtatok a php forráskódban akkor az azonnal a weboldalon is megjelenjen. Vagyis az svn előnyeit akarom használni ahelyett, hogy én csinálok mindenféle old php filéket a tárhelyen de a változásnak azonnal érvényesülnie is kéne a webhelyen. Segítségeteket előre is köszi.

[MEGOLDVA!] xz kötegelt bontás

Fórumok

Sziasztok!

Slackware Linux-on szeretnék kibontani egy egész könyvtárnyi xz file-t parancssorból (oda, ahol állok). A könyvtárban másféle file-ok is vannak, az xz progi pedig nem szereti a *.xz paramétert, arra csak az elsőt hajlandó kibontani, vagyis nem meg végig a listán, amit a bash-tól kap. (Ilyen problémával még soha sem találkoztam.)
Próbálkoztam jónéhány trükkel "|" és "<" vonalon, de egyik sem jött be. Nem akarom azt sem, hogy túl bonyolult legyen a parancssor, azaz négy-öt progi etesse egymást az stdio-jával. Az xz progi stdin-ből amúgy sem file-listát vár, hanem egy xz file tartalmát, így magát az utasítássort kéne ciklikusan lefuttatni minden listaelemre, méghozzá valami rövid, parancssorba gépelhető shell script-tel.

Minden tippet előre is köszönök, de legfőképp a használhatókat. :-)

MEGOLDÁS:
find /mnt/*.txz -exec xz -d -c {} | tar -x \;
vagy:
for i in $(find /mnt/ -type f -name '*.txz') ; do xz -d -c $i | tar -x ; done

Jelszó biztonság Linuxon

Fórumok

Az lenne a kérdésem, hogy ha nem akarom a jelszavaimat folyamatosan bepötyögni, milyen megoldás létezik arra, hogy ha elhagyom, ellopják, vagy egyszerűen csak leülnek a gépem elé, ne tudják megszerezni (a jelszavakat). Nyilván partíció titkosítással is meg lehet oldani, de ez első ránézésre kicsit "ágyúval verébre"
kategória.
Amennyiben disztró függő megoldás is van, akkor elsősorban az Ubuntu vonalon érdekelne.