Squidből ehető logot userre bontva?

Fórumok

Squidből ehető logot userre bontva?

Hozzászólások

Sziasztok!

Egy "főnökkívánsága" projekten dolgozom, s a felén már túl is vagyok... A cégnél dolgozó emberek többsége munka helyett netezik (eddig átjáróként használták a debian-t), viszont a főnökség kérésére beízzítottam egy Squid-et és az egész http forgalmat rátereltem. Bekapcsiztam az authentikációt, mindenki kapott lúzernevet + jelszót. Eddig penge is.

A dolog, amit nem tudok megoldani, hogy kedves főnök bácsi szívesen rápillázna emberre lebontva, hogy melyik nap óra percében milyen weblapot nézegetett. Ezzel kapcsolatban 2 gondom van:

1. a Squid az acces.log-ba nem jegyez felhasználónevet. Lehet ilyet kérni tőle???

2. Nem találok olyan logrendező szoftvert, ami képes lenne ehető állapotba (Userenkéni bontásba) hozni ezt a logot. Eddig az SRG-vel próbálkoztam, de az domain szerint rendezett, s nagyon zselé kis html felületet csinált. Ha az 1-es pont-ra van megoldás, lehet, hogy ezzel is menne???

Ha valakinek van tapasztalata, kérem, ne kíméljen!!!

Üdv:
Sanyi

hogy is mondjam:
-egyreszt nem etikus ezt logolni (faszsag)
-masreszt meg illegalis

synapse

Szia!

Nálunk a szolgáltatónk által üzemeltetett squid access.log-jában megjelennek a felhasználónevek is (ők valahogy LDAP-pal oldották meg az authentikációt).
Ebből a log-ból mi egy "squidARG" nevezetű progival csinálunk reportot ( http://techno-abn.narod.ru/EN/index.html ). Van benne felhasználónkénti válogatás is. E mellett a belső proxy-nkra feltettem a "SARG" nevezetű progit, amiben szintén van ilyen rendezettség, bár mivel a belső proxy-n nem használunk azonosítást, így csak az adott gép IP címe szerint rendez. Ezt debian alá telepítettem, és minden különösebb beállítás nélkül végzi a dolgát (megtalálja az access.log-ot, stb.). Azért nem árt finomítani rajta.
Ha egyik sem felelne meg, akkor figyelmedbe ajánlom a squid honlapjáról is elérhető alábbi oldalt, ahol elég sok log analizáló progi van felsorolva : http://www.squid-cache.org/Scripts/ .

Üdv,
Stikar

Na persze azt lefelejtettem, hogy a felhasználókkal aláíratott a vezetőség egy nyilatkozatot, amiben a felhasználók tudomásul veszik, ill. beleegyeznek abba, hogy ilyesfajta riportok készülnek az internet forgalmukról.
Nálunk egyébként nem az a lényeg, hogy ki miket nézeget, hanem hogy mekkora forgalmat generál.

Ha a forgalom mertekea a lenyeges akkor talan calamaris, bar azt nemtom user-re tud-e bontani (nekem sose kellett), de IP-re tud...
http://cord.de/tools/squid/calamaris/

De ez a user-figyeles akkor is durvanak hangzik...

Sziasztok!

Köszönöm a hozzászólásokat!!! Igen, ez kétségtelenül etikátlan, tehát, ha főnök bácsi jót akar magának, aláírat egy ilyen megállapodást (bár az sem kizárt, hogy pusztán ez visszaveti majd a netezési kedvet).

Mindenesetre az ip alapú logolás nem jó nekem, mert egy géphez többen ülnek le, tehát lényeges lenne rátalálnom az userenkénti lehetőségre.

A logevő progi tippeket köszönöm, mindjárt esek is neki, megnézem, melyik mit tud. Azért, ha valakinek beugrik a juzerszintű log beállításának mikéntje, örülnék, ha megosztaná. :)))

Sanyi

Én a squint-et (http://www.ledge.co.za/software/squint/) használom userenkénti, sarg-ot pedig domain statisztikához. Igazából egy elegáns sql alapú elemző kéne, de ilyet megfelelőt még nem találtam furcsamód.

Ja igen nálunk nem userneves autentikációval megy, hanem dhcp miatt az ip cím feloldva kerül a logokba (log fqdn) és az alapján lköthető userhez.

Sziasztok!
Segítségre lenne szükségem a Calamaris beizzításához. A mant hiába olvastam el többször is, nem lettem tőle okosabb. Tudna valaki adni egy calamaris.confot?

/etc/calamaris.conf


# configuration file for calamaris
# by Philipp Frauenfelder <pfrauenf@debian.org>
# 1998-10-09

# There are three categories: daily, weekly and monthly. For each of these
# one line is responsible. There must be a line for each category but only
# one.

# cat: [daily|weekly|monthly]
# mailto: mailaddress, eg. root
# webto: path incl. file name, eg. /var/www/calamaris/daily.html.
#        The script does currently not check wether the directory
#        exists and fails with a rather ugly error.
# todo: [nothing|mail|web|both]
# title: try it :-)

# cat:mailto:webto:todo:title
daily:root:/var/www/calamaris/daily.html:web:'Squid daily'
weekly:root:/var/www/calamaris/weekly.html:web:'Squid weekly'
monthly:root:/var/www/calamaris/monthly.html:web:'Squid monthly'
# what log files should be parsed: [auto|squid|oops]
#       auto: tries to find the log files in this order: squid, oops
#       squid: parses a squid log file if available
#       oops: parses a oops log file if available
cache=squid

--
maszili