A szabályokat ezentúl nem IP címre, hanem felhasználókra, felhasználói csoportokra adhatjuk meg. Mivel minden egyes kapcsolathoz tartozik egy név, egyszerűbb a felhasználókat követni, logolni, kimutatásokat készíteni, szabályozni (pl. felhasználóra QoS szabályok). A NuFW adatbázis-szerverbe (PgSQL, MySQL) logoltatható. A NuFW két részből áll: egy daemon-ból, amely a tűzfalon fut, és kliens programból, amely a tűzfal kliensekre települ. A deamon program csak Linuxon fut (mivel a netfilter-t használja), a kliens programok viszont Linux, Windows, FreeBSD és Mac OS X operációs rendszereken is futnak.
Mire képes a NuFW?
- Authenticate any connection that goes through your gateway or only from/to a chosen subset or a specific protocol (iptables is used to select the connections to authenticate).
- Perform accounting, routing and quality of service based on users and not simply on IPs.
- Filter packets with criterium such as application and OS used by distant users.
- Be the key of a secure and simple Single Sign On system.
A NuFW használatát segítheti a NuFace névre hallgató webes felületű szabálygenerátor is (képek). Ha valaki kipróbálná, elérhető egy online demo.
A NuFW elérhető forrásban, és a nagyobb Linux disztribúciókhoz (Debian, Gentoo, Mandriva, stb.) csomagban is.
Ha valaki ilyesmi megoldást keres, érdemes lehet szemügyre venni. Aki nem akarja maga összerakni a stuffot, annak lehetősége van előre legyártott berendezést venni EdenWall néven.
A projekt honlapja itt. A NuFW GPL-es projekt. Nemrég jelent meg a stabil 2.0.13 és a fejlesztői 2.1.1-es verziója.
- A hozzászóláshoz be kell jelentkezni
- 4114 megtekintés
Hozzászólások
Ígéretesnek tűnik! Ez tényleg egy új és könnyedebb alternatívát biztosít, a többi jelenlegi megoldásokhoz képest.
Viszont kiváncsi leszek, mennyi lesz a bug, és egyéb kezdeti probléma, tekintve, hogy még nagyon friss keletű a rendszer.
------------------------------------
[Debian Sarge; ASUS P4T533-4; 2.4GHz CPU; 512MB RAM; XFree86; FluxBox]
- A hozzászóláshoz be kell jelentkezni
Nem hiszem, hogy manapsag egy nem proxy tuzfal vallalati szintu lehet (legalabbis ott, ahol a szakmai szempontok dominalnak), elso ranezesre legfeljebb a PIX-ek retteghetnek a NuFW-tol. A conntrack modulok szuksegessege miatt szerintem onmagaban szinte hasznalhatatlan vallalati celra - legalabb egy SIP proxy kellene melle.
- A hozzászóláshoz be kell jelentkezni
pl. ilyen?
------
gentóhuszár
- A hozzászóláshoz be kell jelentkezni
A conntrack modulok szuksegessege miatt szerintem onmagaban szinte hasznalhatatlan vallalati celra
Ezt a mondatot nem értem. Mi az összefüggés?
Arra gondolok, hogy talán nem értem, mit jelent az, hogy valami használható vállalati célra.
G
- A hozzászóláshoz be kell jelentkezni
Arra celoztam, hogy mar reg tulhaladott a csomagszuresen a vallalati szfera igenye. Proxy alapu, protokoll elemekre lebonthato szabalyozas manapsag a kovetelmeny. A csomagszurok pedig meg mint eloszuro is elbuknak, ha nincs conntrack moduljuk a macerasabb protokollokhoz (erre hoztam fel peldanak a SIP-et, bar a 2.6.20 kornyeken mar erkezik ilyen conntrack modul, kerdes, mit tud).
- A hozzászóláshoz be kell jelentkezni
Igazán tovább gondolhatták volna kicsit ezt a srácok... Pl. hogy egy nagyvállalatnál ne kelljen a több ezer kliensre feltelepítgetni a kliens programjukat, hanem felrakja az ember a domain controllerekre és azok hitelesítik a klienseket és azok forgalmát is.
- A hozzászóláshoz be kell jelentkezni
Hát én is úgy érzem ott bukik a dolog, hogy a nagyvállalatok, jól fizetett rendszergazdái, hiányoztak az oskolábol amikor azt tanították, hogyan lehet az összes gépre telepíteni valamit.
------
gentóhuszár
- A hozzászóláshoz be kell jelentkezni
Vagy inkább tudják, hogy mire való a domain és a DC.
- A hozzászóláshoz be kell jelentkezni
Na!, Okosíts ki!
Miért hal bele valaki, ha minden gépre feldobb egy progit, egyszerrere ?
Miért, nem jó OpenLdap pl. pgsql db. backenddel ?
A híres MS. DC-nek van még egy featurje amiröl nem hallotam?
------
gentóhuszár
- A hozzászóláshoz be kell jelentkezni
csak olyan featureje van, de majd kigooglizod ezt is, mint a többi ökörséget
a lényeg az, hogy ha elolvastad volna amit írt, és értelmezni is tudnád, akkor nem ezen lovagolnál
- A hozzászóláshoz be kell jelentkezni
Lliens programokara gondolsz :)
------
gentóhuszár
- A hozzászóláshoz be kell jelentkezni
értem
- A hozzászóláshoz be kell jelentkezni
Bocs nem kellett volna, most pofáznom.
------
gentóhuszár
- A hozzászóláshoz be kell jelentkezni
Ez az OpenLDAP PostgreSQL backenddel hogy jön ide?
Egyáltalán -ha már idehoztad- belegondoltál már, hogy kb. milyen sebességre lehet képes az amúgy is lassú OpenLDAP egy általános adatbázisszerver háttérrel?
Azon kívül, hogy bármelyik pénzért kapható (de némelyik ingyenes, sőt nyílt forráskódú) LDAP szerver is többet nyújt sebességben és tudásban?
- A hozzászóláshoz be kell jelentkezni
Filoztam rajta, bdb -használtam legutobb.
Pár ezer kérésre pg -nél is számítanék /sec . De majd megtesztelgetem.
------
gentóhuszár
- A hozzászóláshoz be kell jelentkezni
Pár *ezer* per másodperc? Erősen csodálkoznék.
- A hozzászóláshoz be kell jelentkezni
Te mennyire számítasz?
Ha jol derengenek a teszt eredmények, maga pg egy ~mai gépen (PC) ~10^3 , bdb -meg anno azért választottam, mert valami teszten 10^6/sec (http://sleepycat2.inetu.net/pdfs/wp_perf_0705c1.pdf) -et olvastam.
Ez csak a DB, ha magába van.
Egy teszt:
http://deb.riseup.net/databases/mysql-openldap-benchmark/#the_results
mgj: az itt látott időkbe beletartozik az is, míg a postfix továbbtolja a leveleket.
szerk:
A tesztek alapján arra saccolnék, hogy ezen a gépen elképzelehető openldap mysql backendel, ~3000 /sec lekérés, ha csak opanldap+mysql fut rajta. pg-sql el nagyságrendben megegyező eredményt saccolnék.
------
gentóhuszár
- A hozzászóláshoz be kell jelentkezni
A millió per másodpercről a hivatkozott tesztben:
Aspects of Berkeley DB Not Measured:
- Out of cache performance
- Deadlock discovery and resolution time
- Effects of concurrency
Szerinted ezek csak marginális mértékben fogják belassítani a BDB-t? Nincs rájuk szükség egy LDAP szervernél?
A cache-sel persze vitatkozhatsz, csak lehet, hogy felesleges. Egyrészt az LDAP szerverek saját cache-sel szoktak rendelkezni, ahol nem futtatják le újból a művelethez tartozó programrészeket, hanem annak "képét" cache-elik és adják meg az előző választ. Tehát ez rögtön nem a BDB cache-e lesz.
Másrészt ha te akkora adatbázissal prüntyögsz, amekkora belefér a géped memóriájába, akkor nyilván jobb helyzetben vagy, mint az, akinél ez nem áll fenn (mert mondjuk pár tíz millió entryt tárol, ne adj isten milliárdot).
A mysql-es tesztről:
- a fenti kérdésben teljesen irreleváns, túl sok egyéb tényező van benne, ami minket nem érdekel
- a teszt számomra nem egyértelmű, egyrészt azt írja, hogy a táblázatban lévő sorrendben indította őket, a szerverek újraindítása nélkül, a cache méreteket pedig (az ő pirinyó adatbázisának méretéhez képest) az egekbe tolta. Ha ugyanarra a 10000 címre küldött levelet és az OpenLDAP cache-e valóban működött, akkor annak a teljesítményét "mérte".
- az eredmények összevissza hullámoznak, én ezt mindennek hívnám, csak mérésnek nem
Szóval nem látom alátámasztva azt, hogy az OpenLDAP PostgreSQL (de felőlem lehet MySQL is) ezres nagyságrendben lenne képes ldapsearcheket (nyilván a legolcsóbb művelet, hiszen nem kell keresni, lockolni, indexet és adatbázist frissíteni, stb) kiszolgálni.
Mennyire számítok: pár százas nagyságrendre, ha az OpenLDAP-nak és az RDBMS-nek kommunikálnia és dolgoznia kell (azaz nem az OpenLDAP, vagy az RDBMS cache-éből jön az adat).
- A hozzászóláshoz be kell jelentkezni
number of messages (one per unique user).
10x1000 means deliver 1000 messages to 1000 users
ten times.
Ezer címre tesztelte. (+ alias ami újabb lekérés) (Céges szinten kb. oké)
Milliárdot e-mail címet a gmail sem éri el szvsz.
Ha egy cache bejegyzés ~1kbyte, 1Gb+ Memóriánál, ~1 milla entry -nél sem kell különösebben disk I/O -ra számítani.
Ha 10 millás+ entry-kre van szükséged, vegyél nagyobb gépet, ennyi bejegyzésnél minden megoldás lassú ~1Gb ramnál , főleg, ha direkt úgy teszteled, hogy ne férjen bele).
Ami a több bejegyzést illeti O(log_2(n)) -es elérést azért elvárnék egy ilyen rendszertöl. (log_2(2^20)=20) (Főleg, hogy gyors olvasás, lassú írás van a propaganda agyagában)
Ha 1.7Ghz/1000kéres = 1,700,000 tick, ha ebből még mindenféle rendszerhívsos, varakozós bizbaszra is megy el az idő, még akkor is bőven van ideje keresni is..
(Felhasználók bejelentkeztetéséhez, azért kell más is, arra én sem számítanék, hogy ezeres nagyságrendű felhasználót léptessen be /sec)
------
gentóhuszár
- A hozzászóláshoz be kell jelentkezni
Van aki adatot is tárol az LDAP szerverben és entryből sem feltétlenül annyi van, mint e-mail címből.
1000 usernél lényegében mindegy, hogy miben tárolod, ha txt fájlból keresel még azt sem fogod észrevenni, csak ha magas a forgalom.
Itt mindenesetre pár ezer qps-ről beszéltél, az meg feltételezi, hogy nem kispályázol, hanem komolyabban használod a rendszert, nyilván ennek megfelelő adatmennyiséggel. Kíváncsian várom a postgreses benchmarkodat mondjuk egy milliós és egy 10 milliós adatbázissal, random, lehetőleg valami életszerűbb filterrel, ne csak mail=geza@gizi.hu.
Lehetőleg olyan helyre tedd, hogy könnyen megtalálható legyen. Mondjuk küldd be cikként, BDB, postgres, mysql összehasonlítás szerintem még érdekelne is valakit.
- A hozzászóláshoz be kell jelentkezni
engem o|
- A hozzászóláshoz be kell jelentkezni
Az '"m$" sárba tiprása Gentooval' bemutatóval egyetemben ez is csak vizsgák utánra halasztódik úgy érzem... :)
- A hozzászóláshoz be kell jelentkezni
en most mertem mysqlt, egy tabla, egy mezo, indexelt, random adatokkal feltoltve, es random
querykkel bombaztam. 8 konkurrens kapcsolatnal, kapcsolatonkent 64 ezer keressel
nem tudtam ezer req/s fole menni :-(
pedig most van egy projekt amihez kene nekem legalabb 5-6k keres/s..
valakinek otlet?:)
- A hozzászóláshoz be kell jelentkezni
ja, es meg 2 dolog:
3 millio rekord volt a tablaban, es nagyon egyszeru volt a query.
azert azt hittem legalabb tundokol..
- A hozzászóláshoz be kell jelentkezni
sqlite -röl látam gyors teszt eredményeket, ha az jó neked.
mysql cache dolgait érdemes lehet állítgatni, ill.
Storage Engine megfelelőt választnai.
szerk:
Itt a test : http://www.sqlite.org/cvstrac/wiki?p=SpeedComparison
------
gentóhuszár
- A hozzászóláshoz be kell jelentkezni
Na de az sqlite nem kliens/szerver séma alapján megy, azért egy kicxsit más.
--
Gentoo motto: It's worth spending eight hours trying to make something load 20ns faster.
- A hozzászóláshoz be kell jelentkezni
Az SQLite igen jó ám konkurrens használat esetén.
- A hozzászóláshoz be kell jelentkezni
Mert biztos turul16 kollegától tanultad az adatbázisterhelés-számítást. :)
Ennyit egy asztali PC-nek is bírnia kell.
- A hozzászóláshoz be kell jelentkezni
2x2.8 xeon, 4g ram, u320 15krpm scsi.
sima selectek mentek egy C programbol amit en irtam, ez a progi
futott 8x. es neztem a statust egy mysql shellbol.
mit basztam el akkor?...
- A hozzászóláshoz be kell jelentkezni
Az asztali PC-set természetesen viccnek szántam.
Ettől függetlenül a mysql tuningnak számos lehetősége van, ami nagyban függ a használt OS-től is.
Nem tudom mit akarsz, de a legnagyobb teljesítményt értelemszerűen memória (HEAP) táblákkal éred el, írásra és olvasásra is.
- A hozzászóláshoz be kell jelentkezni
Ötletek:
- térj vissza a földre
- gondold át mit is akarsz
- ekkora terhelésre használj memória adatbázist (memcached, timesten, oracle tábla memóriában, mysql tábla memóriában, akármi, attól függ mire van szükséged)
- vegyél két nagyságrenddel nagyobb gépet
- A hozzászóláshoz be kell jelentkezni
memcached mar van, adtam neki 4g memot, de nem akar 11k req/s fole menni :)
mit ertesz nagyobb gepen? ez egy hp ml370, sztem eleg jo parameterei vannak ehez.
- A hozzászóláshoz be kell jelentkezni
4GB szvsz sok hagyjál helyet másnak is memóriába.
pl. ~3.5GB .
------
gentóhuszár
- A hozzászóláshoz be kell jelentkezni
Mintha a DC-n keresztul is lehetne telepiteni a kliensekre programot nem?
York.
------
"Nyugi! Minden a legnagyobb rendben csúszik ki a kezeim közül..."
- A hozzászóláshoz be kell jelentkezni
Hát, te sem olvastad el túl alaposan amit írtam.
- A hozzászóláshoz be kell jelentkezni
En csak a program telepitesi problemara reagaltam...
Ami megoldhato DC-vel, igy nem kell kirohangalni gepekhez...
Az hogy ez a legjobb megoldas vagy sem, az egy masik kerdes.
York.
------
"Nyugi! Minden a legnagyobb rendben csúszik ki a kezeim közül..."
- A hozzászóláshoz be kell jelentkezni
Gépekhez való rohangálás :))
Hát az eszembe se jutott.
- A hozzászóláshoz be kell jelentkezni
Neha mozogni is kell :D
- A hozzászóláshoz be kell jelentkezni
En tudok olyat akinek igen :(
Nem tul mokas dolog...
York.
------
"Nyugi! Minden a legnagyobb rendben csúszik ki a kezeim közül..."
- A hozzászóláshoz be kell jelentkezni