UNIX haladó

[megoldva] logrotate replacement

Fórumok

Feltalálta-e már valaki azt a logrotate programot, ami képes arra, hogy inkrementális mentés-barát módon görgesse a logokat?

Magyarul, ne nevezze át minden görgetés alkalmával az összes logfájlt:

pistike.log.3.gz -> pistike.log.4.gz
pistike.log.2.gz -> pistike.log.3.gz
pistike.log.1.gz -> pistike.log.2.gz

... hanem mondjuk csináljon ilyet:

pistike.log.2012-12-18.gz
pistike.log.2012-12-17.gz
pistike.log.2012-12-16.gz

Hmm?

(Mivel a logrotate nem egy űrtechnológiás eszköz, ezért kb. 3 perc alatt bele lehet programozni, kérdés, hogy valaki megcsinálta-e már, nem akarom újra feltalálni a kereket)

putty. vagy valami más?

Fórumok

Sziasztok.

Van egy külső egységem, ami adatokat küld (Litium-polimer töltésvezérlő). Ez eddig rendben is van.

A probléma az, hogy eddig ez az adatküldés TCP porton keresztül történt, most meg USB-re vagyok szorulva, azaz
/dev/ttyACM0
felhasználásával kell az adatokat naplóznom. (másodpercenként jön néhány sornyi karakterhalmaz)

Eddig TCP portnál a
tcpdump -i eth0 'dst 10.0.0.76 and (port 10001)'
parancsot használtam, megvolt a portom, az IP címem, aztán a tcpdump fájlba írta az egészet..

Most meg nem tudom mitévő legyek, ugyanis néha a putty fogja magát és nem csinál semmit.
Ráadásul a GUI-s verziója van itt nekem (2010.02.20.)...

Telnetre is gondoltam, de az meg sosem akar rendesen befejeződni nekem, kill-ezni kell a teljes taszkot.

---------
Röviden, tömören, mit is akarok:
/dev/ttyACM0 -on soros portról txt-t fogadni, majd fájlba írni.
---------

Ti mivel oldanátok meg a fenti egyszerű feladatot?

putty parancssorban?
minicom? (ehhez nem értek, nem próbáltam még)

fizikai szerveren futo kvm szerverek elerese tuzfal mogul ssh-n

Fórumok

Sziasztok!

Adott egy fizikai szerver amin kvm alapon futnak a virtualis serverek.

A fizikai szerveren tűzfal van , amit nem én állítottam be , és így sajnos nem tudok hozzaferni a kvm alatt futo serverekhez.

Az alabbi tuzfal szabalyokat adtam ki a kvm servereken vnc-n keresztül elerve oket:

iptables - A INPUT -p tcp -m state NEW -m tcp --dport 22 -j ACCEPT

iptables - A INPUT -s 192.168.0.0/16 -p tcp -m tcp --dport 22 -j ACCEPT

ezek a parancsok elvileg beallitjak a tuzfalon , hogy a 192.168.0.0/16-os tartomanybol ssh-n elerhetoek legyen a gepek amikre ezt a szabalyt kiadtam , de megsem erhetoek el...:S

A kerdesem az lenne , hogy milyen parancsot kellene kiadnom a fizikai szerveren vagy a virtualis kvm gepeken , hogy azok elerhetoek legyenek ssh-n keresztül IN/OUT kapcsolaton keresztül is?

Előre is köszönöm a segítséget!

disk image mountolasa loopback devicekent

Fórumok

Sziasztok!

Adott egy disk image file , aminek neve legyen pl.: test1.pkg.

Ezt a disk image filet szeretném felmountolni linux alatt loopback deviceként , úgy hogy az ,egy olyan fájlrendszert használjon mountolás után , amivel én meg tudom tekinteni a .pkg file tartalmát.

Előfordulhat , hogy a disk image fájl első néhány bájtja nem része a disk image-nek, hanem
valami header, amit el kell távolítani ahhoz , hogy olvasni tudjam a file tartalmat!

Az lenne a kérdésem , hogy megvalósíthatóak -e ezen műveletek, és ha igen , akkor hogyan tudnam megoldani?

Próbáltam már a dd parancssal megoldani ezt a feladatot, de valamiert nem tudtam mukodokepes dolgot kihozni belole , bar igazsag szerint sajnos nem is tudtam 100%-ban , hogy mit csinalok , ezért szeretnem kerni a segitsegeteket.

A mai napon már krealtam ket hasonlo topicot , amiben kisse hianyosak voltak az infok , a megvalositas modszeret tekintve, ezert azokat töröltem , es letrehoztam ezt , amiben mar pontosabban tudtam definialni a feladat megoldasahoz szukseges lepeseket.

A válaszokat és a segítséget előre is köszönöm!

UEFI&micro$oft versus Unix

Fórumok

Sziasztok.

Rádióban hallottam tegnap félálomban valami olyan őrületet, amely szerint új gépeken a BIOS-t kiváltja valami olyan, amit UEFI-nak (Unified Extensible Firmware Interface) neveztek el.
Ez akadályozza majd meg azt, hogy mirco$ofton kívül más telepedjen a számítógépre.
Ez hasonló marhaság, mint amilyen a TCPA volt, csak durvább.

Advantech Engineer Florian will highlight the differences between UEFI BIOS and Legacy BIOS and as well introduce some new mechanism possible with UEFI. This gives and good overview for Engineers but also for decision makers.
https://www.youtube.com/watch?v=dRMIvY7BiL4

WIKI:
https://en.wikipedia.org/wiki/Unified_Extensible_Firmware_Interface

Load balancing, heartbeat, haproxy, tomcat (3 webapp)

Fórumok

Üdv!

Adott 2 vas, amely frontendként üzemel.

Mind a két gépen:

  • 1 publikus ip cím,
  • 1 beslő ip cím,
  • heartbeat,
  • haproxy,
  • tomcat (3 webapp)

Közös:

  • 1 db publikus ip cím
  • 3 db domain (3 webapp)

A működés jelenleg:

Aktív gép:

  • A "Közös" ip címet viseli (hearbeat), erre mutatnak a domainek és a haproxy a 80-as portra hallgat
  • A webappok a 8080-as portot viselik, alapértelmezetten erre mutat a haproxy és a session mögé fűzi az aktív gép host nevét
  • A tomcat be van állítva, hogy a passzív géppel clustert alkosson
  • Háttérfolyamatokat futtat megosztva a passzív géppel

Passzív gép:

  • A webappok a 8080-as portot viselik
  • Kívülről nem elérhetőel a webappok
  • Háttérfolyamatokat futtat megosztva az aktív géppel
  • A tomcat be van állítva, hogy az aktív géppel clustert alkosson

Szeretnénk megoldani, hogy valamilyen load balancing legyen a két gép között, mivel már elég nagy a terhelés. Fontos, hogy a munkamenetek érvényesek legyenek mind a két gépen, tehát ne kelljen újra bejelentkezni. Akinek van ilyesmivel tapasztalata, ötlete az kérem ossza meg velem. Előre is köszi! (Később feldobom a jelenlegi konfigot.)

(Megoldva)Nagios külső pluginra, warning beállítása

Fórumok

Sziasztok!

Van lehetőség arra, hogy külső pluginhoz threshold értéket rendeljek?
Konkrétan írtam, egy egyszerű plugint ami lekérdezi a szerverek hdd hőmérsékletét, majd az berakja nagios service-ként.

Az értéket visszakapom, viszont warning-ot nem tudok hozzá rendelni.


define command{
command_name check_hddtemp_srv1
command_line nc 10.0.0.2 7634 | sed 's/[| /]//g' | awk 'match($0,"Cdev"){print substr($0,RSTART-2,2)}'
}

Köszönöm!

Backup távoli gépre, jogokkal

Fórumok

Sziasztok,

Van egy éles gép meg egy backup gép. Mindkettőn FreeBSD fut. Külön szerver teremben vannak. Az lenne a feladat, hogy a backup gépet max. 1-2 nap késéssel olyan formában tartsam, hogy szükség esetén gyorsan át lehessen oda tenni az éles szolgáltatást.

A gépen NAGYON sok adat van. Főleg clipart képek, termékek képei, és sok felhasználó nálunk tárolt fotói és videói. Több millió állomány, sok 10 ezer könyvtárban. De vannak más adatok is (napló fileok, adatbázisok stb.) Állományok száma szerint nézve, az állományok nagy része sosem változik. Egyszer le lett töltve és ott van. Inkább az a jellemző hogy új állományok jönnek létre. Van egy kisebb részük ami folyton változik. Namost az van, hogy a backup gépen és az éles gépen is ugyan olyan user id-vel ugyan azok a felhasználók vannak fölvéve. Az összes szolgáltatás (pl. apache) úgy van beállítva, hogy minimális változtatással a backup szerverből éles szervert lehessen varázsolni. Ez fontos, mert ha az éles szerver tönkremegy, akkor nagyon gyorsan át kell tudnunk állni a backup gépre.

Csak annyi a bökkenő, hogy a működéshez szükséges állományok több különböző user tulajdonát képezik. Valahogy úgy kellene szinkronizálni ezeket a könyvtárakat a gépek között, hogy a jogosultságok (és a file tulajdonosok!) megmaradjanak.

Korábban erre cpdup-ot használam, ami elég gyors volt. De ez csak gépen belüli mentésre működött. Most hogy a backup egy másik gépen van, eszembe jutott az rsync. Biztonságos is kellene hogy legyen, tehát lehetne rsync + SSH. Viszont ehhez az kellene, hogy az rsync root jogokkal jelentkezzen be a backup gépre. Ehhez engedélyezni kellene a root ssh logint, amitől azért eléggé tartok.

Szóval a kérdések:

* Mekkora biztonsági kockázat lenne rsync+SSH úgy, hogy a backup gépre root-ként jelentkezik be? (Ez elég hülye kérdés...)
* Mennyire lesz hatékony az rsync? Ha van 20 millió kis file, és a nagy részükben nincsen változás, akkor mennyi idő alatt képes szinkronizálni 100MBit kapcsolaton, és mekkora forgalmat generál? Tudom, próbáljam ki. De akkor is, nagyon érdekelne hogy ez így elméletben mennyire működőképes.
* Talán az állományok tárolásának módját megváltoztatva nagyobb hatékonyságot tudnék elérni. Például, valamilyen distributed filesystem ami alapból két gépre ír, de csak egy gépről olvas. Így nem kellene végigolvasni az összes könyvtárat, hanem csak azokat szinkronizálná amik ténylegesen írva lettek. Ennek további előnye lenne, hogy nagyon up-to-date mentésem lenne az éles szerverről (egy két óra eltérés max.) Valaki csinált már ilyet? Érdemes ezt két gép esetén is megvalósítani? (Egyelőre nem lesz 10 gépem.) Ha érdemes, akkor milyen csomagot tegyek föl, ami erre való?

Köszi,

Laci

Szuperlassú bacula

Fórumok

Sziasztok!
Telepítettem a gépemre (2.4G P4 debian squeeze) egy disztribbel szállított baculát. Csak ezt a gépet szeretném menteni ezért mindhárom démon ezen a gépen fut, és egy második winchre ment. Jelenleg próbaképp csak a /etc könyvtárat mentem (~4MB, ~2300 file), de ezt 16-20KB/s sebességgel menti. Iostat szerint 100% utilt csinál mentés közben a mentendő winyóról, de a másikat szinte nem is bántja.
Van valami ötletetek hogy miért ilyen tetü?

Hdparm adatok:
/dev/sda:
Timing cached reads: 1888 MB in 2.00 seconds = 944.31 MB/sec
Timing buffered disk reads: 172 MB in 3.02 seconds = 56.99 MB/sec
/dev/sdb:
Timing cached reads: 1878 MB in 2.00 seconds = 938.71 MB/sec
Timing buffered disk reads: 170 MB in 3.00 seconds = 56.59 MB/sec

Bacula log:
Build OS: i486-pc-linux-gnu debian squeeze/sid
JobId: 9
Job: Aliproba_mentes.2012-08-16_08.12.55_05
Backup Level: Full
Client: "aligepe" 5.0.2 (28Apr10) i486-pc-linux-gnu,debian,squeeze/sid
FileSet: "probaset" 2012-08-15 17:03:13
Pool: "alipool" (From Job resource)
Catalog: "MyCatalog" (From Client resource)
Storage: "File" (From command line)
Scheduled time: 16-aug-2012 08:12:40
Start time: 16-aug-2012 08:12:58
End time: 16-aug-2012 08:16:17
Elapsed time: 3 mins 19 secs
Priority: 10
FD Files Written: 2,369
SD Files Written: 2,369
FD Bytes Written: 3,760,822 (3.760 MB)
SD Bytes Written: 4,006,160 (4.006 MB)
Rate: 18.9 KB/s
Software Compression: None
VSS: no
Encryption: no
Accurate: no
Volume name(s): VolAli0008|VolAli0009|VolAli0010
Volume Session Id: 1
Volume Session Time: 1345097518
Last Volume Bytes: 569,666 (569.6 KB)
Non-fatal FD errors: 0
SD Errors: 0
FD termination status: OK
SD termination status: OK
Termination: Backup OK