Linux-haladó

[Megoldódott] Ming modul forrásból fordított php5 alá

Fórumok

Sziasztok!

Flash hagyaték miatt kellene, Ming modult http://www.libming.org/MingFAQ fordítanom, szintén forgatott php 5.3.25 alá.
Forgatás lefut látszólag minden rendben, viszont a modul betöltése után az alábbi hibát produkálja:

PHP Warning: PHP Startup: Unable to load dynamic library '/opt/php-5.3.25_ming/lib/php/extensions/no-debug-non-zts-20090626/ming.so' - /opt/php-5.3.25_ming/lib/php/extensions/no-debug-non-zts-20090626/ming.so: undefined symbol: zend_new_interned_string in Unknown on line 0

Mivel nem csomagból telepített a php, a sima apt-get-el installált php5-ming sem működik.
Passz..

Van esetleg konkrét tapasztalat a fentebb említett összeállításban?

Köszönöm!

hw raid + kernel pánik

Fórumok

Csak félig elméleti kérdés: mi történik kernel pánik esetén, ha a diskek hardware raid-ben vannak (HP-s enterprise vezérlőkről van szó)?

1. a vezérlő firmware-e a kernel pániktól függetlenül kiírja a nem szinkronizált cache-t a diskekre
2. a vezérlő nem ír ki semmit, mert a drivert elvitte a kernel pánik, a firmware meg nem csinál semmit a driver nélkül
3. a vezérlő akár ki is írhatná a cache-t, de nem írja ki, mert elvesztette a kapcsolatot a driverrel és ilyen esetben nem szinkronizál

Köszi.

proxy vagy no_proxy valasztas Squid

Fórumok

hello

valaki tud elegánsabb megoldást a proxy 'útválasztásra' Squid-ben mint a PAC fájl?
pont ma kellett csinálnunk a kollégákkal, hogy a proxy tudja azt hogy ha lokális hálót akarnak meghívni (csak gépnévvel - FQDN-el prímán megy) rajta keresztül akkor a kérést oda továbbítja, ha pedig a www.google.com akkor meg az intyernet felé :)

PAC fájlal prímán működik, csak a user oldalon kell hókolni, (GPO, stb).
Ez nem lehet valahogy a konfig fájlba belőni?

Próbálkoztunk a append_domain bejegyzéssel, de az csak egy domain tud és nekünk több van, több különböző hálóban.
A squid alapból a hosts fájlal dolgozik. Ha nem fqdn-t kap akkor nem fűzi hozzá a resolve.conf-ban lévő search domains részeket. A network trace-ben tisztán látszik hogy csak a gépnevet próbálja feloldani a DNS szervernél az meg nem tudja hogy hol keresse.

Van ezzel tapasztalatotok?

Központi SSH szerver usereknek

Fórumok

Sziasztok!

Habár lehet nem jól fogalmaztam meg a Tárgy-ban a mondandóm, de itt mindenképpen kifejteném a dolgot.

A harci állás a következő:

  • Van pár gép, ahol a usereknek adataik vannak, ezeket FTP-n keresztül érik el
  • Természetesen van SQL szerver is (MySQL), ez is megtalálható a gépeken
  • Egyre nagyobb igény lenne az SSH hozzáféréshez ezeken a "tárhelyeken" (nevezzük most ezeket annak)
  • Nem szeretnék minden egyes gépre SSH szervert, hanem a következőre gondoltam:
    • 1 központi SSH szerver, ahova felmountolom a userek adatait
    • Itt természetesen szeretnék valamilyen védelmet kialakítani, hogy ne tudjanak kitörni a saját mappájukból (Chroot?)
    • Továbbá nagyon fontos tényező lenne, hogy ne futhassanak állományokat SSH-n keresztül (Szintén biztonsági ok)
    • Utolsó sorban pedig csak adott parancsokat használhassanak (Szintén)

Ahogy kicsit kutakodtam a neten, találtam ezt a Jailkit olivier.sessink.nl/jailkit/ nevű cuccot, de ahogy tudom ez mindenkinek létrehoz úgymond egy "belső rendszert" (saját bin, lib, stb.)
Ezt nem szeretném (helytakarékosságból, meg nem is olyan szép megoldás szerintem), esetleg ha valaki tud ennek egy másik megoldást, azt üdvözölném.

Továbbá bármilyen építő jellegű megoldást "meghallgatok" (ha félreérthetően, esetleg tévesen írtam valamit, nem szakmailag, azt is).

Elsősorban útmutatást, de ha kész megoldás létezik, akkor azt is szívesen fogadok.

Zentyal 3 HP Proliant szerveren

Fórumok

Sziasztok!
Egy kis segítséget illetve tanácsot szeretnék kérni. Egy kisebb cég számára Zentyal 3-at szeretnék üzembe helyezni egy HP Proliant ML310e gen8 szerverre, fontos az adatok gyors elérése illetve az adatbiztonság. Két variáció között gondolkodom, az első hogy feltelepítem a szerverre RAID+LVM-be és ennek megfelelően használom külön merevlemezre megy a backup, vagy második elgondolás hogy elsőnek feltelepítek egy KVM-et és ide létrehozok két gépek egyik az éles szerver, a másik tartaléknak ha az egyik kiesne, közben pedig szinkronizálás menne a háttérbe kettőjük között, nem tudom ez mennyire terhelné a rendszert, a backup pedig külön merevlemezre, a nap végén pedig egy backup az éles rendszerről?
Előre is köszönöm a válaszokat és tanácsokat.

DMS Linuxra

Fórumok

Sziasztok!
Tudtok (használtok) valami jó Document Management Rendszert, ami tud Ad/Ldap autentikációt?

köszi

G

Debian 7 phppgadmin

Fórumok

Kisebb problémával küzdök a phppgadmin-nal, teljesen friss debian 7 telepítés és amint megszeretném nyitni a phppgadmin-t a következő hibaüzenetet kapom:

printHeader('', null, true); $rtl = (strcasecmp($lang['applangdir'], 'rtl') == 0); $cols = $rtl ? '*,'.$conf['left_width'] : $conf['left_width'].',*'; $mainframe = '' ?> printFooter(false); ?>

Előre is köszönöm, találkozott valaki ezzel a problémával, a lógban nem találok semmi használhatót.

Backup probléma nagy fájlmennyiségű ext4-en

Fórumok

Sziasztok,

tanácsot szeretnék kérni tapasztaltabb kollégáktól napi adatmentés területén. Az alábbi alapján

- ext4 fájlrendszer, jelenleg 11 millió állomány, legtöbbje kis méretű, összességében 770 GB
- rsnaphot/rsync inkrementális mentés (20 nap), 3 különálló logikai konfiguráció (levelezés, kis mennyiségű adatok, nagy mennyiségű adatok), cronból indítva eltérő idővel
- helyi mentés másik diskre, ext4-re (csak backupra van)

a kis és nagy mennyiségű adatok mentése mindig egymásra fut (mert nem végeznek időben), eléggé leterheli a szervert, és sokszor 6-7 órán keresztül is dolgozik.

Ahogy elnézem, a legtöbb idő nem magával a mentéssel megy el, hanem azok törlésével, és egyebek mellett ez az, ami nagyon terheli a szervert.
Meg kell említenem a 16 GB-os mysql adatbázist, ennek dump alapú mentése is bekavar a terhelésbe, főleg a tömörítés miatt (ezt szerintem megoldom innobackup-al, 30 perc alatt végez, csak a visszaállításra kell még felkészülnöm).

Korábban rdiff-backupot használtam, de az egy idő után kevés lett, átváltottam az rsnapshot-ra. Egy ideig nagyon jó volt, de ahogy nőtt a mentendő adatmennyiség, úgy kezdett el
ez is "kevés" lenni. Úgy érzem, hogy már olyan határokat feszegetünk, amit önmagában szoftverrel nem, csak egyedi megoldássokkal lehet megoldani.

Van valakinek tapasztalata ezen a területen?

Előre is köszönöm a segítséget!