Debian GNU/Linux

KDE4 alatt hang

Fórumok

Van egy laptopom, rajta egy Debian testing KDE4-gyel. Amióta feltelepítettem, nincs hangja.
Ubuntu livecd ugyanezen a gépen vidáman muzsikál.
Egy másik, régi laptopon Debian testing és KDE4 van, és azon is megy gond nélkül a hang, nem is kellett vele szórakozni.

Itt bizonyára vagy valami csomag hiányzik, vagy valami beállítás, esetleg driver, de nem tudok rájönni, hogy mi lehet. Vagy valamiből túl sok van, és összeakadnak.

Korábban (sok éve) egyszerű volt a hang, ha fent volt az alsa és be volt töltve a kernelbe a szükséges modul, akkor ment minden. Esetleg a pulseaudio nevű csomagot kellett leszedni, ami az alaptelepítés része volt, viszont valamiért csak akadályozott.
Aztán KDE4 alatt úgy rémlik, Phonon, és hozzá Xine backend kellett, és ment. Most már nincs is xine backend.

Itt viszont annyi csomag van, és annyi új hangrendszer, hogy ezeket már nem is látom át. Phonon, Pulseaudio, Jack, Alsa, Esound, phonon-backend-vlc, phonon-backend-gstreamer...

- elméletileg Debian és KDE4 alatt mi az a normális, támogatott és működőnek gondolt infrastruktúra ami már elég a hangokhoz, de nem bonyolítja feleslegesen túl, vagy nem teszi már lehetetlenné az egészet?

HDD csere szerverben

Fórumok

Üdvözlet!

Meglehet, hogy nevetségesen egyszerű a kérdésem, de hálás lennék ha szakértők megválaszolnák.

Szerverem lecseréltem, így adott a régi szerver 120GB HDD (IDE), rajta mindennel, amit áttennék egy 80GB új HDD-re (SATA).

Megoldható, hogy ne kelljen elölről kezdenem mindent? Tehát áthelyezhető 1:1-ben minden?

Squeeze bios partició - raid1

Fórumok

Hi!

Egy Dell R210-re tennék squeeze-t, 2x2TB hdd, MD1 raid lenne. Telepítés szépen elmegy a GRUB telepítéséig, majd panaszkodik: "gpt partition label has no bios boot partition".
Bár nem egybe 2TB lenne egy partíció (2TB-30GB), de erre gyanakszom (némi olvasghatás utánm), hogy ez az oka illetve a GPT.
Újra partícionáltam úgy, hogy a diskek elé tettem egy 10MB-os BIOS partíciót és láss csodát a GRUB felment, a gép is elindult.

Ezzel kapcsolatban viszont lenne pár kérdésem:
1. Jól olvasok a sorok között, hogy a BIOS partíciónak 1MB is elegendő lenne?

2. A BIOS partíciót mindkét lemez elejére létrehoztam, telepítéskor mindkettőre felmegy a boot-image? Mert ugye a többi rész raid1-be van szervezve és jó lenne, ha az egyik elhalálozása esetén a másikról is elindulna. Vagy ez is külön kell(ene) feltenni a második hdd-re?

Előre is köszönöm a segítséget!

PXE boot

Fórumok

Hi!

PXE-s telepítéshez készülnék, a Debian leírása szerint megcsináltam. Az utolsó pont szerint:

"Download netboot/netboot.tar.gz from a Debian mirror", rákerestem a neten, letöltöttem, de szerintem nem a squeezy-t, mert mikor a saját debian mirroromat szeretném használni nem működik.

Esetleg tudna valaki segíteni egy linkkel?

Még egy kérdés: a PXE-vel most feljön egy régebbi telepítő, de egyből grafikus felülettel indul, van arra lehetőség, hogy "hagyományosan" consolosan települjön?

Előre is köszönöm!

Bacula inkrementális v. diff mentés

Fórumok

Sziasztok!

Van egy bacula, ami folyamatosan Full backupot csinál az inkrementális helyett, pedig úgy van beállítva a rendszer h. heti egy full, majd utána inkrementális.
Már áttúrtam egy halom dolgot, állítottam h. mit figyeljen, mikor változik egy fájl, mikor nem.
A helyzet a köv:
rsnapshot csinál egy backupot a backup szerverre, aminek a .sync könyvtárából kellene készüljön egy full, majd 6 inkrementális mentés. Ezzel szemben a bacula folyamatosan full mentést csinál.

bacula-dir.conf

Director { # define myself
Name = backup-dir
DIRport = 9101 # where we listen for UA connections
QueryFile = "/etc/bacula/scripts/query.sql"
WorkingDirectory = "/var/lib/bacula"
PidDirectory = "/var/run/bacula"
Maximum Concurrent Jobs = 1
Password = "pw" # Console password
Messages = Daemon
DirAddress = 127.0.0.1
}

JobDefs {
Name = "WeeklyIncrementalDef"
Type = Backup
Level = Incremental
Client = backup-fd
FileSet = "Full Set"
Schedule = "WeeklyCycle"
Storage = Ultrium
Messages = Standard
Pool = Default
Priority = 10
Write Bootstrap = "/var/lib/bacula/%c.bsr"
}

Job {
Name = "WeeklyIncremental"
JobDefs = "WeeklyIncrementalDef"
}

Job {
Name = "RestoreFiles"
Type = Restore
Client=backup-fd
FileSet="Full Set"
Storage = File
Pool = Default
Messages = Standard
Where = /srv/bacula-restores
}

FileSet {
Name = "Full Set"
Include {
Options {
signature = MD5
Verify = pin5
}
File = /srv/backup/libra/.sync/
File = /srv/backup/fs-mail/.sync/
}
}

Schedule {
Name = "WeeklyCycle"
Run = Level=Full sun at 2:05
Run = Level=Incremental mon-sat at 2:05
}

Schedule {
Name = "WeeklyCycleAfterBackup"
Run = Full sun-sat at 23:10
}

FileSet {
Name = "Catalog"
Include {
Options {
signature = MD5
}
File = "/var/lib/bacula/bacula.sql"
}
}

Client {
Name = backup-fd
Address = localhost
FDPort = 9102
Catalog = MyCatalog
Password = "pw" # password for FileDaemon
File Retention = 30 days # 30 days
Job Retention = 6 months # six months
AutoPrune = yes # Prune expired Jobs/Files
}

Storage {
Name = File
Address = localhost # N.B. Use a fully qualified name here
SDPort = 9103
Password = "pw"
Device = FileStorage
Media Type = File
}

Storage {
Name = Ultrium
Address = localhost # N.B. Use a fully qualified name here
SDPort = 9103
Password = "pw" # password for Storage daemon
Device = LTO-3 # must be same as Device in Storage daemon
Media Type = LTO-3 # must be same as MediaType in Storage daemon
Autochanger = no # enable for autochanger device
}

Catalog {
Name = MyCatalog
dbname = "bacula"; dbuser = ""; dbpassword = ""
}

Messages {
Name = Standard

mailcommand = "/usr/lib/bacula/bsmtp -h localhost -f \"\(Bacula\) \\" -s \"Bacula: %t %e of %c %l\" %r"
operatorcommand = "/usr/lib/bacula/bsmtp -h localhost -f \"\(Bacula\) \\" -s \"Bacula: Intervention needed for %j\" %r"
mail = zoltan.kiss at ss.hu = all, !skipped
operator = zoltan.kiss at ss.hu = mount
console = all, !skipped, !saved
append = "/var/lib/bacula/log" = all, !skipped
catalog = all
}

Messages {
Name = Daemon
mailcommand = "/usr/lib/bacula/bsmtp -h localhost -f \"\(Bacula\) \<%r\>\" -s \"Bacula daemon message\" %r"
mail = root@localhost = all, !skipped
console = all, !skipped, !saved
append = "/var/lib/bacula/log" = all, !skipped
}

Pool {
Name = Default
Pool Type = Backup
Recycle = yes # Bacula can automatically recycle Volumes
AutoPrune = yes # Prune expired volumes
Volume Retention = 8 days # one year
Maximum Volumes = 15
Purge Oldest Volume = Yes
}

Console {
Name = backup-mon
Password = "pw"
CommandACL = status, .status
}

Elképzelhető h. én bénáztam el valamit, csak már fogalmam nincs h. mit. A fájlok a stat szerint nem változnak (mtime, atime, stb.).

Köszi a segítséget!

Zoli

[Megoldva]xwindow-gnome terminal-mc "tuning"

Fórumok

Tud valaki segíteni? Az mc a gnome terminálban ilyen szép pasztel színekben jelenik meg, hellyel-közzel olvashatatlan - persze Ctrl+Alt+Fx és ott a szép, penge éles konzolos verzió, de ennek itt is kéne működni.
Mit lehet ezzel kezdeni? Súgjatok.

Megjegyzés: a windows -ban is összevissza lehet konfigurálni a megjelenítéssel kapcsolatos paramétereket, de az alapértelmezés általában jól látható. Viszont ha mégis valami más kell rettenetesen összelehet zavarodni.

Postgresql terheléselosztás (cluster?)

Fórumok

Sajnos teljesen kezdő vagyok a témában, viszont szükségem lenne valamilyen fajta terhelésmegosztásra adatbázis szinten.
Postgresql 8.4-es adatbázist használok a Zabbix monitorozó rendszeremhez.
A helyzet az hogy eddig egy IBM system storage DS4300 látta el az összes blade szervert háttértárral, a DS4300 tartalmaz két RAID vezérlőt, ami két akkumulátort igényel (gondolom cache-eléshez). Szóval ezek az akkumulátorok lemerültek, nincs cache és igencsak belassult minden.
A gond az, hogy a postgres adatbázisom kb. totál meghalt. Már az autovacuum funkciót is kikapcsoltam de még mindig haldoklik.
Egyszerűen képtelen feldolgozni az I/O műveleteket cache nélkül.
Ezért gondoltam hogy talán érdemes volna valamilyen cluster megoldás után nézni.

Sajnos ebben egyáltalán nincs tapasztalatom.

A gond ott kezdődik, hogy ha több különféle gépen tárolom mondjuk az adatbázist, akkor hogyan fogom tudni lementeni?:)
Vagy ebben az esetben minden gépen ugyan az az adatbázis van, és szinkronizálják egymásról magukat? ill. a lekérdezések okozta terhelés oszlik meg a gépek között?
Érdekelne ennek az elvi logikája is, hogy hogyan lehetne kivitelezni azt, hogy az adatbázist viszonylag könnyen tudjam menteni, a terhelés pedig több gép között osztódjon el.

Bocsánat ha h*lyeségeket írok de sajnos tényleg nincs tapasztalatom clusterekkel kapcsolatban. Annyit tudok csak hogy ez valamiféle terhelésmegosztás.
Ha valaki tudna ezzel kapcsolatban leírást küldeni vagy ötletet, linket stb. azt nagyon megköszönném!

Wheezy console login

Fórumok

Azt hittem ebben már nem tudnak újat mutatni! - tévedtem.
Edig, a tty1 konzolt nem törölték - most igen - és eddig nem tudtam rájönni hol és hogyan. Betettem egy +sleep 10" utasítást az rc.local -ba, így rövid ideig láthatom mit végezett az init script - démonok. Ráadásul (én így szeretem) az inittab -ba beállítottam, hogy a foregground legyen zöld (jobb a szememnek), valahogy így:
2:23:respawn:/sbin/getty -I `setterm -foreground green -powersave off -blank 0 -store` 38400 tty2

Ez komplettül NEM hajtódik végre, mintha a getty elfelejtené :(
Valami tipp?

Lassú tg3 hálókártya

Fórumok

Sziasztok!

Adott egy IBM x335-ös szerver, ami szépen működött elég sokáig. Egy restart után megváltoztak a dolgok hálózati fronton, minden egyes kapcsolat sebessége max 400-500Kbps környékén maximalizálódik és plusz tünet h. az ssh is "akadozik", "felesleges" cpu terhelés nem mutatkozik.
Ami már megvolt:
Lenny - Squeeze - Wheezy mindhárom release-el, stock kernellel ugyanez (pae és nem pae verzióval is kipróbálva)
ethtool -K eth0 tso off | gso off
eth0 - eth1 csere, hátha a port rosszalkodik (fizikailag a kábel megcserél)

Tesztelve:
SCP - 4-500K/s
FTP - 5-700K/s
iperf: 89Mbit/s
hdparm -tT hoz 70-80Mb-t, azzal nem lenne szabad h. gond legyen, a raid ok, a helyben másolás megy simán 60-70 megával.

Valakinek nincs ötlete véletlenül? :)

Köszi!
Z