UNIX haladó

find grep head felgyorsítása

Fórumok

Van 1 kis makróm, aminek a lényegi része:

dest=$(find ${r} -depth 1 -type d -print |grep -i ${t}|head -1)

Adok neki 2 paramétert, hogy hol mit keressen. Ez úgy 5mp alatt fut most, ezt kéne felgyorsítani. Egyszer már kitaláltam, de az elveszett/ottmaradt valahol.

Arra használom, h gyorsan tudjak navigálni a kacatjaim között, szótöredék alapján is oda tudjon találni.
Ötlet?

Partíció elérhetőség udev event

Fórumok

Sziasztok!

Külső HDD-re kell időnként backupot csinálni, ennek automatizálására úgy gondoltam hogy tök jó lesz az udev event, indít egy scriptet, csatol, backupol, leválaszt, és nem kell kézzel semmit sem csinálni.

Ehhez képest tök megbízhatatlan az egész.... Néha triggerelődik az esemény, néha meg nem. Egyáltalán nem determinisztikus. Több diszk van, kétféle méretben (4 és 8TB, 5-5db), Seagate USB külső HDD-k, mondanám hogy működés szempontjából teljesen mindegy, de nem.

A 4T-os többnyire mennek és indulnak automatán amikor csatlakoztatják a diszket. Talán 1 ami nem. A 8T-sokból viszont egy sem indul, vagy max 1. 10x leellenőriztem az UUID-t, hogy stimmel-e. Volt amelyiken már újrakreáltam a GPT-t, a partíciót, a luks-ot, mindent, semmi nem változott.

A működés az (lenne), hogy az udev triggerelt esemény elindít egy systemd unitot, paraméterben az uuid-vel, ami egy sima simple unit, elindít egy scriptet szintén a diszk uuid-jével, ami majd tudja hogy melyikre mit kell syncelni. De ez mindegy is, mert idáig nem jutunk el.

Szóval a lényeg:


cat 2712c798-7f3a-4884-b394-244aa6dacf37.rules
ACTION=="add", SUBSYSTEM=="block", ATTR{partition}=="1", ENV{ID_FS_UUID}=="2712c798-7f3a-4884-b394-244aa6dacf37", RUN+="/usr/bin/systemctl start backupstart@$env{ID_FS_UUID}"

Csak az UUID más természetesen, illetve ezzel korrelálva a fájlnév, de ez működés szempontjából mindegy.

Próbáltam már csűrni-csavarni, igazából semmi változást nem értem el - pár diszk megy, pár meg nem. Talán annyi, hogy azok a diszkek, amik indulnak automatán, azok mindig, amik meg nem, azok sosem, de erre nem esküszöm meg, lehet csak a véletlen műve.

Ha belépek minden esetben látszik a diszk, a megfelelő uuid-jű partíció, akkor is ha az udev nem indította, kézzel elindítva systemctl start backupstart@akarmi lefut rendben, szóval a rossz a diszk, nem jó az usb port és hasonlók is kizárható.

 

Ötleteket várok: mit csináljak vele?

levelezés kérdés

Fórumok

Van két email cím. Az egyik gmail.com (USA), a másik gmail.hu (HU). S van ugye a ClawsMail. (CM)
No már most. Azt elértem hogy a CM lekérje mindegyikről a leveleket, bár a gmail.hu csak pop3-at kezel. Azt is elértem hogy a gmail.com küldjön levelet a saját smtp szerverén keresztül, viszont a gmail.hu, mivel nincs smtp szervere, így az is a gmail.com smtp-n keresztül küldi ki a levelet.

Meg is érkezik, de feladóként az USA cím van megadva. Tehát ha válaszolok a kapott emailre, akkor az USA beli címre megy a válasz. Ez nem jó. 

Ha a gmail_USA  webes felületén felveszem a magyar fiókot, akkor a CM lehozza a leveleket egy xxx@gmail.hu almappába, de így meg végképp nem tudok a CM-ből írni erről az email címről.

Automatikus válasz az összes e-mail-re

Fórumok

Sziasztok!

Van egy levelezésem dovecot-tal, ahol az a kérés, hogy a postafiókba érkező összes e-mail-re menjen válasz üzenet. Nem jó ha naponta egyszer, hanem mindig mindenre. Ha jól néztem a sieve vacation-seconds extension az én barátom. Elég gyér leírásokat találtam róla. Valaki állított már be ilyet? Kell telepítenem külön valamilyen módon ezt az extensiont? Hol tudom aktiválni? Tippem szerint a dovecot 90-sieve.conf fájljába, de nem vagyok biztos. Utána kézzel kell elkészítenem a .dovecot.sieve fájlt, vagy esetleg a Roundcube-ba is be tudja állítani a felhasználó?

Köszi!

Pöfe

nginx crash

Fórumok

Hi

Egy hét alatt már 4x kifagy az nginx proxy-nk.
Tegnap áttettük Debianról Ubuntura hátha, de úgy is. (frissítve mindent)
Se syslog, se VM szinten nem látunk hibát.. (proci, memória, hálózat, node_exporter, stb.)

Valami ötlet hogy lehetne jobban debuggolni mitől fagy consol szintig ki a gép?

Bare metal SPARC Sun Solaris boxról -> Amazon AWS Charon Virtual SPARC AMI-ra

Fórumok

Érkezett egy érdekes feladat. Egy kritikus szoftver fut egy régi SPARC szerveren:

$ version
Machine hardware:   sun4u
OS version:         5.10
Processor type:     sparc
Hardware:           SUNW,Sun-Fire-V440

A szerveren Oracle adatbázisba dolgozó, COBOL-ban írt alkalmazás fut. Ezt az egészet kellene átpakolni AWS-re, Charon Virtual SPARC AMI-ra.

Az amerikai megbízó az alábbi tervet eszelte ki:

Létre kellene hozni egy pont ugyanolyan disk layout-ot az AWS-ben futó gépen, mint ami a SPARC vason van. Majd lementve a SPARC vasat, a mentést vissza kellene állítani az AWS-ben futó emulált SPARC környezetbe.

Majd ha kész, az alábbiak elvártak:

  • megfelelő sebességgel futó szoftver
  • magas rendelkezésre-állás és üzletfolytonosság

Kérdés:

Csinált már valaki ilyet? Mik a tapasztalatok? :D

lightdm és plasma

Fórumok

Szeretném megszüntetni a megjelenő fekete hátteret, amikor a Lightdm-ről Plasmára vált a rendszer. A Lightdm és a Plasma is ugyanazt a hátteret kapja. Ergo nem tudom miért van egyáltalán átmenet? Nvidia 460.32.3 driver van beállítva. Olvastam hogy a Lightdm alapból a VT7-en figyelne, de ezt elvileg kiküszöböltem a lightdm.conf fájlban a minimum-VT=1-gyel. A /var/log/lightdm írja is hogy Using VT 1. A .xsession-errorsba írja a logjait. De nemcsak ez, hanem a KDE is.

S van is egy hiba: Cannot find 'org.kde.KSplash.setStage' in object /KSplash at org.kde.KSplash A KDE Plasma 5.15.4 

Erről is találtam infókat de az főleg autologin esetén fordult elő. Viszont én nem használok ilyent. Ráadásul nem is a Wayland megy hanem a xorg.
 

root logical volume novelese uj diszk hozzaadasaval es egyeb

Fórumok

Sziasztok,
van egy PowerEdge R30 szerverem 2xHDD diszkem RAID-1 modban, amelyen Ubuntu 18.04.5 LTS fut.

sda diszk LVM es rajta 3 LV="logical volume" (root, home, swap).
Egy adott szoftver a root particiora rak mindent.

Ezenkivul a szerveren 8xSSD diszkbol egy RAID-6-ot hoztam letre s igy
lehetosem van e nagyobb diszken particiokat letrehozni.

Amire szuksegem lenne:

Lehetseges novelni a root LV nagysagat, hogy egyetlen uj sdb1 particiot hozok letre az sdb diszken:

parted /dev/sdb
mklabel GPT
mkpart primary 2048s 100%
align-check optimal 1  

parted /dev/sdb print
pvcreate /dev/sdb1
pvs
vgextend vg /dev/sdb1
pvscan
lvextend -L+200G /dev/mapper/vg-root
resize2fs

Van ennek ertelme, marmint hogy mas tipusu, nagysagu diszkeket csatolok a letezo volume group-hoz?
Esetleg 2 particiot letrehozni es az egyiket (sdb1) hozzaadom a letezo vg volume grouphoz, mig a masikat nem adom hozza (sdb2) es csak backup-ra hasznalom?

Koszonet elore a tanacsokert.
Ardi

Linux szerver kettéfagy, hogy lehetne rá jönni mi az oka ?

Fórumok

Nos, a kérdés adott, ~random időközönként 7-15 nap találkozok egy olyannal hogy konkrétan nem elérhető a szerver.

Mikor a konzol elé érek az még él (mivel úgy hagytam a monitort ezért látom a konzolt), de semmire nem reagál és nincs kernel panic sem.

[    0.000000] DMI: HPE ML10Gen9/ML10Gen9, BIOS 1.005 04/24/2017
 

^^ Fenti "FakeHP" belépőentry (se) szervernek se nevezhető történetről van szó.

Memtest ment rajta, semmi. Semmi extrát nem csinál, mail + smb szolgáltatás.
syslogba semmi fagyás után, sehol semmi információ amiből kiindulhatnék.

Winyókon smart adatok rendben.

Nincs ötletem mi lehet, mert se log se semmi, csak kettéfagy az egész. REGECC ramok vannak ebben pedig, annak nem kellene kettéfagyni.

Javaslatok? (azon túl hogy "dobjam ki a picsába? :) mert addig már eljutottam)

apt cache átmozgatása másik meghajtóra - merjem, ne merjem?

Fórumok

Adott egy Selecline Leapbook:

- alaplapra forrasztott eMMC-vel, ezen van a /
- SD kártya, ezen van a /home (fstab-ba beírva)

Az elgondolás:

/var/cache/apt -> /home/cache/apt
/var/lib/apt -> /home/lib/apt
aztán ezeket vissza szimlinkelni az eredeti helyére.

Szimpla csomagfrissítésnél ennek elvileg működnie kell, de mi van akkor, ha pl. glibc-et frissít (újraindítós frissítés)? Ekkor elvileg egy "butább" rendszert bootol, ezzel frissíti a rendszer glibc-ét az /apt/cache... -ből, aztán tud boot-olni a frissült glibc-cel.

A kérdés, hogy ilyenkor mennyire "buta" rendszer boot-ol? Mount az elvileg van, hiszen nincs gond a glibc frissítésével akkor sem, ha olyan rendszeren történik, ahol a /var másik meghajtón van. ... viszont aggaszt, hogy a meghajtók közötti szimlinkelés nem fog-e ilyenkor bekavarni?

Ja i gen, a disztró: Ubuntu MATE 20.04 64bit