Linux-haladó

[MEGOLDVA] mount - unmount instant - de miert?

Fórumok

Sziasztok,

talalkozott -e valaki ezzel?

[Tue Jul 12 12:10:23 2022] XFS (sdc1): Mounting V5 Filesystem
[Tue Jul 12 12:10:23 2022] XFS (sdc1): Ending clean mount
[Tue Jul 12 12:10:24 2022] XFS (sdc1): Unmounting Filesystem

relevans fstab sor:

UUID="f8af2786-cf23-4bcf-99f2-8317c5e0dec9"     /store/1        xfs     noatime  0       0

Ha mount /dev/sdc1 /store/1 megy, akkor is ugyanez a szitu.

Ha azonban mas mountpointot alkalmazok, akkor nem kovetkezik be az umount.

Ez valami systemd feature lehet? A problemaval csak itt talalkoztam.

 

Update: a

systemd-mount --list

is latja, tehat nem az van, hogy nem lett elmentve az fstab.

Wireguard dlna rejtély

Fórumok

Nem tudom találkozott-e valaki hasonló anomáliával:

Röviden a konfiguráció: router (OpenWRT 22.03rc4), ehhez kapcsolódik egy Raspberry PI (debian stable), amihez egy merevlemezen keresztül minidlna-val szolgáltatom a helyi hálózaton a különböző médiatartalmakat. Ezeket el tudjuk érni a TV-n vagy laptopon keresztül a helyi hálózaton.

Hamarosan nyaralni megyünk, és itt jött az ötlet, hogy távolról is elérjük a szolgáltatást.

Emiatt a routeren beállítottam a Wireguard interface-t, és smcroute-tal átküldtem a multicast csomagokat a wg és a helyi (br-lan) subnet között. (Persze engedélyezni kellett a wg0 interface-en is a multicast-ot, de ezt egy egyszerű init scripttel megoldottam az smcroute előtt, hogy ha véletlen újra kell indítani a routert akkor is menjen alapból.)

Mobilon mobilnettel próba, és a VLC szépen látja is az otthoni szervert, működik is úgy ahogy kell.

Mivel jó lenne egy kicsit nagyobb képernyőn nézni a gyerekeknek a mesét, ezért a laptopon is meg akartam ezt oldani. És itt jön az érdekesség. Windows alatt szépen működik a VLC alatt, látom az otthoni szervert, és le is játszik mindent.

Linux alatt (Archlinux) azonban hiába hozom létre a kapcsolatot ugyanúgy, egyszerűen nem akar megjelenni a szerver, se VLC se Kodi alatt. Látszik is az OpenWRT alatt az smcroutectl paranccsal, hogy a multicast csomagok szépen átmennek a br-lan és a wg0 között oda/vissza, viszont nem igényli semmi sem a csomagokat (nem jelenik meg a wg-os IP).

Mivel teljesen azonos a konfig (még a kulcsok is) Windows és Arch alatt, ezért érdekes ez az anomália, és kezdek kifogyni az ötletekből.

Megj: Tűzfal most nem megy a laptopomon (az OpenWRT-n van, és csak belső hálón használom, de majd beállítom a nyaralásra), tehát elvileg az nem lehet gond, hogy valamit blokkolnék.

Próbaként mindkét esetben mobilnetet osztottam meg és úgy kapcsolódtam a wireguard-hoz. Routert elérem minden esetben, tehát a kapcsolat működik. 

Szívesen várok bármilyen ötletet.

chroot

Fórumok

chroot környezetben futtatok egy programot. A szükséges dolgokat összemásoltam az új könyvtárba. A program fut, de a hálózathoz csak az IP címmel tud hozzáférni, a névfeloldás nem működik.

( gépneve.hu nem működik, 192.168.0.1 működik. Az etc/resolv.conf az ott van. )

Mi kell még az új könyvtárba, hogy ez is működjön?

xlsx -> pdf CLI vagy rubygem

Fórumok

Webalkalmazás backendjét adó ruby programban kellene xlsx fájlok nyomtatási képét létrehozni pdf formában. Könnyítés, hogy jelenleg csak 1 munkalapos fájlokról van szó. Nehezítés, hogy többnyire Manciki szépen kézzel beállította bennük, hogy hány % nagyítással és mekkora margóval fér ki a kívánt módon.

A legjobb valami gem lenne, amivel közvetlenül ruby-ból megcsinálhatom, de mivel nincs nagy terhelés, ezért külső cli program meghívása sem ördögtől való ötlet.

Redmine 3.3.0-1 E-mail értesítés auth probléma

Fórumok

Sziasztok!

Van egy Redmine 3.3.0-1 verzó telepítve az egyik Debian szerveremre, ami egyben mail szerver is.

A napokban szigorítottam némileg az smtp konfigon, és sajnos azokkal a beállításokkal nem igazán hajlandó együttműködni a redmine.

Adott a configuration.yml file, amely esetemben a /var/redmine-3.3.0-1/apps/redmine/htdocs/config - könyvtárban helyezkedik el.

Itt szeretném az SMTP settings szekciót úgy beállítani, hogy az működjön a login tipusú authentikacioval is.

Jelenleg is biztonságosnak mondható a küldés plain authentikációval, mert kizárólag 587-es porton lehet küldeni, és pl. thunderbird esetében nem működik, csak felhnév és jelszó megadása után a levélküldés, de ha ebben az esetben a configuration,yml filet módosítom oly módon, hogy az login mdon authenticaljon és ne plain módon, illetve beadom a user_name és password combót, akkor konkrétan összeomlik a redmine és a főoldal sem tölt be, az allábbi hibára hivatkozva az apache error logban:

 age/Hel/Req/CheckoutSession.cpp:252 ]: [Client 3-1] Cannot checkout session because a spawning error occurred. The identifier of the error is aa2621a9. Please see earlier logs for details about the error.

 

Jelenleg így néz ki az smtp szekció a configuration.yml-ben, ami működik is:

default:
  email_delivery:
    delivery_method: :smtp
    smtp_settings:
      address: mail.mydomain.hu
      port: 587
      domain: mail.mydomain.hu
      authentication: :plain
      enable_starttls_auto: true
      openssl_verify_mode: 'none'

ezzel viszont összeomlik, pedig ez lenne a biztonságosabb megoldás:

default:
  email_delivery:
    delivery_method: :smtp
    smtp_settings:
      address: mail.mydomain.hu
      port: 587
      domain: mail.mydomain.hu
      authentication: :login
      user_name: hibajelentes@mydomain.hu
      password: Passw0rrd
      enable_starttls_auto: true
      openssl_verify_mode: 'none'

Igazság szerint nekem bőven elég lenne, ha elfogadná a login authot az e-mail értesítések küldéséhez, mert így fogalmam sincs, hogy küld e-mailt, amikor a 25-ös port tiltva van, az 587-en meg elvileg csak login auth után lehet küldeni levelet, legalábbis minden kliensen kizárólag így működik, ez a redmine viszont "localhoston" üzemel.

 

Valaki, aki esetleg jobban belemélyedt a redmine lelkivilágába tudna segíteni, hogy mit ronthatok el?

Előre is köszönöm a segítő hozzászólásokat!

ceph osd bootstrap fail

Fórumok

Sziasztok,, 

van egy kezdetleges épülő félben lévő ceph clusterünk, ami egy osd bootstrap folyamatba belehalt. mármint nem a cluster, csak a cephadm.

Van egy daemon hiba, amit a config-key nyilván tart, de a service igazából nem létezik, mert egy osd bootstrap folyamat halálakor keleztezett.

Ezt ki kéne gyalulni, de nem vagyok biztos a dolgomban. 

 

ceph config-key get mgr/cephadm/host.ceph-osd1

...
"ceph-volume@lvm-33-dd9e3d3a-e884-460a-80b4-0f5a3cab7b8e.service": {
            "daemon_type": "ceph-volume@lvm-33-dd9e3d3a-e884-460a-80b4-0f5a3cab7b8e",
            "daemon_id": "service",
            "hostname": "ceph-osd1",
            "status": 0,
            "status_desc": "stopped",
            "is_active": false,
            "last_refresh": "2022-06-08T11:41:28.198067Z"
        },
...

root@mon0:/var/lib/ceph# ceph -w
  cluster:
    id:     c46d0b80-6f03-11ec-829d-xxxxxxxxxxxx
    health: HEALTH_ERR
            9 stray daemon(s) not managed by cephadm
-->>     Module 'cephadm' has failed: 'ceph-volume@lvm-33-dd9e3d3a-e884-460a-80b4-0f5a3cab7b8e'
            mons ceph-osd1,ceph-osd2,ceph-osd3 are low on available space

a ceph config-key működésére, vagy a nyilvántartott modulok kezelésére keresek valami referenciát.

thx, 

Debian alapimage valahonnan halozatrol

Fórumok

Az lenne a feladat, hogy laptopra kellene minden nap visszamasolni egy alap-image-et.

Azaz mindig ugyanannak az oprendszernek kellene futni.

(erre azert van szukseg, hogy biztosan "erintetlen" Debian fusson a gepeken reggelente)

 

Valami otlet?

Meg1x mondom, egy mar kesz - rengeteg dologgal bovitett es konfiguralt-  Debian OS-nek kell elindulnia, nem UJ OS-t deployolunk...

fluentbit

Fórumok

Üdv,

AWS EKS-ben fut nálunk a fluentbit és szépen monitorozza a clustert.
Szeretnénk egy app logjait is beletenni. Konkrétan a pod on belüli /var/opt/app/log/access-security-audit.log -ot kellene megetetni vele. Nem json, sima logfile.

Az application-log.conf-ot kiegészítettem ezzel:

    [INPUT]
        Name                tail
        Path                /var/opt/app/log/access-security-audit.log
        Tag                 application.*
        DB                  /var/fluent-bit/state/app_container.db
        Mem_Buf_Limit       5MB
        Skip_Long_Lines     On
        Refresh_Interval    10

De nem nagyon látom az eredményt... Egyelőre kifogytam az ötletekből.

Valaki? Köszi

Azure AKS problem - Rancher

Fórumok

a 2.5.x Ranchert hasznaltam korabban Azure-on, vele Kubernetes klasztereket keszitettunk.

Nem reg ota ezt dobja:

-------------

[ERROR] error syncing 'c-tt4xz': handler cluster-provisioner-controller: containerservice.ManagedClustersClient#CreateOrUpdate: Failure sending request: StatusCode=400 -- Original Error: Code="AgentPoolK8sVersionNotSupported" Message="Version 1.11.5 is not supported in this region. Please use [az aks get-versions] command to get the supported version list in this region. For more information, please check https://aka.ms/supported-version-list", requeuing
-------------

Es mellesleg ki sem lehet valasztani a lehetseges Kubernetes verziokat a kezdesnel.

Valszeg valtozott az Azure API, vagy mittomen.

Egy default Kubernetes verziot kuld el igy a Rancher (1.11.5), ami meg nem tamogatott. Hol van ez a Rancher konfigban, hogy mi lenne a default Kubernetes verzio? Kerestem de nem talaltam. Mert ha azt be tudnam allitani, nem kuldene valszeg hulyeseget.