Virtualizáció

Docker Swarm - szolgáltatások közötti névfeloldás néha nem működik

Fórumok

Docker Swarm klaszter szolgátlatásai között a névfeloldás néha nem működik, a Docker belső DNS-e nem oldja fel a service neveket IP címekké. Azonban ez nem mindig fordul elő, sok esetben tökéletesen működik a névfeloldás.

Láttam ezt a topikot már: https://hup.hu/node/181972 De nem releváns, nem Windows konténereket használunk.

Sajnos nem tudtam a különféle fórumokon választ találni a problémámra sehol. A moby GtiHub repositoryjában bejelentett hibákat már végignéztem, rengeteg több éves nyitott Swarm+DNS probléma van, régi verziókkal kapcsolatban, és nagyon sok nem is releváns már, nem vitt előrébb.

Ti tapasztaltatok már ilyet? Ha igen, és sikerült megoldani, mi volt a gyökérok és mi volt a megoldás?

A Docker Engine verziója 24.0.2, a kernel verzió 3.10 (CentOS 7, még egy évig támogatott).

Zigbee és kubernetes

Fórumok

Csak elméleti a dolog, de zigbee hálózatban csak  egy kordinátor lehet. Ha ez elszáll , az összes okos/ügyes szenzornak annyi, hiába van mögötte egy HA rendszer, pl. kubernetes. Wi-fi -s végpontokkal (pl shelly)  ez nem gond. Hibatűrő rendszerhez alkalmas a zigbee? Olvasgattam az új protokollt a  "matter/thread"-ot , ez ipv6 , gondolom ott megoldható lesz. De mi van a zigbeevel, ha valaki ilyet szeretne. Lehetséges, vagy ne szeressen? 

[Megoldva]{Új probléma?} qcow2 partícionálás szkriptből

Fórumok

Egy pár órája már próbálkozom a qemu-nak előállítani egy gépet szkriptből. A szkript könyvtárba (chroot) elkészíti amit szeretnék, tovább akartam lépni, hogy egy qcow2-t csináljak neki, de valamit benézek vagy nagyon nem tudok, mert nem tudom bash szkriptből létrehozni a kívánt virtuális lemezt. Ha az üres qcow2-t átadom a qemunak egy live-dvd-vel, akkor tudom partícionálni a működő vm-ben, de nem ez lenne a cél :(

Egy kis segítségre lenne szükségem, mert ilyet még nem csináltam.! Ez volna a szkript idevágó része:

#!/bin/bash

# Elérési útvonalak
IMG_FILE="img.qcow2"
IMG_SIZE="32G"
EFI_PARTITION_SIZE="512M"
BOOT_PARTITION_SIZE="5G"

# QEMU kép létrehozása
qemu-img create -f qcow2 "${IMG_FILE}" "${IMG_SIZE}"

# Loop eszköz létrehozása
losetup -fP "${IMG_FILE}"
LOOP_DEVICE=$(losetup -l | grep "${IMG_FILE}" | awk '{print $1}')

# Partíciók létrehozása és formázása
parted -s "${LOOP_DEVICE}" mklabel gpt
parted -s "${LOOP_DEVICE}" mkpart primary fat32 1MiB "${EFI_PARTITION_SIZE}"
parted -s "${LOOP_DEVICE}" set 1 boot on
parted -s "${LOOP_DEVICE}" mkpart primary ext4 "${EFI_PARTITION_SIZE}" "${BOOT_PARTITION_SIZE}"
parted -s "${LOOP_DEVICE}" mkpart primary btrfs "${BOOT_PARTITION_SIZE}" 100%
mkfs.fat -F32 "${LOOP_DEVICE}p1"
mkfs.btrfs "${LOOP_DEVICE}p2"
mkfs.btrfs "${LOOP_DEVICE}p3"

# Partíciók csatolása
mount "${LOOP_DEVICE}p2" /mnt
mkdir -p /mnt/boot
mount "${LOOP_DEVICE}p1" /mnt/boot
mkdir -p /mnt/boot/efi
mount "${LOOP_DEVICE}p3" /mnt/boot/efi

# rendszer telepítése lenne ha lenne hová

# Visszaállítjuk a loop eszközt
losetup -d "${LOOP_DEVICE}"

A futtatás ereménye:

# ./make.disk 
Formatting 'img.qcow2', fmt=qcow2 cluster_size=65536 extended_l2=off compression_type=zlib size=34359738368 lazy_refcounts=off refcount_bits=16
Error: The location 1MiB is outside of the device /dev/loop0.
Error: Partition doesn't exist.
Error: The location 512M is outside of the device /dev/loop0.
Error: The location 5G is outside of the device /dev/loop0.

Egy elindított livecd-vel tudom partícionálni. Hogyan kell kezelni szkriptből?

Docker containerek között DNS feloldás nem megy

Fórumok

Sziasztok!

Docker (Desktop) környezetben futottam bele egy problémába, miszerint Windows hoston, kettő Windows-os containert futtatnék amik beszélgetnek egymással. Van egy minimális docker-compose.yml, ami a két containert létrehozza és közös hálózatba helyezi őket - teljesen alapbeállításokkal. Kubernetes nincs telepítve. Tudnak kommunikálni egymással, de a DNS alapú névfeloldás nem működik, így egy host név alapú csatlakozás ~28 másodpercbe telik.

Resolve-DnsName -Name ServerContainer -LlmnrOnly

parancs viszont pár ms alatt végez, vagyis ha jól értem, a DNS feloldással van valami baj. Érdekes, hogy külső címeket, például google.com ugyanúgy pár ms alatt old fel.

Két napja túrom a Google-t, de csak Linux-os containerre találtam megoldást, Windows-os még említés szintjén sem.

Egyébként a példakódot Windows hoston, Linux backenddel futtatva, simán hozza a várt számokat.

A hoston Windows 10 21H2 fut, Docker Desktop pedig a fórumtéma létrehozásakor elérhető legújabb. Container base image-e Windows esetén mcr.microsoft.com/dotnet/aspnet:6.0 míg Linux esetén mcr.microsoft.com/dotnet/sdk:6.0

 

Előre is köszi minden jellegű segítséget!

ESXi 8U1 vs LSI 2308

Fórumok

Sziasztok,

adott a fent ESXi8U1 hoszt amiben egy LSI 2308 raid vezérlő van, most hagyjuk, hogy hivatalosan nem támogatott stb...a lenti problémával kűzdök az LSI -s VIB csomag felrakásánál, google -t már kimerítettem...

 

esx-01:/tmp] esxcli software vib install -v /tmp/vmware-esx-sas2ircu.vib -f --no-sig-check
 [ProfileValidationError]
 In ImageProfile (Updated) ESXi-8.0U1a-21813344-standard, the payload(s) in VIB LSI_bootbank_vmware-esx-sas2ircu_20.00.00.00-03 does not have sha-256 gunzip checksum. This will prevent VIB security verification and secure boot from functioning properly. Please remove this VIB or please check with your vendor for a replacement of this VIB
 Please refer to the log file for more details.

Valakinek erre megoldás esetleg?

 

Köszi!

/MEGOLDVA/ Mageia8, KDE Plasma, Kernel driver not installed (rc=-1908)

Fórumok

Itt is ugyanazt írják, mint a többi helyen amiket eddig találtam, de nekem nem működik, mert vagy nincs olyan fájl, vagy nemtom: https://superuser.com/questions/1285964/how-to-fix-and-prevent-virtualb…

Kernel verziók egyeznek, a dkms-virtualbox telepítve és mégis hibával leáll a vbox.

Megköszönök egy linket, ami megoldás. Kernelem: Linux localhost.localdomain 5.15.98-desktop-1.mga8 #1 SMP Sat Mar 4 12:16:27 UTC 2023 x86_64 x86_64 x86_64 GNU/Linux
 

Docker drupal10 symfony error

Fórumok

Üdv!

Egy D10-et tesztelgetek. Lokálisan megy is: Fc37 (selinux disabled).

Gondoltam felteszem egy docker konténerbe is:

FROM    fedora:latest

RUN dnf -y update
RUN dnf -y install php php-pdo php-dom php-gd memcached php-pecl-memcache sqlite
RUN curl -1sLf 'https://dl.cloudsmith.io/public/symfony/stable/setup.rpm.sh' | sudo -E bash
RUN dnf -y install symfony-cli

# VOLUME
VOLUME /drupal

# Expose port(s)
EXPOSE 8000


# WORK
WORKDIR /drupal

# ez még teszt: /bin/bash
ENTRYPOINT ........

A docker build --tag ...... megvan.

A helyi fájlokat felmountol-om a konténerbe futtatáskor:

docker run --rm -it -p 8000:8000 --name ... --hostname ... -v ....:/drupal localhost/image:dev

Ekkor futtatva hibát kapok a böngészőben, pedig van írási joga a fájlokra:

# symfony server:start

...

[Web Server ] Apr 18 23:40:18 |DEBUG  | PHP    Reloading PHP versions 
[Web Server ] Apr 18 23:40:18 |DEBUG  | PHP    Using PHP version 8.1.17 (from default version in $PATH) 
[Web Server ] Apr 18 23:40:18 |INFO   | PHP    listening path="/usr/sbin/php-fpm" php="8.1.17" port=39901
[PHP-FPM    ] Apr 18 23:40:18 |NOTICE | FPM    fpm is running, pid 36 
[PHP-FPM    ] Apr 18 23:40:18 |NOTICE | FPM    ready to handle connections 
[PHP-FPM    ] Apr 18 23:40:18 |NOTICE | FPM    systemd monitor interval set to 10000ms 
[Web Server ] Apr 18 23:40:25 |ERROR  | SERVER issue with server callback error="unable to fetch the response from the backend: malformed MIME header line: #1 /drupal/web/core/lib/Drupal/Core/Database/Database.php(445): Drupal\\sqlite\\Driver\\Database\\sqlite\\Connection::open()"
[Web Server ] Apr 18 23:40:25 |ERROR  | SERVER GET  (502) / ip="172.17.0.1"
[PHP-FPM    ] NOTICE: PHP message: PDOException: SQLSTATE[HY000]: General error: 8 attempt to write a readonly database in /drupal/web/core/lib/Drupal/Component/DependencyInjection/PhpArrayContainer.php on line 79 #0 /drupal/web/core/modules/sqlite/src/Driver/Database/sqlite/Connection.php(159): PDO->exec()
[PHP-FPM    ] #1 /drupal/web/core/lib/Drupal/Core/Database/Database.php(445): Drupal\sqlite\Driver\Database\sqlite\Connection::open()

...

Mit hagyok ki? (SQLite db: sites/default/files/.sqlite)

Proxmox Backup Server Tape

Fórumok

Hasznal valaki PBS-t kazettas egyseggel? Sajna eleg keves info van rola (=csak a sajat doksija). Es van par dolog ami nem egyertelmu:

 - A media pool/mediaset mukodese nem egeszen tiszta
 - az inventory es "content" infokat is kiirja a kazira, vagy azokat kulon menteni kene, hogy meglegyen ha a baltasgyilkos elviszi a pbs gepet?

Olyat szertnek, hogy van ket kazetta, felvaltva lenne havonta berakva az egysegbe, es folyamatosan tovabbirva (tehat nem felulirva) kerulne ki ra a heti mentes. archiv jelleggel meglenne minden backup az osrobbanastol kezdve :)

Podman volume(?) mount

Fórumok

Üdv,

Fc37-ben egy Dockerfile-ben megadtam:

VOLUME /app

Build megvan, futtatás:

podman run -it -p 8000:8000 --name myapp --hostname myapp fedora:myapp -v $(pwd)/app:/app

# vagy

podman run -it -p 8000:8000 --name myapp --hostname myapp fedora:myapp --mount='type=bind,source=$(pwd)/app,destination=/app'

 A $(pwd)/app nem mountolódik fel a konténer /app könyvtárába. Üres marad. Mit rontok el? Mi lenne a helyes megoldás? https://docs.podman.io/en/latest/markdown/options/mount.html

[MEGOLDVA]Proxmox és az ipv6

Fórumok

Sziasztok!

Eddig nem nagyon kellett az ipv6, de lassan megkerülhetetlen lesz. Gondoltam felhúzok pár ipv6-os címet és el is kezdhetjük használni.
Amibe rögtön beleszaladtam (7.2-11 és 7.0-13 alatt is):
Ha úgy veszem fel az ip címet, hogy az mögött nincs valós csatoló, akkor nem működik.
Magyarán:
Ha a vmbr0 úgy van beállítva, hogy

ipv4: 1.2.3.4/24
átjáró: 4.3.2.1
Bridge ports: eth0
ipv6: 1001:1001:0:1001::2/64
átjáró: 1001:1001:0:1001::1

 

Akkor ok, az 1.2.3.4 és az  1001:1001:0:1001::2 is pingelhető, elérhető

Ha viszont felveszek egy vmbr1-et így:

ipv4: 1.2.3.5/24
átjáró:
Bridge ports:
ipv6: 1001:1001:0:1001::3/64
átjáró:

Akkor az 1.2.3.5 működik, a 1001:1001:0:1001::3 viszont nem.

Mit baltázok el?

 

Köszi!