Virtualizáció

VPS + nested virtualization?

Fórumok

A szolgaltatok doksijaibol nem mindenhol latszik, olyan VPS szolgaltatot keresek, ahol van mukodo nested virtualizacio a VPS-en. Pluszpont, ha valakinek gyakorlati tapasztalatai is vannak, sajnos megbizhatosag es teljesitmeny szempontjabol eleg nagy a szoras.

A feladat egyebkent annyi, hogy Rocky + Cockpit + egy elore elkeszitett image a gepen + 0..n szamu parhuzamosan futo VM. Affele gyakorlos/lab rendszer, nem kell neki hatkilences SLA.

Hetzner-szerű szolgáltató USA területen

Fórumok

Sziasztok!

 

Jogi elvárások miatt néhány ESXi alatt futó virtuális gépet át kellene tennem USA területre. Tud valaki olyan szolgáltatót, ahol lehet fizikai vasat bérelni amin elfut egy ESXi és lehet hozzá /29-es subnetet bérelni?

Amiket eddig találtam mind 3-4-szeres áron van a Hetznerhez képest, tehát vagy nem találtam még meg az igazit, vagy odakint tényleg ilyen áron mennek?

 

Köszönöm!

debian/xen alatt a virt-managerben a pvh guestek nem latszanak

Fórumok

par debiannal regebbig meg latszottak, de egy upgrade utan eltuntek belole.

a libvirt-daemon-driver-xen fel van teve, xen list mutatja mind a pvh mind a hvm guesteket, de a virt-manager csak a hvm guesteket mutatja.

a pvh guestek a xen-tools-al lettek letrehozva, a configjuk az /etc/xen alatt van.

a hvm guestek a virt-managerrel lettek letrehozva, a configjuk az /etc/libvirt/libxl alatt van.

valakinek sikerult megoldania, hogy mindegyik latsszon benne? mit kell hozza csinalni?

iSCSI datastore hozzáadása VMware-ben

Fórumok

Sziasztok!

VMWare-rel kapcsolatban szeretném a segítségeteket kérni.

Adott egy cluster 3 hoszttal, valamint egy Dell PowerVault MD3200i storage.

A clusterben egy régi Dell T710-es szervert kicseréltem R550-re.

Az új hoston szeretném felvenni (iscsi) datastore-ként a PowerVault MD3200i 2 kötetét.

A vCenterben létrehoztam a vSwitch1-et, az ISCSI1, ISCSI2 port groupokat, VMkernel NIC-eket, storage adapterként az „iSCSI Software Adaptert”.

Az adapteren belül megvolt a Network Port Binding, és a Dynamic Discoveryben felvettem az iSCSI szerver IP címeit.

Azonban a Devicenál és a Path-nál nem jelenik meg a 2 kötet, pedig a Static Discovery alatt a Dynamic Discovery-ben felvett iSCSI szerverek alapján szépen kilistázza a powervault-okat Target Name-mel együtt.

Refresh, Rescan-ek voltak többször.

A cluster másik 2 host-ja is használja a storage-ot, a beállítások (látszólag) egyeznek.

 

Teljesen megakadtam, akinek van ötlete, kérem segítsen!

Docker Swarm - szolgáltatások közötti névfeloldás néha nem működik

Fórumok

Docker Swarm klaszter szolgátlatásai között a névfeloldás néha nem működik, a Docker belső DNS-e nem oldja fel a service neveket IP címekké. Azonban ez nem mindig fordul elő, sok esetben tökéletesen működik a névfeloldás.

Láttam ezt a topikot már: https://hup.hu/node/181972 De nem releváns, nem Windows konténereket használunk.

Sajnos nem tudtam a különféle fórumokon választ találni a problémámra sehol. A moby GtiHub repositoryjában bejelentett hibákat már végignéztem, rengeteg több éves nyitott Swarm+DNS probléma van, régi verziókkal kapcsolatban, és nagyon sok nem is releváns már, nem vitt előrébb.

Ti tapasztaltatok már ilyet? Ha igen, és sikerült megoldani, mi volt a gyökérok és mi volt a megoldás?

A Docker Engine verziója 24.0.2, a kernel verzió 3.10 (CentOS 7, még egy évig támogatott).

Zigbee és kubernetes

Fórumok

Csak elméleti a dolog, de zigbee hálózatban csak  egy kordinátor lehet. Ha ez elszáll , az összes okos/ügyes szenzornak annyi, hiába van mögötte egy HA rendszer, pl. kubernetes. Wi-fi -s végpontokkal (pl shelly)  ez nem gond. Hibatűrő rendszerhez alkalmas a zigbee? Olvasgattam az új protokollt a  "matter/thread"-ot , ez ipv6 , gondolom ott megoldható lesz. De mi van a zigbeevel, ha valaki ilyet szeretne. Lehetséges, vagy ne szeressen? 

[Megoldva]{Új probléma?} qcow2 partícionálás szkriptből

Fórumok

Egy pár órája már próbálkozom a qemu-nak előállítani egy gépet szkriptből. A szkript könyvtárba (chroot) elkészíti amit szeretnék, tovább akartam lépni, hogy egy qcow2-t csináljak neki, de valamit benézek vagy nagyon nem tudok, mert nem tudom bash szkriptből létrehozni a kívánt virtuális lemezt. Ha az üres qcow2-t átadom a qemunak egy live-dvd-vel, akkor tudom partícionálni a működő vm-ben, de nem ez lenne a cél :(

Egy kis segítségre lenne szükségem, mert ilyet még nem csináltam.! Ez volna a szkript idevágó része:

#!/bin/bash

# Elérési útvonalak
IMG_FILE="img.qcow2"
IMG_SIZE="32G"
EFI_PARTITION_SIZE="512M"
BOOT_PARTITION_SIZE="5G"

# QEMU kép létrehozása
qemu-img create -f qcow2 "${IMG_FILE}" "${IMG_SIZE}"

# Loop eszköz létrehozása
losetup -fP "${IMG_FILE}"
LOOP_DEVICE=$(losetup -l | grep "${IMG_FILE}" | awk '{print $1}')

# Partíciók létrehozása és formázása
parted -s "${LOOP_DEVICE}" mklabel gpt
parted -s "${LOOP_DEVICE}" mkpart primary fat32 1MiB "${EFI_PARTITION_SIZE}"
parted -s "${LOOP_DEVICE}" set 1 boot on
parted -s "${LOOP_DEVICE}" mkpart primary ext4 "${EFI_PARTITION_SIZE}" "${BOOT_PARTITION_SIZE}"
parted -s "${LOOP_DEVICE}" mkpart primary btrfs "${BOOT_PARTITION_SIZE}" 100%
mkfs.fat -F32 "${LOOP_DEVICE}p1"
mkfs.btrfs "${LOOP_DEVICE}p2"
mkfs.btrfs "${LOOP_DEVICE}p3"

# Partíciók csatolása
mount "${LOOP_DEVICE}p2" /mnt
mkdir -p /mnt/boot
mount "${LOOP_DEVICE}p1" /mnt/boot
mkdir -p /mnt/boot/efi
mount "${LOOP_DEVICE}p3" /mnt/boot/efi

# rendszer telepítése lenne ha lenne hová

# Visszaállítjuk a loop eszközt
losetup -d "${LOOP_DEVICE}"

A futtatás ereménye:

# ./make.disk 
Formatting 'img.qcow2', fmt=qcow2 cluster_size=65536 extended_l2=off compression_type=zlib size=34359738368 lazy_refcounts=off refcount_bits=16
Error: The location 1MiB is outside of the device /dev/loop0.
Error: Partition doesn't exist.
Error: The location 512M is outside of the device /dev/loop0.
Error: The location 5G is outside of the device /dev/loop0.

Egy elindított livecd-vel tudom partícionálni. Hogyan kell kezelni szkriptből?

Docker containerek között DNS feloldás nem megy

Fórumok

Sziasztok!

Docker (Desktop) környezetben futottam bele egy problémába, miszerint Windows hoston, kettő Windows-os containert futtatnék amik beszélgetnek egymással. Van egy minimális docker-compose.yml, ami a két containert létrehozza és közös hálózatba helyezi őket - teljesen alapbeállításokkal. Kubernetes nincs telepítve. Tudnak kommunikálni egymással, de a DNS alapú névfeloldás nem működik, így egy host név alapú csatlakozás ~28 másodpercbe telik.

Resolve-DnsName -Name ServerContainer -LlmnrOnly

parancs viszont pár ms alatt végez, vagyis ha jól értem, a DNS feloldással van valami baj. Érdekes, hogy külső címeket, például google.com ugyanúgy pár ms alatt old fel.

Két napja túrom a Google-t, de csak Linux-os containerre találtam megoldást, Windows-os még említés szintjén sem.

Egyébként a példakódot Windows hoston, Linux backenddel futtatva, simán hozza a várt számokat.

A hoston Windows 10 21H2 fut, Docker Desktop pedig a fórumtéma létrehozásakor elérhető legújabb. Container base image-e Windows esetén mcr.microsoft.com/dotnet/aspnet:6.0 míg Linux esetén mcr.microsoft.com/dotnet/sdk:6.0

 

Előre is köszi minden jellegű segítséget!

ESXi 8U1 vs LSI 2308

Fórumok

Sziasztok,

adott a fent ESXi8U1 hoszt amiben egy LSI 2308 raid vezérlő van, most hagyjuk, hogy hivatalosan nem támogatott stb...a lenti problémával kűzdök az LSI -s VIB csomag felrakásánál, google -t már kimerítettem...

 

esx-01:/tmp] esxcli software vib install -v /tmp/vmware-esx-sas2ircu.vib -f --no-sig-check
 [ProfileValidationError]
 In ImageProfile (Updated) ESXi-8.0U1a-21813344-standard, the payload(s) in VIB LSI_bootbank_vmware-esx-sas2ircu_20.00.00.00-03 does not have sha-256 gunzip checksum. This will prevent VIB security verification and secure boot from functioning properly. Please remove this VIB or please check with your vendor for a replacement of this VIB
 Please refer to the log file for more details.

Valakinek erre megoldás esetleg?

 

Köszi!