Virtualizáció

LUN expand ZFS alatt

Fórumok

Sziasztok!

Olvasgatok, elvileg működik, de mivel éles rendszeren is meg kellene csinálnom, ezért szeretném gyakorlottabbak tapasztalatát is meghallgatni.

Az volna a cél, hogy Unity storage-ról FC-n osztott LUN-t menet közben átméretezzek, úgy hogy a Proxmox által futtatott VM ne érezze meg. A Proxmoxon ZFS storage van készítve az adott LUN-ból. A VM diskjét nem érintené a változás, csak annyi lenne a cél, hogy a pool-ban több hely legyen. Elvileg autoexpand property ON esetén figyel a maga alatt történő méretváltozásra, de van bennem bizonytalanság. Ezek volnának a parancsok.

# zpool set autoexpand=on zfsvol
# zpool online -e zfsvol /dev/sdc
# zpool export zfsvol
# zpool import zfsvol

Az export hatására szerintem átmenetileg elveszítem a pool-t, tehát nem futhat közben a VM, ami ebből a pool-ból kapta a diszket. Jól gondolom? Ez a lépés mindenképpen kell?

OpenStack bandwidth aware scheduling

Fórumok

Az OpenStack szakértők segítségét szeretném kérni a címben említett témában. Az egyik speciális erőforrástípus esetében felmerült, hogy a nova placement logikában vegyük figyelembe a sávszélességet (pontosabban az adott gép maximális sávszélességét) is, mert garantálni kellene igény szerinti mennyiséget. Tehát ha van egy Compute host-od, amiben van 2x10G NIC, akkor mondjuk 10 darab 1G igényű VM-nél ne kerüljön több rá. Első körben oversubscription nem érdekel, ez lehetne későbbi improvement, ha van egy baseline, és itt-ott van teaming is. Most nem nagyon okoskodunk bele a default placement-be, az egyetlen dolog ami pluszban van az anti-affinity a clusterelt megoldások esetén.

Lehet rossz helyen nézelődök, de egy napos keresgélés után azt látom, hogy nincs ilyen megoldás készen, ami fura tekintve, hogy elvileg sok szolgáltató használ OpenStack-et és a BW garancia szinte mindenhol alap. A gondom az, hogy a bejáratott host modellek esetében mindig a NIC a szűk keresztmetszet (RAM meg CPU van bőven) tehát a fenti példánál maradva 10 gép nem pörgeti ki az összes erőforrást és jöhetne rá még több később, ami nem ideális.

A mostani ötletem elég favágó: csinálni kell egy-két új AZ-t, amiben csak olyan gépek lennének, amikben kevesebb a RAM, CPU és ide csak ez a speciális típus kerülhetne, és mire elérjük a BW szempontjából elméleti maximumot addigra kipörög a többi erőforrás és a probléma megoldja önmagát.

Ismertek erre szép megoldást? Merre érdemes nézelődnöm? Vagy van ilyen megoldás csak én vagyok vak, és a lenti dolgok inkább a dinamikus BW scheduling-re vonatkoznának (ami nekem nem kell)?

https://specs.openstack.org/openstack/nova-specs/specs/stein/implemente…

https://specs.openstack.org/openstack/neutron-specs/specs/rocky/minimum…

https://docs.openstack.org/nova/latest/admin/configuration/schedulers.h…

VMWare Fusion - hosts file "ne menjen at" macOS-rol a guest OS-be

Fórumok

Regen Parallels-t hasznaltam. hosts file-os adblock megoldasom van. Amikor kikapcsoltatjak velem az adblockot egy oldalon, az hosts fajllal szivas. De elinditottam a Parallells-ben egy VM-et es megneztem ugy, ha tenyleg annyira erdekelt.

De atalltam VMWare Fusionre. Es ott eszrevettem, hogy ami 127.0.0.1-re van kuldve a hoston, az a guesten is. At lehet ezt valahogy allitani, hogy a guest OS ne ismerje a host OS hosts fajljat, hanem hasznaljon mindig DNS-t? (Win es Linux guesten is fennallo problema, es a Linux guestrol fixen allitom, hogy amugy ures a hosts fajl)

Otthoni mini server KVM (Proxmox) alapon - Legyen Hyper-threading vagy ne + PCI passthrough?

Fórumok

Sziasztok!

Egy i3 5005U CPU-s fanless PC szolgalt ki eddig, 3 VM-el (egy altalanos Ubuntu VM, egy Home Assistant OS es egy OPNsense)

Ez lesz most update-elve egy i3-8145U-s gepre. (a valtas fo oka, hogy az elozo gep nem tudta ki-NAT-olni PPPoE-vel a 1Gbit-es optikai netet, csak kb olyan 6-700Mbit-et max (Amugy teljesen eleg volt a teljesitmenye). Az elozo gepen engedelyezve volt a Hyper-threading, de itt is es mashol is olvastam, hogy virtualizacio ala nem ajanlott. Ezzel kapcsolatos a kerdesem, a gepcsere utan legyen HT vagy ne?

A Masik tema az egyik ethernet port(WAN) PCI passthrough-ja. Ennek szerintetek lesz erdemi haszna, vagy eleg a virtio? (elozo gepen virtio volt)

Az uj gepben ilyen halokartyak vannak:

Dual Gigabit LAN
Dual network with two RJ45 ports
Used network chips:
1) Intel i211 Ethernet Controller with MAC, PHY and PCIe interface
2) Intel i219LM PHY connected to the MAC of the processor

 

Ez sem teljesen vilagos, hogy mi a pontos kulonbseg a ket port kozott? Ha jol ertem, az elso dedikalt, a masodik integralt szoval a CPU-t terheli? Melyiket erdemes WAN-ra hasznalni (ha egyaltalan szamit...) es persze  virtio vagy passthrough?

VM futattása Proxmoxxal

Fórumok

Sziasztok

Van egy asztali számítógépem amin fut egy KVM dom ezt teszt rendszerek készítésére szoktam használni. A KVM-en belül fut további két Proxmox amin a failover lehetőségeket tesztelném, a probléma azzal van ha VM-et szeretnék létrehozni a Proxmox rendszeren akkor a telepítés elszáll. Átnézetm a logokat nem panaszkodik semmire, a google-ben sem találtam kifejezetten  erre a problémára megoldást.

Találkozott már valaki hasonlóval?

Előre is köszönöm.

VMware kommersz gépen

Fórumok

Hi!

 

Egy 2 node-os VMware clusteren gondolkodom - most tekintsünk el attól, hogy a 3 node lenne az igazi - aminek az egyik node-ján futna egy VM, ami megállás esetén elindulna a másik node-on. A VM-ben egy linux, ami 2 magot és 8GB RAM-ot igényelne, szóval picike feladat, így azon elmélkedtem, hogy odatennék 2db "kommersz" alkatrészből összerakott masinát:

Asus Prime B460M-K
Intel i5-10400
16GB RAM
2db SSD
"normális" tápegység

 

Sajnos a VMware oldalán nem igazán találtam infót, hogy a fenti hardwerek mennyire támogatottak és a live migration működni fog -e. Ezzel kapcsolatban van esetleg valakinek tapasztalata? Esetleg link, hogy hol tudnék ennek utánaolvasni?

 

Előre is köszönöm a segítséget.

Debian stable GPU Passthrough [GT710B]

Fórumok

Sziasztok!

Van egy SuperMicro A2SDi-H-TF alaplapom VT-d tamogatassal.

A videokartya [UEFI kepes]: nvflash -v dumped.rom

UEFI Version          : 0x10037
UEFI Variant ID       : 0x0000000000000004 ( GK1xx )
UEFI Signer(s)        : Microsoft Corporation UEFI CA 2011

GRUB-ot es modulokat beallitva probalom az ASUS GT710-4H-SL-2GD5 videokartyat az egyetlen PCI-E slotban a Guestnek atadni.

iommu group:

IOMMU Group 15:
        02:00.0 VGA compatible controller [0300]: NVIDIA Corporation GK208 [GeForce GT 710B] [10de:128b] (rev a1)
        02:00.1 Audio device [0403]: NVIDIA Corporation GK208 HDMI/DP Audio Controller [10de:0e0f] (rev a1)

lspci -knn:

02:00.0 VGA compatible controller [0300]: NVIDIA Corporation GK208 [GeForce GT 710B] [10de:128b] (rev ff)
        Kernel driver in use: vfio-pci
        Kernel modules: nouveau
02:00.1 Audio device [0403]: NVIDIA Corporation GK208 HDMI/DP Audio Controller [10de:0e0f] (rev ff)
        Kernel driver in use: vfio-pci
        Kernel modules: snd_hda_intel

nouveau, nvidia modulok blacklisten.

libvirt xml config: https://pastebin.com/U363HCUh

a libvirt logban:

qemu-system-x86_64: vfio: Unable to power on device, stuck in D3

dmesg -ben:

kernel: [  550.246833] vfio-pci 0000:02:00.0: enabling device (0000 -> 0003)
kernel: [  550.247240] vfio_ecap_init: 0000:02:00.0 hiding ecap 0x19@0x900
kernel: [  550.270767] vfio-pci 0000:02:00.1: enabling device (0000 -> 0002)
kernel: [  551.502944] vfio_bar_restore: 0000:02:00.1 reset recovery - restoring bars
kernel: [  551.518988] vfio_bar_restore: 0000:02:00.0 reset recovery - restoring bars

nvidia-smi -pm 1 is megvolt, de az mar be volt allitva [ezt termeszetesen iommu nelkul csinaltam]

Mikor eliditom a VM-et egy archlinux iso -val, akkor az lspci nem mutatja a videokartyat.

Valakinek otlete/tapasztalata GPU Passthrough -val?

Ansible - systemd "Service is in unknown state"

Fórumok

Üdv!

Van egy ansible playbook, szépen működik is, leszámítva a systemd service funkciót:

FAILED! => {"changed": false, "msg": "Service is in unknown state", "status": {}}

Van egy CentOS8 lxc konténerem, amiben tesztelem. Minden szépen fut leszámítva, hogy egy service sem indítható. A konténerben persze működik minden, ott nincs gond.

A neten láttam, hogy többeknek volt ugyanez a gondja, de systemd problémát mondtak rá, nem ansible.

# playbook.yml
---

- name: CentOS8 Playbook
  hosts: all
  become: true
  roles:
  - basic


# roles/basic/tasks/main.yml
...
- name: "Apache service httpd enabled and start"
  systemd:
    name: httpd
    enabled: yes
    state: started
...

 

~# ansible -K -b -m shell -a 'rpm -q systemd' all
BECOME password:
centos8-srv | CHANGED | rc=0 >>
systemd-239-41.el8_3.x86_64

Van erre megoldás v. tényleg systemd probléma?