- A hozzászóláshoz be kell jelentkezni
- 2729 megtekintés
Hozzászólások
Megvolt az Update 5.4-rol, nem volt semmi problem. (Single Node, Nincs sem cluster, sem Ceph)
- A hozzászóláshoz be kell jelentkezni
Szintén. Teljesen problémamentes volt.
- A hozzászóláshoz be kell jelentkezni
Végre megy a Live Migration helyi lemezek között, nem kell hozzá osztott storage. Ezt már vártam, király.
- A hozzászóláshoz be kell jelentkezni
ha elviszi a baltas gyilkos a hostot, akkor honnan lesznek meg az adatok a masik hostra migralashoz? (nyilvan akkor nem livemigration van)
--
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!
- A hozzászóláshoz be kell jelentkezni
Hát a mentésből :) A Live Migration nem biztonsági funkció nálam (az a HA cluster, vagy a replication), hanem karbantartást könnyítő.
- A hozzászóláshoz be kell jelentkezni
WOW! Ez nagy hír nekem is. Eddig csak XenServer illetve forkja, XCP-ng alatt ment. Ez volt az egyik ok, amiért nem váltottam Proxmoxra, ahol esetleg felmerült volna. Na meglesem, köszi :)
- A hozzászóláshoz be kell jelentkezni
Valaki használ IOMMU/PCI passthrough-t desktop/server környezetben? Nekem FreeNAS-hoz van egy IBM M1015 raid kártya, a Desktopok-hoz (W10, Linux) meg GTX 1080Ti, USB, WIFI kártyák hozzácsapva.
Ezek remekül mennek a jelenlegi 5.4-11 alatt.
5-ös kernel alatt ezek mennek rendesen? Van valami szívás vele?
- A hozzászóláshoz be kell jelentkezni
Van.
Systemd-boot van Config:
etc/kernel/cmdline
Ide a szokásos, legalábbis nekem: intel_iommu=on hugepagesz=1G default_hugepagesz=2M iommu=pt pcie_acs_override=downstream,multifunction nofb nomodeset video=vesafb:off,efifb:off
Majd
pve-efiboot-tool refresh
Vm configban:
machine: pc-q35-3.1
Nekem ezzel megy, egyenlőre
Zfs root fs van ssd-n trimmel
A zfs upgrade az import utan szépen lezajlott
- A hozzászóláshoz be kell jelentkezni
Köszi a választ. Nálam cmdline:
intel_iommu=on iommu=pt vfio-pci.ids=10de:1b06,10de:10ef,1002:67c7,1002:aaf0,1000:0072,1b21:2142,14e4:43a0 vfio-pci.disable_vga=1 video=vesafb:off,efifb:off nmi_watchdog=0
A hugepage-t hogy állítod be a VM-re, hogy használja?
Meg a többi vfio beállítás, csak az új kerneltől félek, mert korábban hallottam, hogy iommu és vfio gondok voltak vele.
És q35 minden VM, i440fx-el sok minden nem ment jól.
Nálam a VM-ek lvm-en vannak mert zfs alatt 30-40%.-al lassabb volt az írás/olvasás, meg minimum 8GB RAM kell, hogy a cache-t ne kelljen kikapcsolni.
Bár mostanában nem néztem ZFS-t linux alatt, FreeBSD-n viszont azt használom, ott nincs vele gondom.
- A hozzászóláshoz be kell jelentkezni
Nincs mit, a vm configba:
hugepages: 2
Itt van az eredmeny es a leiras hogy en hogyan hasznalom, lehet rajta meg mit csiszolni pl cpu pin es m2 sata controllerrel kellene buveszkedni. A DPC latency erezhetoen nagyobb mint 5.4 -en, de nem veszes...
https://www.youtube.com/watch?v=oT566ckTrxk
Tobb mint 1 eve igy hasznalom a gepem, megelegedessel :)
- A hozzászóláshoz be kell jelentkezni
Köszi, meglesem.
- A hozzászóláshoz be kell jelentkezni
Azt hiszem én még várok az átállással.
https://passthroughpo.st/psa-5-1-kernel-glitching-and-crashes-in-passth…
https://passthroughpo.st/psa-issues-persist-into-kernel-5-2-patches-lan…-
- A hozzászóláshoz be kell jelentkezni