Virtualizáció

Proxmox -> Truenas ZFS sebesség kritikán aluli

Fórumok

Sziasztok!

Adott egy Dell T610-es szerver - tudom nem a legfrissebb - 2db Intel(R) Xeon(R) CPU X5650 @ 2.67GHz , 96 GB RAM, 2db KINGSTON_SKC600256G SSD a rendszernek RAID1-ben, illetve 8db WD40PURX -es HDD. A raid vezérlő HBA módba állított. A rendszer Proxmox 9.0.6-os.

A truenas egy 24GB RAM, 12CPU mag (2*6), 8 HDD direktben, 16GB SSD root, 8GB SSD zfs-cache, 2x4GB SSD zfs-dedup, 2x4GB SSD zfs-log, 2x4GB SSD zdf-metadata formájában indítva.

ZFS van létrehozva a 8HDD-ből RAIDZ1-ben. 

zpool status
  pool: boot-pool
 state: ONLINE
  scan: scrub repaired 0B in 00:00:23 with 0 errors on Fri Sep  5 03:45:25 2025
config:

        NAME        STATE     READ WRITE CKSUM
        boot-pool   ONLINE       0     0     0
          sda3      ONLINE       0     0     0

errors: No known data errors

  pool: pool
 state: ONLINE
  scan: scrub repaired 0B in 18:17:31 with 0 errors on Sun Aug 17 18:17:33 2025
config:

        NAME                                      STATE     READ WRITE CKSUM
        pool                                      ONLINE       0     0     0
          raidz1-0                                ONLINE       0     0     0
            a1325690-5379-417f-922e-41bd8d8c7f0c  ONLINE       0     0     0
            558ed06f-393d-41d8-b71d-be2d094ce5b2  ONLINE       0     0     0
            e19c5396-630d-465f-8b06-9b71510c9f16  ONLINE       0     0     0
            763d9bc2-a424-48ea-8d5d-baf37482c55e  ONLINE       0     0     0
            f150c2dc-a324-4335-85de-f4d72c4e1e0f  ONLINE       0     0     0
            5f01aacc-3951-4653-bba9-a21c6265f4e0  ONLINE       0     0     0
            048fa7fd-7214-414b-98cd-75fe15bccaba  ONLINE       0     0     0
            4e5fc0a9-a3e8-4086-bee4-d52f0a36d690  ONLINE       0     0     0
        dedup
          mirror-3                                ONLINE       0     0     0
            2a490bf5-59b1-4750-b312-1b61fdba5301  ONLINE       0     0     0
            7b3f3c6f-8d50-4f1c-8d51-fadfa0f1f32f  ONLINE       0     0     0
        special
          mirror-2                                ONLINE       0     0     0
            7e18f129-708d-487e-bbc5-4d9fb4aa2d64  ONLINE       0     0     0
            7d76e415-8a3e-42a9-9c64-2f63d220e00d  ONLINE       0     0     0
        logs
          mirror-1                                ONLINE       0     0     0
            27ea5044-a915-40fa-99db-e381b7e21195  ONLINE       0     0     0
            e048ba11-5203-4df0-9b4e-2043f39fe355  ONLINE       0     0     0
        cache
          ab64f5ee-bc7d-4025-931d-142bcf5062d4    ONLINE       0     0     0

errors: No known data errors
 

SMB protokollal ajánlok ki tárterületet. Innen olvasok ki fájlokat. Az olvasás sima ügy, 128MB/s (gigabites net maxon megy), viszont amint írók a lemezre, már csak 50-60MB/s-el tudok írni. HA mappából mappába másolok 3GB után megáll egy 30másodpercre a világ annyira, hogy a szerver egyéb szolgáltatásai értsd egyéb VM-ek adatai már Proxmoxban nem elérhetők, DNS nem válaszol. Majd 30másodperc után, mintha mi sem történt volna folytatódik minden és újabb 3GB áthelyezésekor ez újra előjön. ugyanez a helyzet törlésnél is.

A megosztásokban video fájlokat tárolok 1-10GB körül nagyobb mennyiségben, de vannak PDF-ek is 5-10ezer, amiket olvasni másolni/áthelyezni is szornyű.

zfs get all pool
NAME  PROPERTY                 VALUE                    SOURCE
pool  type                     filesystem               -
pool  creation                 Tue Feb 18  9:52 2025    -
pool  used                     19.9T                    -
pool  available                4.52T                    -
pool  referenced               128K                     -
pool  compressratio            1.00x                    -
pool  mounted                  yes                      -
pool  quota                    none                     default
pool  reservation              none                     default
pool  recordsize               512K                     local
pool  mountpoint               /mnt/pool                default
pool  sharenfs                 off                      default
pool  checksum                 on                       local
pool  compression              lz4                      local
pool  atime                    off                      local
pool  devices                  on                       default
pool  exec                     on                       local
pool  setuid                   on                       default
pool  readonly                 off                      local
pool  zoned                    off                      default
pool  snapdir                  hidden                   local
pool  aclmode                  discard                  local
pool  aclinherit               discard                  local
pool  createtxg                1                        -
pool  canmount                 on                       default
pool  xattr                    on                       default
pool  copies                   1                        local
pool  version                  5                        -
pool  utf8only                 off                      -
pool  normalization            none                     -
pool  casesensitivity          sensitive                -
pool  vscan                    off                      default
pool  nbmand                   off                      default
pool  sharesmb                 off                      default
pool  refquota                 none                     default
pool  refreservation           none                     default
pool  guid                     3988373239465288253      -
pool  primarycache             all                      default
pool  secondarycache           all                      default
pool  usedbysnapshots          0B                       -
pool  usedbydataset            128K                     -
pool  usedbychildren           19.9T                    -
pool  usedbyrefreservation     0B                       -
pool  logbias                  latency                  default
pool  objsetid                 54                       -
pool  dedup                    on                       local
pool  mlslabel                 none                     default
pool  sync                     disabled                 local
pool  dnodesize                legacy                   default
pool  refcompressratio         1.00x                    -
pool  written                  128K                     -
pool  logicalused              19.9T                    -
pool  logicalreferenced        55K                      -
pool  volmode                  default                  default
pool  filesystem_limit         none                     default
pool  snapshot_limit           none                     default
pool  filesystem_count         none                     default
pool  snapshot_count           none                     default
pool  snapdev                  hidden                   local
pool  acltype                  posix                    local
pool  context                  none                     default
pool  fscontext                none                     default
pool  defcontext               none                     default
pool  rootcontext              none                     default
pool  relatime                 on                       default
pool  redundant_metadata       all                      default
pool  overlay                  on                       default
pool  encryption               off                      default
pool  keylocation              none                     default
pool  keyformat                none                     default
pool  pbkdf2iters              0                        default
pool  special_small_blocks     0                        local
pool  prefetch                 all                      default
pool  direct                   standard                 default
pool  longname                 off                      default
pool  org.freenas:description                           local

Mi az isten lehet? TrueNAS Core-t cseréltem év elején SCALE-re, azóta tapasztalom, de tiszta telepítés volt.

Köszönöm az ötleteket.

zsomLEE

Proxmox ötletelés - Intel lga2011-v3-ról, AMD AM5-re?

Fórumok

ziasztok!
Adott egy otthoni, nevezzük homelab-nak felallas. Nem nagy dolgok: opnsense-vm, nextcloud-vm, immich-vm, homeassistant-vm, truenas scale-vm, debian-vm(docker konténereknek), 2-3 tesztelős vm + 2db lxc konténer

Ezek jelenleg Proxmox-on futnak, az alábbi vassal:

Lap: ASUS Z10PA-D8 + iKVM modul
CPU: e5-2696v3 gyári, nem piszkált (van valami féle fajta heck a v3-as cpu-ra, amivel "all core" turbót lehet kicsikarni belőle, nem tudom, nem érdekelt)
RAM: 128GB ECC
TÁP: evga 1000W-os full moduláris
Ház: valami krisztus előtti 5U-s rack ház
Storage:
  - rendszer: 2x128GB SSD alaplapra csatlakoztatva, szoftveres raid1 ext4 fajlrendszer
  - pool_1: 2x 1024SSD szintén alaplapra csatlakoztatva, zfs mirror
  - pool_2: 2x 1024SSD szintén alaplapra csatlakoztatva, zfs mirror
  - pool_2: 1x 1024GB Nvme ssd alaplapi foglalatban, zfs stripe
  - van egy HBA kártya a gépben, 8 lemezt tud kezelni, ezen van 4db 2TB-os HDD, ezt egy truenas scale vm kapja meg pci passthrough-val (erről majd később)
  
PCI-e bővítők:

  - 1db 4 portos hálókártya --> opnsense vm-nek (passthrough-val)
  - 1db 1 portos mellanox SFP+ hálókártya truenas-nak (passthrough-val) - külön vason van még egy truenas(lga1150-es platform, supermicro + e3-as xeon), arra megy napi külön mentés
  - 1db 1 portos halókártya egy debian vm-nek, amin futnak a docker konténerek (passthrough-val)
  - 1db HBA kártya
  
A proxmox-on vannak még "linux bridge" halókártyák de azok most a történet szempontjából nem fontosak.

Szóval ezt a konfigot gondoltam egy kicsit modernizálni.

Ez ugye egy lga2011-v3 --> kb 2014-ből
Ha maradnék az intel platformnál, akkor lga 3647-re tudnék ugrani --> ez egy 2016-os technika, tehát "nyernék 2 évet", viszont baromi drága...
Lehetne menni a következő kiadásokra, lga 4189 vagy lga 4677 ezek 2020 és 2023-as technikák, a kettő között árban én nem latok nagy különbséget, mind a kettő drágább, mint a 3647-es...

Az árakat itt úgy értsd, hogy 150.000ft-tól felfele vannak mondjuk az alaplapok, ehhez még a processzor, RAM...

Itt jött az ötlet, hogy tennék egy próbát az AMD "asztali" platformjával.
Az epyc-ek és a threadripper-k nem nyerték el a tetszésem, bár ebay-en Kínából Supermicro lap + epyc cpu(első, vagy második gen) + RAM egészen emberi áron lenne is: link

Ezt még ha 1,6-al meg is szorzom, mire ideér akkor is 1.000EUR durván. Legyen mondjuk 400.000Ft

Nade, hogy visszakanyarodjak az AMD asztalihoz:

LAP: AM5 ASUS PRIME B840-as --> kb 65.000Ft
RAM: Kingston 2x16GB DDR5 ECC-s (egyelőre elég lenne, majd menne fel 64GB-ra)--> 75.000Ft
CPU: Ryzen 9 9900x --> 170.000Ft
Vennék Nvme meghajtókat is, de az összehasonlítás miatt most azt nem részletezem, csak a 3 fő egységet. 
Nyilván a táp is maradna.

Ez így elviekben 310.000 jó magyar forint, ÉS elviekben tamogatja az ECC-t is, ez nagy szó!

Hasonló "asztali" platformra az intelnél lga1851-ből lenne, de ott a "W-s" alaplapok nagyon ritkák (ezekben van csak ECC tamogatás), ezért ennek megfelelően az áruk is ehhez igazodik.

Itt szeretném a segítségeteket kérni, Proxmox "szakik". 
Mennyire vállalható az AMD proxmox-al? Vannak pár vps-em, külföldön is, és itthon is. Vannak szolgáltatók, akik pl AMD ryzen 9-el a 7000-es szériával szolgáltatnak VPS-t.
Itthon is illetve külföldön is, így gondolom hogy van ez annyira jó, hogy ha nekik megfelel akkor nekem is. DE, ez 7000-es széria, én 9000-et tervezek venni.
Amitől félek a pci passthrough, hogy ez hogyan vagy hogyan nem fog menni. 

Amiben nagyon hajlok az AMD-re, az a magasabb órajel, illetve bízván az újabb gyártástechnológiákban a kisebb fogyasztás. 
Nyilván 0-24-be menne, most is abban megy, és van pénz banánra is(még...), de azért ha van rá lehetőség, akkor adjuk meg a lehetőséget a kisebb fogyasztásnak (jön a tél asszony virágai jönnek befele, azoknak is kell világítani... xD).

Visszakanyarodva a témához, olyan 70-80%-ra már eldöntöttem, hogy AMD-re váltanék, mert vannak rá példák, hogy működik, de jó lenne ha itt is kapnék megerősítést.
Kimondottan a pci passthrough és az ECC témájában.

ECC kell a ZFS miatt, a passthrough meg kell a jelenlegi felállás miatt. Nekem alapvetően tetszik, működik, meg vagyok elégedve vele, meg igazából most nem is a Proxmox lelki világáról akarok diskurálni, hanem hogy AMD vagy intel, egyelőre. Ha megvan a platform, akkor egy újabb topicban azért kikérném a véleményeket. 

Legjobb lenne, ha esetleg lenne olyan aki AMD-n proxmox-ol, ne adj isten a 9000-as szérián már. Nem epyc-en, és nem threadripper-en...

Proxmox fórumok szintén nem írnak különösebben semmi egetrengető dolgot.

Köszi előre is!

Virtualizáció és Bitlocker

Fórumok

Üdv a téma szakértőinek!

Van egy Win 11 Enterprise-t futtató laptop. Menne szervizbe, mert szegényke kapott egy pofont, és gyengélkedik. Viszont közben dolgoznék is, így kínomban azon agyaltam, hogy kimentem az egészet egy virtuális gépre, és addig azon futtatom. Elég összetett a szoftverkörnyezete, egy másik gépet nem is bírnék licensz híján ugyanerre a szintre hozni, így gondoltam, hátha... Cseregép ugyan lenne, de az kb. 2 nap kiesés, míg minden szart átmásolok, beállítok, stb.

Igen ám, de titkosítva van a lemez, és nem tudom, hogy virtuális gépre átköltézéskor ez gondot okozhat-e. Igazából ezek a kérdések merültek fel bennem:

  • Fel kell-e oldani a bitlockert a virtualizáció előtt?
  • Illetve van-e olyan virtuális környezet, amelyikkel feloldás nélkül is működne?
  • Illetve melyik virtualizációs környezet ajánlott erre a célra? 
  • Kell-e a virtualizáció előtt más előkészítő műveletet is csinálni?

Nagyon régen használtam a Wmware Playert, meg Virtualboxot kb. a Win7 környékén, de gyanítom, azóta jócskán megváltoztak a körülmények a Microsoft háza táján. 

Köszi a segítséget.

Proxmox Backup Server → BackBlaze (S3) Offisite mentés

Fórumok

A PBS 4 egyik új funkciója (még tech preview!) az S3 kompatibilis tárolók natív támogatása. Én BackBlaze-t használom már másfajta mentésre, ezért azzal próbáltam ki.

A beállítás igen egyszerűnek tűnt, de elsőre mégsem jött össze. Másodikra viszont igen némi olvasgatás után. Más is belefuthat, mert nem minden S3 elérést adó szolgáltató, vagy onprem szerver kompatibilis 100%-ban az S3 specifikációval.

A beállítás:

Először a „Configuartion → S3 Endpoints → Add” helyen kell a következőket beállítani:

Endpoint name: ez mindegy mi
Endpoint: s3.us-west-002.backblazeb2.com (vagy az a régió ahol a bucket van)
Port: (nem kell)
Path Style: [x] (a B2 csak ezzel a beállítással megy)
Region: us-west-002 (nem értem ez minek kell, mert az endpoint is tartalmazza, de kell)
Access Key: (B2 keyID)
Secret Key: (B2 applicationKey)
Fingerpint: (nem kell)

És a trükk → Advanced beállítások

Provider Quirks: Skip If-None-Match header

Ha ez nincs beállítva nem fog működni. Ez az oka a Proxmox support oldalról:

The Backblaze B2 implementation of the S3 api seems to not support the If-None-Match http header, therefore the requests failing with above error.

Már jelezték a BackBlaze-nek.

Ezután kell létrehozni egy új Datastore-t

Name: bármi, de fontos lesz később
Datastore Type: S3
Local cache: /valami/mappa (részletezem később mi ez)
S3 Endpoint ID: amit létrehoztál ezelőtt
GC Schelude: amit akarsz
Prune Schedule: amit akarsz
Device: nem kell
Bucket: kiolvassa az ID-alapján, legördülő menüben kell kiválasztani

És kész is, lehet használni.

Local cache! Meg kell adni egy helyi mappát, mert a mentés oda készül és azt szinkronizálja az S3 helyre, hogy csökkentse a költségeket, minden onnan megy ami lehet. Tehát a mentésnek kell hely! Ez gyakorlatilag két mentés, a sebességét a helyi BPS adja. Egy resore nem is használja az S3-at.
Nekem jó lenne olyan opció is, ahol ez nincs, csak S3, de egyelőre ilyet nem találtam.

Így gyakorlatilag ezzel egyszerre van helyi és offsite mentés is. A felülten egyelőre nincs állapot indikátor, hogy az S3 szinkron hogy áll, gondolom előbb utóbb lesz valami erre.

Ha beüt a disaster, akkor fogsz egy másik PBS-t és végigcsinálod az fentiket, csak a datastore hozzáadásnál az Advanced alatt beállítod ezt:

Reuse existing database.

Ekkor ha talál olyan nevű mappát amit ez előző Datastore-nál beállítottál használni fogja. Fontos, hogy akkor olvassa fel, ha név egyezik a előzővel, mert ez a mentés mappájának a neve.

Kipróbáltam és gond nélkül ment.

Ez egy egész hasznos újítás, amit ha a Remotes pull replikációval használsz egészen komoly biztonság érhető el. Nálam ez lesz a működés (már ahol kifizeti az ügyfél):

Proxmox VM → PBS backup ← External PBS pull replication → S3 (B2)

Ezzel egy kibertámadás is igen jó eséllyel túlélhető, mivel ha esetleg hozzáférnek a helyi BPS-hez azon nem látszik a pull, és ha valahogy mégis hozzáférnek, ott a B2 mentés. Ez összesen 3 példány a mentésből.
Persze kivétel, ha rendszergazda gépét törik fel és hozzáférnek minden beállításhoz. Sajnos láttam már ilyet.
Szóval vagy legyen két géped és ez egyiken csak a cloud dolgokat állítgatod, a másikon meg csak a cég belső dolgait, vagy ha több rendszergazda van csinálják külön.

Ez csak addig paranoia amíg nem üt be szar.

QEMU: Windows 7 guest samba share vs. host tűzfal

Fórumok

Sziasztok!

openSUSE Leap-et használok oprendszerként. Főleg a szkennerem miatt van szükségem a Windows 7-re, Virtualbox alatt futtatom. A 7-es verzió megjelenése után kezdett el vacakolni a Virtualbox, az update-ek után hol az USB, hol a mappa megosztás romlott el. Ekkor határoztam el, hogy megismerkedem a linuxos virtualizációval.

Átkonvertáltam QEMU-val a *vbox képfájlt *.qcow formátumba, és Virt-manager-el elkezdtem beállítani.

Mostanra minden működik ugyanúgy, mint a Virtualbox alatt, egy kis "szépséghibával".

A mappa megosztást sambával oldottam meg (a Virtio-s, spice-os nyalánkságok nem működtek, vagy nem voltak támogatottak). A megosztás viszont csak akkor működik, ha a hoston kikapcsolom a tűzfalat.

Próbáltam a neten javasolt portokat, protokollokat engedélyezni, sőt, próbaként az összes, előre definiáltat engedélyeztem a Yast tűzfal moduljával, de nem használt. Csak ha leállítom a tűzfalat, akkor látja a guest a linuxos megosztást.

Van valami ötletetek, hogy mit kellene beállítanom a tűzfalon, hogy működjön a megosztás?

Bocsánat, ha kicsit hosszúra nyúlt a mondókám :-)

SMB mount LXC konténerbe Proxmox

Fórumok

Olvasom már egy ideje a leírásokat és rengeteg infót és butaságot is találok a témában. Kérlek benneteket segítsetek megérteni a virtualizáció működését  a problémámon keresztül.

Adott otthon a Proxmox szerverem. Azon egy CT-ben OMV látja el a smb, illetve nfs megosztást. Engedélyeztem a vendég hozzáférést, szeretném Guestként elérni a megosztást konténerből. A problémám ott van, amikor LXC konténerből szeretném elérni a megosztást. Pl. egy nexcloudhoz, vagy egy jellyfin szerverhez. Első kérdésem: olvastam, hogy csak privileged containerben lehetséges a cifs mount. Miért? Miért nem működik unprivilegedben?

Már jó ideje próbálom értelmezni ezt a tutorialt, ami elméletileg megoldást nyújtana  a problémámra. Csakhogy sajnos nem egészen értem mindjárt az elején az UID/GID változtatásának szükségét. Mi is ez és miért kell állítani? Pontosabban ugye látom, hogy amikor kiadom a mount parancsot mindig valamilyen user nevében (root) akar kapcsolódni. De én azt szeretném, ha egyszerűen vendégként kapcsolódna. A másik gondom, hogy a host-on írja, hogy végezzek módosításokat. Nekem ugye eleve egy virtuális gép végzi a SMB/NFS megosztást és nem a host-on van telepítve a SMB szerver. A hostra persze felmountoltam a megosztást, de LXC aól nem érem el.

Ki, milyen megoldást alkalmaz? Mit tanácsoltok?

Nvidia (mellanox mlx5 io-srv)

Fórumok

Sziasztok!

 

Olyan embert keresek aki használ infiniband kártyát virtualizálva.

 

IO-SRV

 

Ott elekadok, hogy 00000 marad a gid és down marad az interface. A virtuális gépnek sikeresen odaadtam de értelemszerűen így nem tudja használni.

A swichben az opnsm résznél bekapcsoltam, hogy több lid-et használjon 1 port.

 

hca_id: mlx5_2
        transport:                      InfiniBand (0)
        fw_ver:                         20.32.1010
        node_guid:                      0000:0000:0000:0000
        sys_image_guid:                 88e9:a4ff:ff91:cc52
        vendor_id:                      0x02c9
        vendor_part_id:                 4124
        hw_ver:                         0x0
        board_id:                       HPE0000000036
        phys_port_cnt:                  1
                port:   1
                        state:                  PORT_DOWN (1)
                        max_mtu:                4096 (5)
                        active_mtu:             4096 (5)
                        sm_lid:                 1
                        port_lid:               65535
                        port_lmc:               0x00
                        link_layer:             InfiniBand
Előre is köszönöm

 

Gorgo

LXC bridge interface (VirtualBox Fedora)

Fórumok

Üdv,

Próbálom az LXC-hez a bridge interfészt létrehozni, beállítani (VirtualBox-ban). Az AI sem tudott eddig segíteni. :)
* Fizikai gép (laptop):

  • 192.168.1.103/24
  • átjáró: 192.168.1.254

* VirtualBox (mint hosztgép) Bridge-elt kártyával, Fedora Server:

  • enp0s3: 192.168.1.104/24
  • átjáró: 192.168.1.254
  • br0: 192.168.1.223/24
  • LXC konténer:
    • 192.168.1.225/24
    • átjáró: 192.168.1.254

 

# VBox Fedora Server mint hoszt gép ---------------------------------------------------
# br0 létrehozása:
sudo nmcli connection add type bridge con-name br0 ifname br0
sudo nmcli connection modify br0 ipv4.addresses 192.168.1.223/24 ipv4.method manual
sudo nmcli connection add type bridge-slave ifname enp0s3 master br0
sudo nmcli connection up enp0s3
sudo nmcli connection up br0

# install lxc
sudo dnf install -y lxc lxc-templates libvirt-daemon libvirt-daemon-driver-lxc bridge-utils

# ~# sysctl net.ipv4.ip_forward
# net.ipv4.ip_forward = 1


# ip a
2: enp0s3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc fq_codel state UP group default qlen 1000
    link/ether 08:00:27:86:56:b8 brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.104/24 brd 192.168.1.255 scope global noprefixroute enp0s3
       valid_lft forever preferred_lft forever
    inet6 2001:4c4d:1146:9500:64b:5d14:7ba7:e2f1/64 scope global dynamic noprefixroute 
       valid_lft 2966sec preferred_lft 2965sec
    inet6 fe80::7bfd:5f52:eb17:4f11/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever
3: br0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether fe:84:e8:cd:91:07 brd ff:ff:ff:ff:ff:ff
    inet 192.168.1.223/24 brd 192.168.1.255 scope global noprefixroute br0
       valid_lft forever preferred_lft forever
    inet6 2001:4c4d:1146:9500:795b:eb59:4c3a:c75d/64 scope global dynamic noprefixroute 
       valid_lft 1164sec preferred_lft 1164sec
    inet6 fe80::e70d:5754:b2a4:9f76/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever
4: vethBhlKp0@if2: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue master br0 state UP group default qlen 1000
    link/ether fe:84:e8:cd:91:07 brd ff:ff:ff:ff:ff:ff link-netnsid 0

# ip r
default via 192.168.1.254 dev enp0s3 proto static metric 100 
default via 192.168.1.254 dev br0 proto static metric 425 
192.168.1.0/24 dev enp0s3 proto kernel scope link src 192.168.1.104 metric 100 
192.168.1.0/24 dev br0 proto kernel scope link src 192.168.1.223 metric 425

# ------------------------------------------------------------------------------------
# LXC fedora konténer config:
# Distribution configuration
lxc.include = /usr/share/lxc/config/common.conf
lxc.arch = x86_64
# Container specific configuration
lxc.rootfs.path = dir:/var/lib/lxc/fedora/rootfs
lxc.uts.name = fedora
# Network configuration
lxc.net.0.type = veth
lxc.net.0.link = br0
lxc.net.0.flags = up
lxc.net.0.ipv4.address = 192.168.1.225/24
lxc.net.0.ipv4.gateway = 192.168.1.254
lxc.net.0.hwaddr = 00:16:3e:5c:31:f8

# ip a
2: eth0@if4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 00:16:3e:5c:31:f8 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 192.168.1.225/24 brd 0.0.0.255 scope global eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::216:3eff:fe5c:31f8/64 scope link proto kernel_ll 
       valid_lft forever preferred_lft forever

# ip r
default via 192.168.1.254 dev eth0 
192.168.1.0/24 dev eth0 proto kernel scope link src 192.168.1.225

 

A konténer nem lát ki:

~# ping 192.168.1.254
PING 192.168.1.254 (192.168.1.254) 56(84) bytes of data.
From 192.168.1.225 icmp_seq=1 Destination Host Unreachable

Mit rontok el?

Virtualizált fizikai gép HW kulcs támogatással

Fórumok

Sziasztok!

Szeretnénk ősrégi Windows (XP, Windows 7 stb) desktop gépeket virtualizálni. A megoldandó feladat, hogy a Windows host desktop gépre csatlakoztatott hardver kulcsokat (USB/soros port) és vezérlő csatlakozókat (soros port) elérje és tudjon vele kommunikálni.

A kérdésem, hogy aki birkózott már ilyennel, az milyen megoldást választott?
(A "miért használtok még ilyen gépeket?" kérdéseket kérlek ne tegyetek fel)

Köszi

Szilárd

ESX / VMFS törölhetetlen file

Fórumok

Sziasztok,

Adott egy ESX 6.7 host ami iSCSI -n csatlakozik egy NAS -hoz, ezen a VMFS "storage" -on vannak a VM -ek, az egyik VM torolve lett, de maradt utana egy xy_1-flat.vmdk file, amit nem lehet torolni, sokmindent probaltam mar, shellbol rm -f stb...ez meg annyira nem is zavarna, ha a file nem 1,5TB -ot foglalna...sajnos a torolt elem egy file szerver volt, ezert a nagy meret...a file -t nem lockolja semmi, az ESX hoszt es a NAS is ujra lett mar inditva.

 

Esetleg valaki talalkozott mar ilyennel? Ha igen, hogyan oldotta meg? Neten sokmindent talaltam, de egyelore egyik megoldas sem jott be... :(

ilyeneket kapok:

rm -f  /vmfs/volumes/DataStore/xy_1.vmdk 
rm: can't remove '/vmfs/volumes/DataStore/xy_1.vmdk': Invalid argument

vmkernel.log

[type 1] clusterNum: 3755 invalid inUseResources: 512 rcMeta inUseResources: 5082025-02-04T21:26:35.987Z cpu13:2113214)WARNING: FS3J: 3132: 'DataStore': Aborting txn (0x430c122762f0) callerID: 0xc1d0000c due to inconsistent txn resources: Invalid metadata
[type 1] clusterNum: 3755 invalid inUseResources: 512 rcMeta inUseResources: 5082025-02-04T21:26:36.030Z cpu13:2113214)WARNING: FS3J: 3132: 'DataStore': Aborting txn (0x430c122762f0) callerID: 0xc1d0000c due to inconsistent txn resources: Invalid metadata
 

Koszi!