Virtualizáció

Docker konténer export

Fórumok

Docker compose és yml fájl segítségével építettem egy wordpress site-ot konténerben. Kérdésem: hogyan lehet exportálni/importálni az egészet.

docker ps idevágó része:

8f1315921f28   wordpress:latest       "docker-entrypoint.s…"   3 months ago   Up 2 minutes              0.0.0.0:8000->80/tcp, :::8000->80/tcp   wordpress_wordpress_1
48658d26932a   mysql:5.7              "docker-entrypoint.s…"   3 months ago   Up 2 minutes              3306/tcp, 33060/tcp                     wordpress_db_1
 

Igazából megosztanám valakivel és nem tudom, milyen módon lehet ez?

Köszönöm!

ESXi :: snapshotok törlése után is megmaradtak a vmdk-k

Fórumok

# ESXi version: 7.0.3 (ingyenes)
# Storage Type: VMFS6
# VM file system: ext4, Debian

Probléma: snapshotok törlése után is megmaradtak a vmdk-k,
...-000001.vmdk => ...-000010.vmdk, amik foglalják a tárhelyet.

VM vmdk-t rendben látom ...-host1.vmdk.

Kérdésem, VM leállítása után törölhetem a webes felületen
a snapshot vmdk-kat (...-000001.vmdk => ...-000010.vmdk)?
VM-nek ez nem tesz rosszat?

Előre is köszi minden tanácsot. :-]

Dell T340 - Proxmox (kérdések)

Fórumok

Sziasztok!

Adott egy DELL PowerEdge T340 szerver:

  • Intel Xeon E-2226G CPU @ 3.40GHz
  • 32GB RAM (2 x 16GB)
  • PERC H730P
    • 1 x SSD 480GB (SSDSC2KB480G8R, Intel SSD D3-S4510 Series)
    • 4 x HDD 2TB (SAS 12 Gbps, Model: Dell MG04SCA20ENY /"Toshiba"/)

A szerverre Proxmox lesz telepítve (99%). A Proxmoxon néhány virtuális gép fog futni (főként Debian). A VM-eket fokozatosan tervezem rajta "beüzemelni", ameddig észerűen terhelhető.

1. terv:

Az első terv az volt, hogy a Proxmoxot a 480GB-os SSD-re telepítem, a VM-eket pedig a 4 db HDD-re (2-2 HDD HW RAID1-ben /esetleg mdadm RAID-1/). De ezt a verziót elvetettem, mert nem akarom magamat megszívatni azzal, hogy ha tönkremegy az SSD, akkor nem indul a rendszer.

Kérdés (naiv) 0.: Szerintetek is rossz ötlet ezen terv szerint a Proxmoxot az SSD-re telepíteni?

2. terv:

Az újabb terv szerint: SSD Non-RAID, 2-2 HDD HW RAID-1. A létrehozott egyik RAID-1 tömbre telepítem a Proxmoxot, és a Non-RAID SSD-t illetve a 2. RAID-1 tömböt beállítom a Proxmoxon újabb Storage-ként.

Amit már megcsináltam: Az SSD-t Non-RAID-re állítottam, és 2-2 HDD-re bekonfiguráltam HW RAID1-et (de a Proxmoxot még nem telepítettem).

Kérdések a RAID-el kapcsolatban:

1. HW RAID1 estén megfelelőek / optimálisak a következő beállítások a Virtual Disk létrehozásakor?

  • Stripe Size: 64KB
  • Read Policy: Read Ahead
  • Write Policy: Write Back
  • Force WB with no battery: <nincs bepipálva>
  • Configure Hot Spare: <nincs bepipálva>

(Ha ezek a beállítások nem optimálisak, akkor még tudom törölni és újra létre tudom hozni a RAID-1 Virtual Disk-eket.)

További kérdések:

2. A Proxmox telepítő fogja látni a 0. VD-t (RAID-1 tömböt)? (Igaz ez holnap kiderül, ha megpróbálom telepíteni a Proxmoxot :-) Megválaszolva: Igen, látja.

3. Jól tudom, hogy a Proxmox telepítő - alap telepítés esetén - max 100GB-os root partíciót hoz létre? A többi fennmaradó hely pedig a data (LVM-Thin) része lesz? Megválaszolva: Igen a root partíció ~100GB.

4. A telepített Proxmox fogja látni az (Non-RAID) SSD-t? (Igaz ez holnap kiderül, ha sikerült telepíteni a Proxmoxot :-) Megválaszolva: Igen, látja.

 

Bármilyen építő jellegű javaslatot, ötlete szívesen fogadok.

A telepítendő VM-ekkel kapcsolatban is van egy-két kérdésem, de azokat egy következő bejegyzésben teszem fel.

oVirt + glusterfs

Fórumok

Sziasztok!

 

Distributed volume-val használ itt valaki fenti párost?

gfid-s problémák vannak másolásnál, találkozott már ilyennel esetleg?

Milyen beállításokkal megy a distributed volume?

 

ovirt 4.5.0-3.el8

glusterfs-server 10.2-1.el8s

Ajánljatok bármit Kubernetes témában

Fórumok

Ismerkedek a Kubernetes-szel. Nagyon tetszik, lenyűgöz, szeretem...

Mielőtt elkezdenék munkát keresni ezen a területen, jó lenne ha legalább alapvető ismeretekkel rendelkeznék, működésben képben lennék.

Kérlek ajánljatok tutorial-t, videót, bármit ami segít megismerni! Elképesztő mennyiségű anyag érhető el, kezdőként nehéz eldönteni, mi jelent valódi értéket.

Milyen eszközökkel érdemes ismerkedni, kipróbálni vagy legalább tudni, hogy mire való?
Pl. ez a válogatott lista is eléggé terjedelmesnek tűnik nekem:
https://collabnix.github.io/kubetools/
Jó lenne tudni melyik az ígéretesebb, hasznosabb.

Érdemes specializálódni? Pl. vonz a monitorozás, optimalizálás. Szeretem nyomozni mi falja fel a memóriát vagy használja túlzottan a procit, azonosítani a lassító okot, megoldást találni.
Megnyugtató lenne tudni, hogy van erre igény és ez esetben több időt szánnék Prometheus, Jaeger, Kiali és hasonló eszközökre.

Proxmox - IP-cím, Certificate csere - [Megoldva]

Fórumok

Telepítettem a Proxmox-ot az egyik szerverünkre, de nem a belső hálózatunkba tettem, hanem ideiglenes jelleggel egy másik "Privát VLAN-ba".
Azonban most szeretném átrakni a szervert a belső hálózatunkba, ahol másik IP-címet szeretnék adni a szervernek.

Hogyan oldható meg, hogy a Proxmox telepítése során automatikusan létrehozott tanúsítványban lecseréljem az IP-címet (ha jól tudom ilyet nem lehet csinálni), vagy egy teljesen új tanúsítványt generáljon a Proxmox az IP-cím csere után (FQDN nem változik)?

Az alábbi oldalt találtam: https://pve.proxmox.com/wiki/Certificate_Management
Itt nem írnak túl sok mindent, de azt írják, hogy:
"Certificates are managed with the Proxmox VE Node management command (see the pvenode(1) manpage)."
továbbá:
"Do not replace or manually modify the automatically generated node certificate files in /etc/pve/local/pve-ssl.pem and /etc/pve/local/pve-ssl.key or the cluster CA files in /etc/pve/pve-root-ca.pem and /etc/pve/priv/pve-root-ca.key."

Nézegetem a pvenode leírását, de nem tudom, hogyan kellene felparamétereznem, hogy új tanúsítvány generálódjon (az új emailcímmel):
https://pve.proxmox.com/pve-docs/pvenode.1.html

A `pvenode config get` parancs kimenete üres, de a `pvenode cert info` parancs kiírja a tanúsítvány adatait.

Több oldalon is a `pvecm updatecerts --force` parancs futtatását javasolták. Viszont a pvecm == Proxmox VE Cluster Manager, de nálam nincs Cluster, ezért pl a `pvecm nodes` és a `pvecm status` parancsok is csak hibaüzenetet adnak vissza (a `pvecm updatecerts --force` parancsot még nem próbáltam futtatni).
 

Proxmox - BIOS energiagazdálkodási beállítások (stb.)

Fórumok

A kérdésem a Proxmox szerver lefagy! fórumban leírtak alapján vetődött fel, konkrétan ez a hozzászólás, ami miatt kérdezek.

Egy Dell T40-es szerveren fogok (tervezek) futtatni Proxmox alatt két VM-et (OPNSense, Debian 11). Az alábbi BIOS beállításokat a Proxmox megfelelően fogja kezelni?

  • Intel Software Guard Extensions > Intel SGX Enable: Enabled
  • Intel Software Guard Extensions > Enclave Memory Size: 128MB
  • Performance > Intel SpeedStep > Enable Intel SpeedStep: ✔
  • Performance > C-Statas Controll > C states: ✔
  • Performance > Intel TurboBoost > Enable Intel TurboBoost: ✔
  • Power Management > Enable Intel Speed Shift Technology > Enable Intel Speed Shift Technology: ✔

Egy Dell T40-es szerver tápegység ventilátorának kell-e forognia, ha csak a BIOS-ban matatok (OS egyelőre még nincs rajta)?

Proxmox szerver lefagy!

Fórumok

Sziasztok!

Az egyik P93 szerver, amelyet a Hetznertől bérelek, random lefagy.

Software:
A legfrissebb Proxmox VE 7.2-4 (kernel: 5.15.35-2-pve) fut rajta, az alatt pedig 13 virtuális gép.

Hardware:
Intel® Xeon® W-2295 18-Core CPU
256 GB (8 x 32 GB DDR4 ECC) RAM,
2 x 3.84 TB NVMe SSD Datacenter Edition -> rendszer és VM-ek, ZFS + compression,
2 x 16 TB SATA Enterprise HDD -> backup, ZFS + dedup (szerk.: azóta kikapcsolva) + compression,
Hardware RAID nincs

Amit eddig tettem a megoldás érdekében:
Kicseréltettem a RAM-okat, a tápegységet, majd az egész szervert,
kikapcsoltam a NUMA-t, az SSD emulation-t (bár ez tudtommal semmit nem csinál) és az IO thread-et is minden VM-nél,
22 CPU mag és 144 GB RAM van most kiosztva a VM-eknek (3 CPU és 32 GB RAM a legtöbb 1 VM esetén)

A "tünetek":
Ha ssh-n bejelentkezve ér a fagyás, akkor a konzolon hasonló üzenetek kezdenek ömleni:
 

Message from syslogd@Server at Jun 12 11:19:57 ...
 kernel:[101078.245390] NMI watchdog: Watchdog detected hard LOCKUP on cpu 26

Message from syslogd@Server at Jun 12 11:19:57 ...
 kernel:[101080.968427] NMI watchdog: Watchdog detected hard LOCKUP on cpu 0

Message from syslogd@Server at Jun 12 11:19:57 ...
 kernel:[101085.584163] watchdog: BUG: soft lockup - CPU#1 stuck for 23s! [kvm:497638]

Message from syslogd@Server at Jun 12 11:19:57 ...
 kernel:[101085.588163] watchdog: BUG: soft lockup - CPU#2 stuck for 26s! [kvm:995268]

Message from syslogd@Server at Jun 12 11:20:09 ...
 kernel:[101097.612269] watchdog: BUG: soft lockup - CPU#14 stuck for 22s! [kworker/14:2:1965617]

Message from syslogd@Server at Jun 12 11:20:25 ...
 kernel:[101104.376759] NMI watchdog: Watchdog detected hard LOCKUP on cpu 28

Message from syslogd@Server at Jun 12 11:20:25 ...
 kernel:[101112.091159] NMI watchdog: Watchdog detected hard LOCKUP on cpu 5

Message from syslogd@Server at Jun 12 11:20:25 ...
 kernel:[101112.599352] NMI watchdog: Watchdog detected hard LOCKUP on cpu 31

Message from syslogd@Server at Jun 12 11:20:25 ...
 kernel:[101113.588410] watchdog: BUG: soft lockup - CPU#2 stuck for 52s! [kvm:995268]

Message from syslogd@Server at Jun 12 11:20:25 ...
 kernel:[101113.600410] watchdog: BUG: soft lockup - CPU#9 stuck for 22s! [atop:1970572]

Message from syslogd@Server at Jun 12 11:20:29 ...
 kernel:[101114.959585] NMI watchdog: Watchdog detected hard LOCKUP on cpu 1

Message from syslogd@Server at Jun 12 11:20:29 ...
 kernel:[101117.592445] watchdog: BUG: soft lockup - CPU#4 stuck for 23s! [kvm:835684]

Message from syslogd@Server at Jun 12 11:20:33 ...
 kernel:[101121.628481] watchdog: BUG: soft lockup - CPU#24 stuck for 22s! [kworker/24:2:374]

Message from syslogd@Server at Jun 12 11:20:37 ...
 kernel:[101125.612516] watchdog: BUG: soft lockup - CPU#14 stuck for 48s! [kworker/14:2:1965617]

A VM-ek elérhetetlenekké válnak, a Proxmox WEB UI elkezd "homokozni". A Hetzner felületén indított hardware reset után a gép újra megy.
Van, hogy naponta háromszor fagy le, van hogy megy 8 napig is.

A syslogban nincs semmi furcsa a lefagyás előtt.

Kérlek, segítsetek megtalálni és megszüntetni a lefagyások okát.

[Megoldva] Hyper-V host :: Disk(s) encountered critical IO errors

Fórumok

# Fizikai Win Srv 2016 Std: Hyper-V Manager 10.0.14393.0
=> VM: Win Srv 2016 Std (AD)

# Előzmények
- fizikai szerver újraindítása után nem indult el automatikusan, hanem saved allapotba került
- elindítottam és jó lett
- kevés volt a hely, töröltem 300GB-ot
- uninstallálni akartam egy programot, utána lefagyott

# VM hiba: 
- Disk(s) encountered critical IO errors
- State: Paused-Critical
- bootoláskor: "Press any key to boot from CD or DVD ..." (itt nem reagál semmire)
- VM Connection: The application encountered an error while attempting to change state of 'VM'
Virtual hard disk has not yet recovered from previous error. Current status: 1.

# Kérdésem:
State: Paused-Critical: kevés lehet a tárhely?

Minden ötletet örömmel fogadok, előre is köszi.
Hyper-V guruk, légyszi, írjatok nyugadtan privátban is, köszi.

[Update1] VM ment 30 percet, lefagyott. Újraindítottam elindul, de "Disk(s) encountered critical IO errors"-t mutat és lefagy.
[Update2] 40GB felesleges ERP mentés törlése
[Update2] snapshot point törlése, jelenleg minden ok :-] Halleluja.

Brrr, ilyet még nem láttam.