Virtualizáció

Proxmox lxc konténer hálózat beállítás

Fórumok

Tovább kalandozok virtualizációs technikákban és természetesen a Proxmox sem maradhat ki a virtualmin után. Ez is nested, mint az előző. Szóval virtualboxban bridged network, proxmox szerver telepítve. Elérem ssh-n és webes felületen is.

Itt vannak a vonatkozó hálózati adatai a proxmox szervernek:

root@pve:~# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: enp0s3: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast master vmbr0 state UP group default qlen 1000
    link/ether 08:00:27:23:7f:eb brd ff:ff:ff:ff:ff:ff
3: vmbr0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 08:00:27:23:7f:eb brd ff:ff:ff:ff:ff:ff
    inet 192.168.5.199/24 scope global vmbr0
       valid_lft forever preferred_lft forever
    inet6 fe80::a00:27ff:fe23:7feb/64 scope link 
       valid_lft forever preferred_lft forever
root@pve:~# route -n
Kernel IP routing table
Destination     Gateway         Genmask         Flags Metric Ref    Use Iface
0.0.0.0         192.168.5.1     0.0.0.0         UG    0      0        0 vmbr0
192.168.5.0     0.0.0.0         255.255.255.0   U     0      0        0 vmbr0
 

És a benne futtatott lxc konténer adatai:

root@CT100:~# ip addr
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: enp0s3@if4: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state UP group default qlen 1000
    link/ether 1e:2d:96:7f:03:50 brd ff:ff:ff:ff:ff:ff link-netnsid 0
    inet 192.168.5.198/24 brd 192.168.5.255 scope global enp0s3
       valid_lft forever preferred_lft forever
    inet6 fe80::1c2d:96ff:fe7f:350/64 scope link 
       valid_lft forever preferred_lft forever

és a conf állomány:

root@pve:~# cat /etc/pve/lxc/100.conf 
arch: amd64
cores: 1
features: nesting=1
hostname: CT100
memory: 512
nameserver: 8.8.8.8
net0: name=enp0s3,bridge=vmbr0,firewall=1,gw=192.168.5.1,hwaddr=1E:2D:96:7F:03:50,ip=192.168.5.198/24,ip6=dhcp,type=veth
ostype: ubuntu
rootfs: local-lvm:vm-100-disk-0,size=8G
swap: 512
unprivileged: 1
 

Az lxc konténerben nincs net. Tudom pingelni a 192.168.5.199-et és a 192.168.5.198-at, de a 192.168.5.1-et már nem. Mit nézek el?

Virtualizáció virtuális gépben

Fórumok

Szeretnék egy kicsit ismerkedni a virtualizálással. A tanulást egy virtualboxban telepített ubuntu rendszeren képzeltem el. Amit eddig tettem. Telepítettem az ubuntut, beállítottam a network bridge kapcsolatot. A gazda gépről ssh-n elérem a virtuális gépet, természetesen tudom pingelni is és ha telepítettem volna rá kiszolgálót, azt is elérném. Itt jön a csavar.

Szeretnék a virtuális gépen virtualizálni. Konkrétabban: telepítettem rá egy webmin, virtalmin, cloudmin szentháromságot, hogy grafikus felületen tudjam menedzselni a virtuális gépeimet. A kiszolgáló fut és ip alapján el is érem. De a Fully qualified domain name (ami az example.com) alapján persze már nem érem el sem a virtuális gépen, sem a gazda gépen. Gondolom valamilyen ddns szolgáltatásra lenne szükségem hozzá. Érdekesebb, hogy a gazda gépről sem érem el ip alapján. A böngészőben az

Error — Document follows

This web server is running in SSL mode. Try the URL https://example.com:10000/ instead.

üzenet fogad. Ennek mi lehet az oka?

További terveim. A virtuális gépen lévő ubuntu-n docker és lxd konténerek futtatása. Szeretném ezeket is elérhetővé tenni ezeket is a gazda gép számára. Hogyan kell beállítanom ehhez a virtalmin/cloudmin-ben a bridge kapcsolatot? Milyen egyéb tanácsokat adnátok még a tanuláshoz?

ESXi cluster

Fórumok

Sziasztok!

Szeretnék 2 szerverből egy esxi cluster-t csinálni. Minden adott hozzá ami kellene viszont a logikai/szoftveres megvalósításánál előjöttek bennem kérdések amik a következőek:

DRS-re nincs szükség.
A hostokat hívjuk H1 és H2-nek.

1. Ha "elkészül" a cluster akkor a H1-en lévő virtuális gépek le fognak állni vagy be tudja pakolni a két hostot úgy egy clusterba hogy a H1-en lévő VM-ek működnek tovább?
2. első körben szükség lenne egy kis shared storage beállítására is 1-1 ssd-re. Ezek az ssd-k fizikailag benne vannak a hostokba, nem fogja a vSan igényelni 3-4 host meglétét a vSan-hoz? (Ezt azt hiszem ki lehet írtani belőle?!) Illetve milyen egyéb tudnivaló van?
3. A terv az lenne, hogy bizonyos VM-ek ha meghal az egyik host akkor induljon újra a másikon természetesen a lehető legutolsó állapotban. Ehhez pontosan a vMotion és a HA elég lesz?

Egyéb ötleteket meghallgatok! :)

Köszönöm

QEMU noVNC billentyűkiosztás hiba

Fórumok

Proxmox-al vitrualizált gépeim vannak. Ezeken előjött egy olyan hiba (több host-on), hogy a billentyűzetkiosztás összekavarodott. Olyan mintha az angol és a magyar kiosztás keveréke lenne. Pl. Z-Y cseréje, de mégis van ékezetes karakterem, de nem mind, vagy esetleg nincs shift+6-al "/" jelem.

Nem volt gond addig, amíg a rackforestnél lévő VPS konzolján előjött a probléma. Ott van lehetőség a billentyű kiosztás állítására, azt próbálgattuk, lehet akkor gabalyodott össze valami.
Csak egy böngészőből van ez a jelenség, a minden nap használt chrome-ból. Chromium azonos gépen, vagy másik gépen más böngészővel jó minen.

A fő kérdés az lenne, hogy merre tárolódik valami beállítás ami benne van a Chrome-ban? Hogyan tudom kiszedni, lehetőleg úgy, hogy nem szeretném elveszteni a többi beállításomat?

Cookie törlése az adott host-ra nem segít.

[Megoldva] ubuntu 21.04 lts + wireguard + PROXMOX

Fórumok

Sziasztok!

Az egyik itthoni vps szolgaltatnal probalgatom a wireguard vpn-t. A felallas: 1db pfsense-server, es ehhez kapcsolodnak a kliensek.

- Windows 10 kliens --> OK (otthoni pc)

- ubuntu 21.04lts kliens otthoni laptop --> OK

 

De!

Errol a vps-rol, (LXC) ami alatt proxmox van, onnan nem igazan akar mukodni a dolog. Maga a wg fel van telepitve(apt-get install wireguard), config file a helyen(etc/wireguard/wg0.conf), es megfelelo. Ahogy felcsatolnam az interface-t, ez fogad:

~# wg-quick up wg0
[#] ip link add wg0 type wireguard
Error: Unknown device type.
Unable to access interface: Protocol not supported
[#] ip link delete dev wg0
Cannot find device "wg0"

 

Namost:

Vannak forumok, ahol megoldast jelent, ha ujra telepitem a linux header-t. Ez jelenleg, mindenfele maceralas nelkul igy nez ki:

#uname -r
5.4.78-2-pve

Ha lefuttatom a modprobe-t, hogy mit tudunk a wg-rol, akkor ez fogad:

modprobe wireguard
modprobe: FATAL: Module wireguard not found in directory /lib/modules/5.4.78-2-pve
 

Itt gondolom azert kinlodik, mert eleve nem talalja a wg moduljat. Jelzem, a laptop-on levo ubuntu alatt ugyan ez a parancs a kivant eredmenyt hozza. Ennek a /lib/modules mappanak a tartalma:

#ls
5.11.0-34-generic  5.4.78-2-pve

Itt szeretném megkérdezni, hogy most akkor eleve miert van itt ebbol ketto? At kellene valahogy allnom a "generic"-es header-re, mert esetleg abban van amit keres? uname-r parancsra ennek a generic-nek nem kellene automatikusan feljonnie?

amennyiben szeretnem ujra telepiteni a header-t:

#apt-cache search linux-headers

Itt nincs is talalat erre a "pve" header-re... - miert?

 

Es akkor a kerdesem:

Hogyan tudom megoldani a felmerult problemat, miszerint maga a wg mint "szolgaltatas" sem tud eleve elindulni.

 

Koszonom!
 

Docker hub nagyon belassul

Fórumok

Pár napja volt egy olyan tapasztalatom (már nem először), hogy a docker hubra frissen feltöltött image csak rém lassan töltődik le docker pull hatására.

Más is járt már így? Mi lehet ennek az oka? Több (egymástól távoli) gépre történő docker pull is ugyanazt mutatta: csak a legutolsó layerrel küzdött, 40-50 percig.

e249e58386a8: Downloading [=============>                                     ]  83.73MB/303.3MB

Mit lehetne tenni annak érdekében, hogy máskor ez ne így legyen? (Próbáltam elérni a docker céget, csak telefonszám volt – persze üzenetrögzítőre kapcsolt csak.)

qemu disk error virtualizáció

Fórumok

Nemrég olvastam, hogy valahogy lehet hibát szimulálni qemu virtuális meghajtókon, de sehogy sem találom most. Teszteléshez nagyon hasznos lenne. Menet közbeni lemezmeghibásodást tesztelnék vele. Tudtok erről valamit?

Jó lenne valahogy a hot-swap funkciót is tesztelni, hogy hogyan viselkedik a rendszer, ha kiveszek egy meghajtót, és egy másikat teszek a helyére menet közben. Erről tudtok? Lehet egyáltalán ilyet?

VHDX-ből virtuális gép Linuxon?

Fórumok

Sziasztok !

Érdeklődnék a témában jártas kollégáktól, hogy van-e erre megoldás? Kaptam egy vhdx-et, ami egy Windows 10-es gépről készült.

Szeretném ezt a Win10-et egy linuxos gépen futtatni virtuális gépként. Van-e olyan Linuxon futó alkalmazás, ami "eszi" ezt a formátumot? Ha nincs, van-e olyan Linuxon futó konvertáló, amelyik VirtualBox vagy VmWare Player formátumra képes konvertálni a vhdx-et?

Köszi!