Virtualizáció

Linux bridge network interface (LXC, KVM)

 ( makgab | 2017. november 17., péntek - 22:33 )

Üdv!
Ha bridge interface-eket szeretnék a virtuális gépeknek, akkor pontosan mit kellene beállítanom?
(Környezet: Fedora, CentOS)

Tehát:
A hoszton pl. ez alapján:
https://serverfault.com/questions/612021/lxc-container-networking


#> cat /etc/sysconfig/network-scripts/ifcfg-br0
DEVICE=br0
TYPE=Bridge
BOOTPROTO=dhcp
ONBOOT=yes

#> cat /etc/sysconfig/network-scripts/ifcfg-eth0
DEVICE=eth0
ONBOOT=yes
TYPE=Ethernet
IPV6INIT=no
USERCTL=no
BRIDGE=br0

Próbáltam, hogy a bridge-nek adtam Fix IP címet.
Az LXC konténernek adtam:

LXC + virt-manager (Fedora)

 ( makgab | 2017. november 14., kedd - 21:15 )

Üdv!
Az LXC-t szeretném virt-manager-ben láthatóvá tenni. A KVM vm-ek szépen látszódnak a virt-managerben.
Mi kell, hogy a létező konténerek látszódjanak?

Új LXC kapcsolat létrehozva (localhost). Az "lxc" "lxc-net" service fut.
Mit kellene még beállítani?

"Alkalmazás tároló" és "operációs rendszer tároló" lehetőségek vannak az LXC kapcsolaton belül.

(Gondolom ezért nem látszódik a cockpit-ban sem)

xen guest alatt diszk növelés

 ( lajos22 | 2017. november 14., kedd - 12:35 )

Hell, belefutottam a következő parába. Van egy xen virtualizációm, alá tettem 2x1TB diszket, 1.8TB lett a virtualizált rendszerben a hasznosítható tár.
Most ez kevés lett, hozzáfűztem még 1TB-ot, így azt látja, hogy a xvdc lemez 2.73TB. A rajta lévő ext4 azomban nem növelhető, csak 2TB-ra. Ha új fs-t akarok a diszkre tenni, az is csak 184GB-os lehet.

Az felállás úgy néz ki, hogy lvm 2 diszkkel, (hardveres raid tükör diszkenként) az van a hoston. A xen vendégnek diszkként. Ezt lvextend-del növeltem az új diszkkel.

Cockpit project - VM (Fedora Server)

 ( makgab | 2017. november 12., vasárnap - 17:11 )

Üdv!
Már korábban is nézegettem ezt a projektet. Egész jónak tűnik.
A virtuális gép kezelője nem tudom pontosan hogyan működne. Elvileg azt kezeli (a doksi szerint), amit a virtmanager (lxc, kvm...).
Ennyit látni csak a "Virtual Machines" menüre kattintva: "no vm is running or defined on this host"

A "VM létrehozás" gomb nem jelenik. Elvileg innen is kellene engednie létrehozni a VM-eket.
Használta már valaki ezt a webes felületet VM-re?

(A libvirtd fut.)

VMware Player 14.0.0 bugos?

 ( makgab | 2017. november 11., szombat - 21:39 )

Üdv!
Egy korábbi témához kapcsolódoan.
A Player 14.0.0 verzió egy kicsit bugos(?).
Nálam szinte mindig egy VM indításakor azt írja, hogy kevés a fizikai memória. :) (8GB RAM Fedora 26 x64)
Újraindítom a gépet, akkor oké.

Nálatok is hasonlóan viselkedik?

XenServer 7.2 Debian7 kicsi fájlok másolása gyalázatos I/O

 ( muszashi | 2017. november 8., szerda - 20:15 )

Találkozott valaki hasonlóval?

Vadi új szerver, Xeon, HW RAID SATA vezérlő Write Back, Raid1-ben két winyó +spare

Xen alatt Debian 7, ha apró fájlokat másolok (pl usr könyvtárat cakk-pakk) akkor max 1 MB/sec a sebesség, néha kevesebb. Ha nagyobb fájlokat mozgatok (csináltam pl egy 3 GB-os állományt) akkor 199 MB/sec fölött van a sebesség.
Oké, hogy apró fájlok lassabban mennek, de ez gyalázat.

VMware Player NAT vs LAN Segment

 ( makgab | 2017. november 6., hétfő - 19:26 )

Üdv!
Virtuális teszt környezet kialakításához szeretném elérni, hogy a virtuális gépek egy virtuális hálózatban legyenek.
Itt lenne egy szerver fix IP címmel és munkaállomások (pl. WinX+dhcp kliens).
A VM-ek NAT hálózati beállításokkal szépen kilátnak a netre is (a vmware NAT gateway IP-t kézzel is szépen be lehet állítani, pl. 192.168.189.2).

Debian Stretch-en Xen 4.8 konzol nélkül

 ( pista_ | 2017. október 31., kedd - 16:52 )

Hi!

Debian Stretch-re csomagból feltettem a Xen 4.8-at, majd Xen-t bootolva a következőt kapom:

=====================
Xen 4.8-amd64 betöltése...
FIGYELEM: nem lesz elérhető konzol az OS-hez
Linux 4.9.0-4-amd64 betöltése...
Kiinduló ramdisk betöltése...
=====================

Aztán itt vége is. Valóban semmi nincs, még a billentyűzeten a NumLock-ot is hiába kapcsolgatom.... Egy Dell PowerEdge 530-as masinán produkálja mindezt.

Esetleg valakinek ötlete?

Előre is köszönöm!

Furcsak web gui elérési hiba Virtualbox környezetben

 ( zz7 | 2017. október 23., hétfő - 6:26 )

Van egy problémám amit nem értek.
Linux Mint gazda alatt aktuális legfrissebb Virtualbox-ban virtuális hálózatokat tesztelek.
Beállítva NAT hálózat.
NAT hálózat elején vagy OpenWRT x86-os vagy pfSense router.
NAT hálózaton belül Linux Mint 18.02, Ubuntu 17.10 Desktop, Windows 10, FreeNAS.

Virtualbox 64bites host, 64bites guest Intel Pentium T4300 procival

 ( bozsokiandras | 2017. október 8., vasárnap - 19:30 )

Ubuntu 16.04 64bit alatt szeretnék Virtualboxban 64 bites Windows 7-et futtatni. A gép kész 64 bites gépet átmásolva, nem indul el, illetve új gépet sem lehet létrehozni csak 32 bitest.
Fórumokat böngészve az derült ki, hogy az Intel féle virtualizációs technológiát nem támogatja a processzor ezért nem lehet 64 bites guest oprendszert futtatni.
Létezik más megoldás vagy teljesen felejtős a 64 bites Windows?

nyomtatás DOS programból, virtuális gépben futtatva

 ( linuxman | 2017. október 8., vasárnap - 13:32 )

Van/volt egy régebb óta működő könyvelő program különálló gépen DOS-on működtetve.
A számítógép meghalt, kiderült, a hdd is tele van hibákkal, de még működött,
a könyvelő már nyugdíjas, új programba, hardverre már nem akarna nagyon beruházni.

Van egy másik windowsos gépe, amit internetezésre használt,
ezen szerettem volna egy virtuális gépbe átmásolni,
de elakadtam, nem lehet nyomtatót, lpt1-et beállítani a VirtualBox-ban.

LXC konténerben not found in path

 ( makgab | 2017. október 4., szerda - 20:08 )

Hi!

Fedora 26 (x64) alatt LXC-t próbálom. Működik is.
Feltettem egy debian és egy ubuntu konténert, de a konténerben nem lehet telepíteni csomagokat, mert alap parancsokra "not found in path" ír. Neten olvastam, hogy --clear-env paraméter segít:

lxc-attach -n ubuntu-1 --clear-env

Ezzel jó, csak bizonyos környezeti változók nem mennek, pl. mc nem indul (TERM változó probléma). :)
CentOS konténerben nincs ilyen gond.

Ez gondolom a hoszt és guest különbözősége miatt van. Vagy nem?

Van erre megoldás, beállítási lehetőség?

Linux softraid+LVM fizikai költöztetés Citrix Xenserver vagy vmware alá

 ( muszashi | 2017. október 3., kedd - 18:56 )

Sziasztok!

Többféle Windowst már költöztettem Xen és Vmware alá, Linuxot is telepítettem újonnan mindkét rendszerbe.

Windows Server 2012 R2 Xen-ből KVM-be

 ( csardij | 2017. október 1., vasárnap - 14:31 )

Helló,

Egy Windows Server 2012 R2-t szeretnék (próbálok...) átrakni KVM-re. Azonban többféle leírást végigpróbáltam, mindenféle hw kombinációba, de nem bootol be egyszerűen KVM-en.

Próbáltam ezt a mergeide.reg-es cuccot, az itt lévő leírást is: https://platform9.com/support/migrate-a-windows-vm-from-vsphere-to-kvm/ meg egy csomó mást, de semmi eredmény. A legjobb helyzetbe annyi van, hogy a recovery menü be is jön, de ott meg a rendszergazda fiókba kéne belépni, amire nem fogadja el a jelszót (azt mondja, hogy nem jó, ami tuti nem igaz).

LXC hálózati probléma

 ( ghostdog4ever | 2017. szeptember 30., szombat - 22:02 )

Üdv!
Hátha valaki tud segíteni.
A problémám a következő lenne adva van LXC-ben egy ubuntu 14.04 konténer.
A konténer config file-át úgy állítottam be hogy fix ip címe legyen. A probléma az hogy ennek ellenére dhcp+vel kap még egy plussz ip címet a routetől.
Már próbáltam hogy csak a konténeren belül szerkesztem az interfaces filet és ott adok neki fix ip címet, de akkor a névfeloldás nem működik, igaz ekkor egy ip címe van a konténernek.

Proxmox mint ceph storage

 ( dzsambo | 2017. szeptember 24., vasárnap - 19:02 )

Sziasztok!

Most készülök új proxmox clustert építeni és a storage témakörben kissé elakadtam. Eddig glusterfs-t használtam, viszont azt most sikerült megborítanom, plusz az alatta lévő gépeknek már kevés a teljesítményük. Ha meg már mindenképpen új storage akkor már miért ne legyen a proxmoxba beépített ceph megoldás.

XenServer 7 + USB 3 controller + USB hardverkulcs

 ( Proci85 | 2017. szeptember 18., hétfő - 12:13 )

Sziasztok

Egy usb-s hardverkulcsot kellene feladnom az egyik VM-nek.

Ezen leírás alapján úgy látom, hogy usb-s eszközt nem lehet feladni, csak teljes usb controllert: https://xenserver.org/blog/entry/pci-pass-through-on-xenserver-7-0.html
Megtettem. Dom0-n lsusb-re már hibát dob, működik a hide. VM-ben a windows látja az usb xhci-t az eszközkezelőben, de felkiáltójellel és
"Az eszköz nem indítható el. (Kód: 10)
Érvénytelen paraméter átadása történt egy szolgáltatáshoz vagy funkcióhoz." üzenettel.

A rajta lévő eszköz sem jön így fel.

Docker Swarm HA cluster

 ( pgabor | 2017. szeptember 2., szombat - 23:59 )

Sziasztok!

Docker Swarm dokumentacio alapjan letrehoztam egy load balancing teszt kornyezetet. Odaig eljutottam hogy minden node-on fut egy Nginx. Egy manager node IP alapjan ki van szolgalva az Nginx default oldala. Ott akadtam el, hogy ha egy domain DNS rekordjaba felveszem az egyik manager IP cimet es pont az fekszik meg, akkor hiaba fut a tobbi manager es worker. Olvastam mas forumokon, hogy egy domainhez fel lehet venni tobb "A" rekordot. Egyik velemeny szerint a kliens random kap egy IP-t, masik szerint ha az elso IP nem szolgal ki, akkor a soron kovetkezot probalja meg.

Xen + ceph (vagy más storage libvirttel?)

 ( csardij | 2017. augusztus 19., szombat - 21:05 )

Helló,

Használ valaki Xen-t (opensource, Linuxon) CEPH-vel? Elvileg libvirttel lehet, de nem túl sok találatot találtam a neten erről, mindenki KVM-ezik. (Egyáltalán használja még valaki a xen-t?)

Vagy akármilyen más storage backendet libvirttel (szóval nem a xen scriptekkel)? Mik a tapasztalatok a dologról?

Plex on VPS

 ( riverman | 2017. augusztus 5., szombat - 11:12 )

Sziasztok

Nehany napja mar turom a google talalatokat egy, az igenyeimnek megfelelo VPS utan, de eddig nem jartam sikerrel :(

A felhaszanalasi cel a kovetkezo:
- transmission-daemon
- openvpn server (1-2 kapcsolat max)
- nginx+postgresql+phpfpm+mysql (<10 kapcsolat, csak egy teszt kornyezet+git szerver)
- plex ( max.1 darab fullHD video transcoding ~~ magas CPU igeny)

Ahogy latszik, a plex a szuk keresztmetszet, ami miatt nehez jo VPS-t talalni.
A havi keret, amit erre aldoznek max. 5000HUF,

Thin client

 ( orkenyi | 2017. augusztus 1., kedd - 21:50 )

Sziasztok!

Az volna a kérdésem mennyire hülyeség GIGABYTE BRIX UCFF vékony kliensnek használni? Illetve milyen oprendszert érdemes felrakni rá?
Windows-os irodai környezetbe. Amúgy proxmox fut vm.

Fedora 26 + VMware Player 12.5.7

 ( makgab | 2017. július 17., hétfő - 9:17 )

Üdv!
Másnak se működik a $SUBJ-beli kombó?
Tegnap F25 alat még ment, éjjel frissítettem a F26-ra és azóta nem megy. :(

Csak visszakapom a promptot, nem csinál semmit.
Próbáltam full uninstall és reinstall, de semmi. Valami nem kompatibilis? Meg kell várni az újabb Player-t?


# VMware-Player-12.5.7-5813279.x86_64.bundle
# uname -r
4.11.9-300.fc26.x86_64

VMware vSphere free altrernativa (cloud?)

 ( Vamp | 2017. június 22., csütörtök - 19:02 )

Sziasztok!

Az erdekelne, hogy van valami Open Source alternativa VMware vSphere helyett, ami tamogat ESXi-t?

Neztem a private/hibrid cloud megoldasokat (pl ManageIQ) fol is tudok venni ESXi node-ot, de direktben nem tudom managelni a hostot.

Nincs valami mas alternativa, ami kepes erre? Az meg csak plusz pont lenne, ha kepes lenne ez mellett KVM es kontener hostok managelesere is.

Proxmox - Disk cache. Melyik a legjobb?

 ( Vamp | 2017. június 20., kedd - 11:53 )

Sziasztok!

Jelenleg a VM-em disk-e egy network storage-en van, ami cifs-el van folcsatolva host ala (NFS-t nem tud)

Szerintetek ilyen esetben a proxmox-on belul melyik a legjobb disk cache beallitas?

Jelenleg Default-on van.

KVM VM konvertálása LXC kontenerbe (Proxmox)

 ( Vamp | 2017. június 6., kedd - 19:28 )

Ezzel a temaval kapcsolatos a kerdes, de gondoltam ez mar meger egy ujat :)

https://hup.hu/node/153900

Jelenleg ott tartok hogy:

1. Clonezilla-val keszitettem egy backupot a fizikai geprol.

2. Ezt Proxmox-ba (VMWare player-bol futtatom, egyelore nem bantanam a fizikai szervert) szepen migraltam is, fut minden, network interface nevet kellett csak atirni.