VPS + kozbeszerzes
Egy BME-s szervezetnek lenne szuksege VPS-re.
Lehet kozbeszerzesben VPS-t berelni vhol?
10x
t
- Tovább (VPS + kozbeszerzes)
- 2570 megtekintés
Egy BME-s szervezetnek lenne szuksege VPS-re.
Lehet kozbeszerzesben VPS-t berelni vhol?
10x
t
Sziasztok!
Teszt kornyezetben letrehoztam Ovirt-al egy Pool-t, Win10 alapon. A mukodese: Elore definialt pool darabszam (teszt kornyezetben 3) 1 VM automatikus inditasa, ha nincs tobb szabad VM. Spice konzollal VM laallitas Konzol becsukasara.
Ez igy tok jol mukodik, viszont azon kezdtem el gondolkodni, hogy Csupan Ovirt es spice segitsegevel megvalosithato-e ennel komolyabb, mar-mar VDI szintu cucc is?
Az elkepzelesem: 3 Win. Server 2016, mondjuk 5 terminal server licenszel (ez ugye 15 parhuzamos belepes) A pool ugy mukodne, hogy elso 5 felhasznalo VM1, aztan VM2 etc... Ha valaki kilep a VM1-rol akkor nyilvan oda tegye be a kovetkezot. A VM2 csak akkor induljon el, ha a VM1 user szama elerte a maximumot (lehetne pre-start, mondjuk ha a VM1-en mar van 3 felhasznalo, inditsa a VM2-ot), a VM3 szinten. ha egy VM-rol "elfogynak" a userek, kapcsoljon le.
Nezegettem a konfigot, de nem lattam csak olyan lehetoseget, hogy egy userhez tobb VM hozzarendelere, olyat nem, hogy egy VM-hez fix darabszamu user...
Letezik ilyen opcio, megvalosithato a fonti dolog csak Ovirt-al?
(Nyilvan Citrix es/vagy RDS-el mukodik a dolog, az erdekel, a fonti konfiggal is menne-e)
Udv!
Adva van egy windowsos gep, amin fut egy VirtualBox. Utobbin van egy debian image (parameterek lejjebb). A halozatban van egy osregi debian 10.1.0.1- es IP- vel, ami dhcp- kent (is) uzemel. A windowsos gep latja a 10.1.0.1- et, tudja pingelni, 10.1.0.1- es IP- n 80- as port elerheto (a windowsos gepet 10.1.0.27- kent latja). A VirtualBoxon levo debian image viszont nem latja a helyi halozatot, es azt szeretnem, ha latna. Az image jelenlegi beallitasa igy nez ki:
[code]
cat /etc/network/interfaces | grep -v \#
source /etc/network/interfaces.d/*
auto lo
iface lo inet loopback
allow-hotplug eth0
iface eth0 inet dhcp
auto eth1
iface eth1 inet static
address 10.1.0.55
netmask 255.255.255.0
network 10.1.0.0
-----
/sbin/ifconfig
eth0 Link encap:Ethernet HWaddr 08:00:27:9b:f8:8b
inet addr:10.0.2.15 Bcast:10.0.2.255 Mask:255.255.255.0
inet6 addr: fe80::a00:27ff:fe9b:f88b/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:785351 errors:0 dropped:0 overruns:0 frame:0
TX packets:478685 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:530087752 (505.5 MiB) TX bytes:114038753 (108.7 MiB)
eth1 Link encap:Ethernet HWaddr 08:00:27:46:b0:7f
inet addr:10.1.0.55 Bcast:10.1.0.255 Mask:255.255.255.0
inet6 addr: fe80::a00:27ff:fe46:b07f/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:0 errors:0 dropped:0 overruns:0 frame:0
TX packets:12519 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:0 (0.0 B) TX bytes:1898834 (1.8 MiB)
lo Link encap:Local Loopback
inet addr:127.0.0.1 Mask:255.0.0.0
inet6 addr: ::1/128 Scope:Host
UP LOOPBACK RUNNING MTU:65536 Metric:1
RX packets:1767649 errors:0 dropped:0 overruns:0 frame:0
TX packets:1767649 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:0
RX bytes:719439599 (686.1 MiB) TX bytes:719439599 (686.1 MiB)
[code]
. A VirualBox beallitasai az imagehez:
Adapter1: NAT, Cable Connected, MAC: 0800279BF88B
Adapter2: Internal Network, Name: Intnet, Cable Connected, MAC: 08002746B07F
.
Hogyan kellene beallitani az adaptereket ahhoz, hogy a mostani beallitasok megmaradjanak (tehat pl. a shared konyvtar a host es a guest kozott megmaradjon), es lathassam is a LAN- t (pl. 10.1.0.1)? Hogyan kell ehhez az image- ben levo interface- ket igazitani?
Windows: 8.1
VirtualBox: 5.2.6 r120293
Debian: 8.6
.
Koszonom a valaszokat!
Sziasztok
VMware alatt VCenter/Vmotion-al megoldhato a hostok kozotti utemezett (egyedi utemezes szerinti) eroforras megosztas, live migration-al, mi jelenleg ezt hasznaljuk. RHEV/Ovirt alatt az Engine szinten tudja ezt, a kerdesem, hogy Hyper-V alatt ehhez a funkciohoz mindenkepp kell a Microsoft System Center (meg a licensz)? Mert pl failover Cluster-hez eleg egy Windows Server Licensz is.
Sziasztok!
Teszt kornyezetben szeretnek letrehozni egy Ovirt node-t Gluster FS alatt. adott hozza az official howto:
https://www.ovirt.org/documentation/gluster-hyperconverged/chap-Single_…
az en configom az alabbi:
Viszont folyamatosan megall az alabbi hibaval:
failed: [node01.localdomain.local] (item=/dev/gluster_vg1/engine_lv) => {"changed": false, "cmd": "/usr/sbin/mkfs.xfs -f -f -K -i size=512 -d '' '#Ignored' in case of jbod,su=256k -n size=8192 /dev/gluster_vg1/engine_lv", "item": "/dev/gluster_vg1/engine_lv", "msg": "mkfs.xfs: Specify data sw as multiple of su, no unit suffix", "rc": 1, "stderr": "mkfs.xfs: Specify data sw as multiple of su, no unit suffix\n", "stderr_lines": ["mkfs.xfs: Specify data sw as multiple of su, no unit suffix"], "stdout": "", "stdout_lines": []}
Sziasztok. Egy Forcepoint VM miatt downgrade-elnem kell a 6.7-es hostot, amit egy hete húztam fel. Sajnos a vm nem hajlandó felmenni csak 6.5 alá.
Ezzel nincs is gond, de a licensz kód jó lesz 6.5 alá?
Hogy tudom legkisebb fájdalommal megtartani a már rajta lévő vm-eket, amelyek egy külön datastore-ban vannak?
van egy RAID1-es tömb a VMware OS-nek és egy másik RAID5 a vm-eknek.
Sziasztok
Adott több libvirtes KVM szerver. Ehhez keresek legalább egy alap webes felületet (start, stop, console, esetleg vm create).
Proxmox nem jó, mert az nem libvirtet használ és nem kompatibilis a linuxos virt-manager nevű programmal (https://virt-manager.org), amivel linux alól lehet birizgálni.
A cél az, hogy az új webes felületekhez szokott kollégák és a régi vágású konzolos, linuxos manager programot használó kollégák is jól érezzék magukat.
Anélkül, hogy mindet végigpróbálnám innen: http://www.linux-kvm.org/page/Management_Tools
Van akinek bevált valamelyik? Esetleg ezen kívül ismer használhatót?
Köszönöm!
Sziasztok,
Van egy ASUS H97I plus miniITX alaplapunk és benne 4 HDD, amiket két tömbbe szerveztem az alaplapi intel RAID-vezérlővel. Egy "sima" oprendszer mint a Windows, vagy a Linux, ezeket szépen kezeli is, de sajnos ESXi 6.7-et kellene felraknom rá, és ott azzal szembesültem, hogy "átlát" az Intel BIOS-os RAID-jén és csak a 4 HDD-t látja ahova datastore-t tudok csinálni.
Létezik olyan custom ESXi image, vagy driver, amivel átverhető az ESXi? Látott valaki ilyet működni?
Sziasztok,
Adott egy ESXi 6.0 (U3), amibe az alabbi halokartya van: Intel® Ethernet Converged Network Adapter X520-SR2 (SN: E10G42BFSR)
Mar van benne egyeb halokartya, 0-8-ig fol is ismeri a NIC-eket a VMware. a 9-10 viszont nem latszik a halozati eszkozok kozott...
Viszont, ha lekerem a PCI eszkozoket CLI-vel, szepen latszik a NIC9-10... valamint VMware alatt PCI Passthrough-al is latszik az eszkoz...
Probaltam 3 kulonbozo kartyat (2 E10G42BFSR 1 E10G42BTDA ) de semmi eredmeny, nem latja a VMware... Probaltam frissiteni a drivert, de ugy sem... Masik Hostban ezek a kartyak mukododtek.
Nincs otletem, a CLI szerint ugye ott van az eszkoz, tehat hardveresen nincs gond, csak a VMware nem latja.
A host, amiben mukodott, szinten ESXi 6.0 (U3).
ESXI 6.7 alatt van egy Samsung 850 Pro. Sima datastore, ezen vannak a VM-ek. Látszólag jól felismeri az ESXI, hogy SSD-ről van szó, de nemrég egy HD Sentineles ellenőrzésnél azt mondta, hogy a TRIM támogatott de nem aktív, így 80% a teljesítmény.
Keresgéltem, de csak régi találatokat dobott a google. Nem tudom mihez nyúljak, hogy bekapcsoljam, vagy legalább ellenőrizzem a TRIM(vagy annak ESXI megfelelőjének) állapotát ESXI alatt.
Hol lehetne elindulni?