Virtualizáció

Ubuntu 14.04 virtuális gépben, 3D támogatással

Fórumok

Sziasztok,

Ubuntu 14.04-et szeretnék telepíteni virtuális gépbe. Próbáltam már Windows és Linux (Ubuntu 14.04) host OS-t is, illetve VMWare-t és VirtualBox-ot. Minden kombinációban előjön az, hogy nem működik az Ubuntu guest-ben a 3D támogatás, és emiatt a Unity felület (amihez ragaszkodnék) borzalmas lassú. Természetesen mindkét esetben a guest OS alá fel lett rakva virtualizációs környezetnek megfelelő driver pack (VBox Guest Additions, VmWare Tools...)

Valakinek esetleg sikerült úgy feltennie VMWare vagy VirtualBox alá 14.04-et, hogy működött a 3D támogatás?

Vírusirtó a hypervisorra?

Fórumok

Tervezgetek egy közepes méretű virtualizált infrastruktúrát (~60 blade VMware ESXi, ~40 blade Hyper-V, ~50 blade Citrix VDI/RDS), és azt látom, hogy vannak olyan vírusirtó megoldások, pl. a McAfee MOVE, amelyek nem a hagyományos "telepítsük a guest-be" módon működnek, hanem a hypervisoron futva nézegetik a guest gépeket. Ennek nyilván vannak előnyei (kevesebb erőforrás kell az 1 példányban futó víruskergetőnek, mint a több példányban futónak) meg hátrányai (ha a vírusirtó csúnya módon bedöglik, akkor egy csomó gépet magával ránthat valamilyen szinten, nagy a hibaterjedési tartomány) - de használ ilyet innen valaki a gyakorlatban? Milyenek a gyakorlati tapasztalatok? Érdemes már belevágni egy ilyen technológiába, vagy egyelőre inkább felejtős a dolog?

Proxmox + EMC VNX

Fórumok

Sziasztok!

Van egy EMC VNX5300 storage és néhány IBM 3650, FC-n összekötve. Azt szeretném, hogy az IBM szerverekre Proxmox kerüljön, alakísunk ki egy clustert, és ha egy vas megáll, akkor a virtuális gépei átvándoroljanak másik vasra, amíg a javítás megtörténik.
Első lépés, hogy csinálok egy nagy LUN-t a VNX-en, és odaadom az összes host-nak. De a Proxmox hostokon erre mit kell tenni, hogy utána clusterben is használható legyen? CLVM? Vagy ezt megoldja a Proxmox valahol?
Vagy teljesen rosszul képzelem el az egészet? Eddig még soha nem dolgoztam shared storage-el. Tud valaki kezdőlökést adni?

Docker-ben használható-e az ACL jogosultság kezelés?

Fórumok

Proxmoxon OpenVZ konténerben Ubuntu szerverre telepítettem Zentyal-t, de megbukott a dolog azon, hogy a Zentyal-ban lévő Samba-4 az ACL-eket nem tudta használni, igaz a gazda rendszeren sem volt ACL kezelés.
- A kérdésem, hogy az ACL-eket lehet-e használni Dockeren belül függetlenül a gazdarendszer ACL-étől?
- Vagy ha mondjuk a CentOS 7 gazdarendszeren van ACL akkor a Docker-ben futó Zentyalon (vagy csak Dockerben futó Samba-4 AD-n) használható-e az ACL?

Proxmox Two-Node High Availability Cluster magas IO

Fórumok

Sziasztok,

építettem egy két gépből álló proxmoxos clustert ezen leírás alapján, működik is rendesen, viszont az a problémám, hogy ha létrehozok egy virtuális gépet rajta és arra másolok monjuk, akkor iszonyatosan megnő az iowait azon a virtuális gépen, kb használhatatlan, amíg a másolás be nem fejeződik.

Mindkét szerver Intel(R) Xeon(R) CPU E3-1231 v3 @ 3.40GHz procis 32GB-rammal és 4tb hdd-vel, a két gépet pedig összekötöttük közvetlenül kábellel. Van valakinek ötlete, hogy milyen irányban induljak el, hogy a magas iowait-n csökkentsek?

Azoknak akik szerint gyenge a hdd:

rpool 3,48T 88,7G 96K /rpool
rpool/ROOT 25,3G 88,7G 96K /rpool/ROOT
rpool/ROOT/pve-1 25,3G 88,7G 25,3G /
rpool/data 3,42T 3,38T 134G -
rpool/swap 33,0G 122G 64K -

Így épül fel a rendszer. A data-n van a drbd. Ha nem a data-ra csinálom a vm-t, hanem a localra, ami a root-n helyezkedik el, akkor nincs io probléma. Szóval a rendszeren belül ugyan arra a vinyóra írva az adatot jelentkezik vagy nem a hiba. Ha lassú is a vinyó sokak szerint, az io problémát nem az okozza, mert akkor a local storage-re való íráskor is jelentkezne.

UPDATE:

Újrahúztam a rendszert és leteszteltem két módon. Leállítottam a sync-t a két gép között és először ext4-t raktam a drbd-re, így 25% volt a maximális iowait másolásnál. Ez elég jó úgy gondolom. Utána megcsináltam a tesztet lvm-el is, ekkor 45% volt az iowait. Így is használható marad a vm, viszont a 25% szimpibb, de ha lehet inkább lvm-t használnék. Szóval a kérdésem az, hogy mitől lehet ennyivel nagyobb az io lvm esetén? Vagy reménytelen gyorsítani rajta és maradjak ext4-nél?

hpc cloud-on

Fórumok

Sziasztok!

Adott egy kis project amit cloud-ra almodtunk:
Ez egy Monte-Carlo szimulacio (nagyon jol skalazodik es majdnem trivialisan implementalhato).
Nehanyszor futna (mondjuk havonta ketszer) csak, de akkor nagyon gyorsan kellene az eredmeny.
Azon agyaltunk, hogy valamelyik publikus cloud-szolgaltatohoz fellojuk, de itt akadtunk el egy picit.A gyors futashoz az kellene, hogy kb 500 core-on fusson a szerencsetlen (attol fuggoen, hogy mennyire veszik vissza a teljesitmenyt ez lehet hogy 1000 core).
Mivel csak neha futna, igy nem tunik okos dolognak egy ekkora szerverparkot folyamatosan 'berelni', szoval ha kell, akkor kellene felallitani.
Akkor vissza a gyors futashoz: ennek a szerver-park felallitashoz keves ido all rendelkezesre.
(szamokkal: max 10 perc alatt kellene vegezni a szerverek felallitasaval+szimulacioval, ebbol 1-2 perc eshet maximum a szerverek felallitasara!).
Van ilyen cloud-szolgaltato?
(trivialis megoldas a awc ec ... sajna ott olyan benchmarkokat olvastam, hogy 10 percesek a felallasok ... a Digital-ocean 55 masodpercet iger felallasra ez jo ... a gogrid meg a leggyorsabb CPU-kat ... de ezeket nem tudom mennyire rugalmasak ... es ezek csak nehany szolgaltato ...)

otletek/tanacsok/tapasztalatok?

Koszonettel,
k.

[Megrendelve] HP MicroServer Gen8 - szünetmentes?

Fórumok

Otthon hobbi célra van egy HP MicroServer Gen8-am:

- pentium g1610t, 10gb ram, 2x3 gb wd red

és ESXi 6.0 alatt fut rajta:

- Debian 8.1, Zentyal 4.0, OpenMediaVault 1.9 és Win Srv 2012 R2 Std.

Már annyit csiszoltam, hogy fájna egy áramszünet, ezért szeretnék beszerezni egyet. Tervem, hogy valamelyik op.rendszerhez dedikálom az apc-t és majd az szépen lekapcsolgatja a többit. Ritka nálunk az áramszünet (2 alkalom / év), a tartás idő min. 30 perc legyen, keret max. nettó 60e körül.

Xeon E3-1230v2, 4x3TB wd red, FreeBSD 10 és Win2008R2 hobbi szerver esetén így fogyaszt egy kollégánál.
link: http://goo.gl/MxmzRw

# Kérdéseim:

- szerver esetén, tényleg gond ha nem tiszta szinusz hullámos?
- vagy ez csak akkor gáz ha hosszabb a tartásidő?
- én ezt néztem ki: APC Smart-UPS 750VA LCD 230V (420 és 620 csak a lépcsőzetes / közelítéses szinuszt tudja), van ezzel tapasztalata valakinek, hogy mennyire ok?
- jó lenne, ha később utángyártott akksival tudnám felújítani, ezt lehet?
- esetleg más típust nézzek (szívem az apc-hez húz)?
+1 sima kliensek esetén miért nem olyan kényes, hogy tiszta szinusz legyen?

# Köszi Mindenkinek, ezt rendeltem meg:

APC Smart-UPS 750VA LCD 230V
link: http://goo.gl/hkBtE

# APC Smart-UPS 750VA LCD 230V
- beüzemelésével kapcsolatban mire kell figyelnem (setup menüt végignyomogattam)?
- pl.: itt is érdemes először lemerítenem az akksit majd egy napig hagyni, hogy töltődjön (formázódjon)?
- ha igen ezt többször is érdemes megtenni?
- egyéb tennivaló?

Köszi szépen és Üdv: Dani

xen 4.5 kisokos

Fórumok

Sziasztok!

Korábban beleástam magamat Fedora 19 környékén a XEN-be.
Akkor XEN-t bootolva, indítottam egy xend-et, majd xm create valami.cfg és ennyi volt.
Ma meg XEN 4.5 van xend eltűnt, xm helyett tudom xl van, de még mindig hiányzik valami.
Google nem volt kellően barátságos.
Segítsetek ki, please.

Üdv,
DRobert

DRBD9 megjelent

Fórumok

New features and benefits of DRBD9 include:

Unmatched replication performance: RDMA is now integrated into DRBD9, enabling low latency storage replication. PCIe storage combined with Infiniband network cards yields a 100% replication increase over traditional IP-based networks, while simultaneously reducing CPU load by 50%.

Extreme availability: DRBD9 allows for interconnection of more than 30 geographically diverse distributed storage nodes across any network environment – enabling businesses of all sizes to afford cross-site availability, and not mere data back-ups.

Integrative management: The new DRBD Manage application allows the deployment of complex storage infrastructures within minutes. DRBD Manage exposes all necessary APIs to automate DRBD9’s features in complex infrastructures such as OpenStack or Linux based alternatives to traditional SANs.

Valaki próbálta már esetleg?
Az első pont különösen érdekelne...