- Better performance and scalability: 128 vcpus per guest, 1 TB of RAM per host, 128 physical CPUs per host (as a default, can be compile-time increased to lots more).
- blktap2 for VHD image support, including high-performance snapshots and cloning. Wiki link: blktap2
- Improved IOMMU PCI passthru using hardware accelerated IO virtualization techiques (Intel VT-d and AMD IOMMU). Wiki links: XenPCIpassthrough and VTdHowTo
- VGA primary graphics card passthru support to an HVM guest for high performance graphics using direct access to the graphics card GPU from the guest OS. Wiki links: XenVGAPassthrough
- TMEM allows improved utilization of unused (for example page cache) PV guest memory. more information: http://oss.oracle.com/projects/tmem/
- Memory page sharing and page-to-disc for HVM guests: Copy-on-Write sharing of identical memory pages between VMs.This is an initial implementation and will be improved in upcoming releases.
- New Linux pvops dom0 kernel 2.6.31.x as a default, 2.6.32.x also available. You can also use linux-2.6.18-xen dom0 kernel with Xen 4.0 hypervisor if you want. Wiki link: XenDom0Kernels
- Netchannel2 for improved networking acceleration features and performance, smart NICs, multi-queue support and SR-IOV functionality.
- Online resize of guest disks without reboot/shutdown.
- Remus Fault Tolerance: Live transactional synchronization of VM state between physical servers. run guests synchronized on multiple hosts simultaneously for preventing downtime from hardware failures.
- RAS features: physical cpu/memory hotplug.
- Libxenlight (libxl): a new C library providing higher-level control of Xen that can be shared between various Xen management toolstacks.
- PV-USB: Paravirtual high-performance USB passthru to both PV and HVM guests, supporting USB 2.0 devices. Wiki link: XenUSBPassthrough
- gdbsx: debugger to debug ELF guests
- Support for Citrix WHQL-certified Windows PV drivers, included in XCP (Xen Cloud Platform). Xen Cloud Platform: http://www.xen.org/products/cloudxen.html
- Pygrub improvements: Support for PV guests using GRUB2, Support for guest /boot on ext4 filesystem, Support for bzip2- and lzma-compressed bzImage kernels
- and more..
A részletek itt.
- A hozzászóláshoz be kell jelentkezni
- 4182 megtekintés
Hozzászólások
nyami
http://gpsforum.hu - Navigációról szájkosár nélkül
- A hozzászóláshoz be kell jelentkezni
Hehe, ez minden release-nál felmerül, szvsz soha nem lesz beolvasztva ún "design" okokból, a mainline a kvm-et erőlteti.
- A hozzászóláshoz be kell jelentkezni
sőt! inkább nyami nyami ...
- A hozzászóláshoz be kell jelentkezni
jó lesz :>
CoreDuo L2400, 4G, Ubuntu 9.10, 2.6.31
- A hozzászóláshoz be kell jelentkezni
Fincsi. Azert en megvarom a 4.0.2-t legalabb. :)
-w-
- A hozzászóláshoz be kell jelentkezni
Ideje lenne mar a kedves kergelfejlezztoknek beolvasztani vegre a dom0 supportot a vanillaba...
http://gpsforum.hu - Navigációról szájkosár nélkül
- A hozzászóláshoz be kell jelentkezni
Remus Fault Tolerance- ez jól hangzik, tesztelni kellene, hogy élesbe milyen...
- A hozzászóláshoz be kell jelentkezni
gondolom lassu
- A hozzászóláshoz be kell jelentkezni
Elvileg pont arról szól a történet, hogy nem. De persze ezt azért ki kell próbálni, erőforrásigény szempontjából nyilván nincs ingyen.
---
Internet Memetikai Tanszék
- A hozzászóláshoz be kell jelentkezni
Sok évvel ezelőtt amikor még nem volt ilyen megoldása egyik VM gyártónak se akkor gondolkoztam ilyesmin. A konklúzióm az volt számomra, hogy nincs olyan interconnect jelenleg, amelyik ne lenne nagyságrendekkel lassabb késleltetés szempontjából, mint egy alaplapi CPU-memória összeköttetés. Az InfiniBand két végpont közötti latency is olyan 1 microsec körül van, az pedig nagyon lassú a memória szinkronban tartásához.
Speciális (lockstep) hardverrel, meg ilyen működésre kifejlesztett (rollback támogatással rendelkező) szoftverrel biztos elérhető, hogy ne legyen akkora lassulás, de hagyományos hardverrel és szoftverrel nem tudom hogyan lehet ezt megoldani.
Persze lehet, hogy csak én hagytam ki valamit a számításból...
- A hozzászóláshoz be kell jelentkezni
Nem tudom, hogy milyen marketinget körítenek a VM gyártók ehhez a feature-höz, de szerintem is mindenképpen nagyobb lesz ezeknek a VM-eknek az erőforrásigénye.
Valószínűleg csak menedzsment funkciókat lesz érdemes ilyen VM-be rakni, míg a normál forgalmat "hagyományos" VM-ek fogják bonyolítani. Ahol szükséges, a számítógép kiesése ellen úgyis védekezünk alkalmazás szinten, pl.:
- web alkalmazásoknál különböző session-replikációs megoldások, redundáns tárheely
- Desktopnál is gyakorlatilag az összes komoly/gyakran használt alkalmazásban van autosave megoldás.
Az adott alkalmazás igényeire szabott védelem szerintem jóval hatékonyabb lesz, mint a VM szinten implementált.
Nektek mi a véleményetek?
Üdv,
Gergely
- A hozzászóláshoz be kell jelentkezni
VMware hogyan csinalja ugyanezt?
-w-
- A hozzászóláshoz be kell jelentkezni
Ha van türelmed ezt olvasd el, a lényeg benne van:
http://dsg.cs.ubc.ca/remus/papers/remus-nsdi08.pdf
Pont az a lényeg, hogy ez nem lockstep, csak az aszinkron eseményeket replikálja a tartalék gépre, valamint hagyja is lemaradni egy kicsit a tartalékot, puffereli az elsődleges vm kimenő forgalmát (hálózat latency miatt ne kelljen egyiknek sem várakoznia). Persze ebből következik, hogy nem is csodaszer, csak a detektált host hibát tudja kivédeni, ha csendben hibázik a CPU/memória valamelyik hostban, akkor szétesik az egész.
---
Internet Memetikai Tanszék
- A hozzászóláshoz be kell jelentkezni
Valahogy csak meg tudták csinálni, hisz a NetWare SFT III végül is valami hasonlót csinált 2 node-on, ráadásul ment ARCnet-tel!
- A hozzászóláshoz be kell jelentkezni