( _Franko_ | 2015. 05. 19., k – 13:35 )

"Amennyire tudom, az Azure node-okon nincs overcommit."

Ahha... nyilván, tehát például az x Gbps az garantált és nem elérhető maximum sávszélesség? :)

"Nyilván vannak speciális kérdések, pl. a storage. Egy subscription-höz IIRC 100*500 TB adat tartozhat, értelemszerűen erre nincsenek felkészítve a DC-k, de itt sem egy adott node-on van race condition, mert ahogy fogy a hely, a storage is bővül."

Nagyszerű, de a storage méretének nincs köze ahhoz, hogy mekkora az aktuális _IOPS_ per storage egy adott időpillanatban, ami a pillanatnyi teljesítményt meghatározza. Szerintem kevered a shared resources fogalmát (például network, IOPS, CPU, memory access, satöbbi) és a reserved resource forgalmát (például IP cím, memória méret, disk terület, satöbbi).

Például ha van az adott fizikai gépen 100 virtuális gép, ha ebből 99 éppen nem csinál semmit, akkor a maradék egy kapja a teljes memória, hálózat és I/O sávszélességet, illetve a maximális CPU erőforrást a beállított felső limitig. Ha pedig mind a 100 éppen teljes erőből dolgozna, akkor a fenti erőforrások százfelé oszlanak el. Ennek semmi köze nincs ahhoz, hogy hány TB a storage és hány GB a memória.

Persze megteheted, hogy minden erőforrást egyformán osztasz el, de akkor a virtualizáció egyik legnagyobb előnyét veszted el... ott lesznek a fizikai hardvereid és alig lesznek kihasználva.

--
http://wiki.javaforum.hu/display/~auth.gabor/Home