"Amennyire tudom, az Azure node-okon nincs overcommit."
Ahha... nyilván, tehát például az x Gbps az garantált és nem elérhető maximum sávszélesség? :)
"Nyilván vannak speciális kérdések, pl. a storage. Egy subscription-höz IIRC 100*500 TB adat tartozhat, értelemszerűen erre nincsenek felkészítve a DC-k, de itt sem egy adott node-on van race condition, mert ahogy fogy a hely, a storage is bővül."
Nagyszerű, de a storage méretének nincs köze ahhoz, hogy mekkora az aktuális _IOPS_ per storage egy adott időpillanatban, ami a pillanatnyi teljesítményt meghatározza. Szerintem kevered a shared resources fogalmát (például network, IOPS, CPU, memory access, satöbbi) és a reserved resource forgalmát (például IP cím, memória méret, disk terület, satöbbi).
Például ha van az adott fizikai gépen 100 virtuális gép, ha ebből 99 éppen nem csinál semmit, akkor a maradék egy kapja a teljes memória, hálózat és I/O sávszélességet, illetve a maximális CPU erőforrást a beállított felső limitig. Ha pedig mind a 100 éppen teljes erőből dolgozna, akkor a fenti erőforrások százfelé oszlanak el. Ennek semmi köze nincs ahhoz, hogy hány TB a storage és hány GB a memória.
Persze megteheted, hogy minden erőforrást egyformán osztasz el, de akkor a virtualizáció egyik legnagyobb előnyét veszted el... ott lesznek a fizikai hardvereid és alig lesznek kihasználva.