( Proci85 | 2019. 11. 06., sze – 11:50 )

Szerkesztve: 2019. 11. 06., sze – 11:52

Arról ki mit tud, hogy NUMA-t mikor fog tudni?

Tehát amikor van egy több fizikai processzoros host, azoknak van hozzájuk tartozó memória (modul), akkor ha a VM az 1-es CPU-n fut, akkor ne a 2-es CPU-hoz tartozó memóriába pakolja magát.

Nézem a 2 fizikai processzoros, 48 logikai magos szerveren a xl vcpu-list paranccsal, hogy hol fut az adott VM és bizony 0-47 között mindenhol előfordul legalább másodperces vándoroltatással.

Értem, hogy szét akarja kenni a terhelést, de így baromságnak látszik.

Aztán lehet bindelni adott VM virtuális CPU-ját adott logikai maghoz, de ha van 100 VM 48 logikai magra, akkor 1 magrara 2 VM tuti kerül. Ha épp egyszerre akarnak dolgozni, szívás.

Megadhatod, hogy először 0-23 logikai magot adja oda az 50 VM-nek, a maradék 50 VM-nek meg 24-47-ig, és így szét tudja kenni a terhelést, de ekkor is az a felhasználói visszajelzés, hogy esik a tempó. Nem az igazi. És úgy tűnik, minél nagyobb a logikai max szám, annál rosszabb performanciád ad ez az egész. 

VMware környezetben azt mondták nem vándoroltatja ennyire a vCPU<-->logikai CPU összerendeléseket, csak ha egyik izzad, másik tétlenkedik, akkor odébb "bindeli" automatikusan, amúgy marad ott, a memóriához közelebbi RAM-nál és állandó CPU-n.