24 vs 48GB vram játéknál nem nagyon számít, mert a játékokat gyengébb kártyán is akarják futtatni, nem használja ki.
LLM esetén csak a vram méret miatt visszaesik durván a teljesítmény. Nvidia esetén nem tudom képes-e kihasználni shared gpu memory-t, ha nem számítana, akkor nem lenne szándékosan ram mérettel szegmentálva a gamer és AI termékvonal. Nem tudja / akarja betölteni, ha nem fér el a vramba. Ha a model egy részét rendszer ramból cpu-val csinálja, akkor bezuhan a teljesítmény töredékére.
https://www.youtube.com/watch?v=HZgQp-WDebU
Intellel mintha láttam volna shared ramos llm futtatást arc igpuval, hogy ne a cpu-ra kelljen tenni. Újabb procijuknál nincs is dedikálás, csak dinamikus / shared.
https://www.youtube.com/watch?v=xyKEQjUzfAk
Amd-vel is van ami tudja, de vegyes
https://www.youtube.com/watch?v=_cSsNsq6Mto
A shared és dedikáltra állított igpu memóriával is az szokott még lenni a baj, hogy pécén nem annyira unified mint az armos maceken. Míg macek tényleg közös memóriaként kezeli, a pécén logikailag külön van és feleslegesen oda-vissza másolgathat, plusz műveleteket végez. Dedikált gpu esetén eleve muszáj oda-vissza másolnia, ami alávág az LLM-eknek.
Sajna sokféle módon is tudják ezt kezelni, ezért nincs egy szabvány, amivel fixen össze lehetne hasonlítani őket és azon át mindegyiken egyformán akarná használni a dedikált / shared / vagy megosztott ramot.