( Ritter | 2025. 07. 11., p – 15:31 )

Köszi a pontosítást, és igazad van abban, hogy jelenleg a Ryzen CPU-kban nincs GDDR vezérlő, és a GDDR6 memóriát valóban nem lehet csak úgy "venni a boltban" DIMM modulon. De nem is erről beszéltem. Pont az az egyik állításom lényege, hogy a GDDR6 forrasztott, SoC melletti használata nem technológiai akadály, hanem gyártási és termékpozícionálási döntés kérdése.

A PS5 és Xbox Series X alaplapján ez már most megvalósul, mégpedig egy tömegtermékben, ami olcsóbb, mint egy középkategóriás gamer PC. A Sony és Microsoft is képes volt ezt integrálni, egy AMD APU-val egybeépítve. Ebből következik, hogy nem elvi vagy technológiai lehetetlenségről van szó, hanem arról, hogy jelenleg az AMD nem kínál ilyen célra PC-s terméket.

Ráadásul az AMD már készített is hasonló APU-t, éppen ezekbe a konzolokba. Ennek egy UEFI-kompatibilis PC-változata egy kis fejlesztési ráfordítással létrehozható lenne. A lapkakészletet, PCIe-csatolókat, DDR vagy GDDR interfészt integrálni nem lehetetlen pláne, ha nem moduláris rendszerre építünk, hanem beágyazott, célirányos konfigurációra, mint a konzolok esetében. Ez nem lenne „hagyományos PC”, de nem is az a cél: hanem egy új hibrid platform, mint a konzol-PC határvonal.

Ami a mátrixszámítási képességet illeti, az integrált GPU-knál fontos a memória-sávszélesség. A GDDR6 448 GB/s sávszélessége miatt drámaian gyorsabb lenne AI inference feladatoknál, mint egy DDR5-ön ülő iGPU. És ez nem csak elméleti: egy ilyen APU a sávszélesség miatt már most lenyomná az olcsóbb gamer GPU-kat AI workload alatt. Itt nem a H100 szintre gondolok, hanem használható válaszidővel rendelkező LLM-re otthoni vagy KKV környezetben.

A linkelt AMD és Intel AI Engine megoldások valóban léteznek, de két fontos korlátjuk van:

1. Zárt, fejlesztői szempontból nehezen hozzáférhető ökoszisztéma, jelenleg csak a hivatalos toolchainnel használhatók, és nem kompatibilisek a mainstream ML frameworkökkel (TensorFlow, PyTorch, Transformers).
2. Memória-sávszélesség korlátja nincs GDDR vagy HBM. Márpedig a nagy LLM inference akkor válik használhatóvá, ha vagy sok RAM-ot vagy nagyon gyors RAM-ot érsz el, lehetőleg mindkettőt.

Én is azt írtam, hogy a CUDA szabvány kvázi monopolhelyzetet jelent AI vonalon. De pont ez a helyzet kínál lehetőséget az AMD-nek.

Ha az AMD egy konzolos APU-t (pl. PS5 szint) GDDR6 memóriával, PCIe-vel, UEFI-vel kiadna low-cost AI developer boardként (pl. 16 - 32 - 64 - 128 GB GDDR6), akkor megfizethető AI inference platformot biztosítana hobbyistáknak, KKV-knak, startupoknak, beindulhatna egy Linux + ROCm + Triton + HuggingFace alapon elinduló alternatív AI ökoszisztéma, CUDA alternatívák (pl. OpenCL, SYCL, ROCm) komolyabban elindulnának, mivel lenne végre célhardver hozzá.

Ez nemcsak új piacot hozna, hanem növelné a tőzsdei értékét, ugyanúgy, ahogy a CUDA/NVIDIA dominance a H100 miatt verte föl az NVDA-t.

Szóval nem azt mondom, hogy az AMD holnap után adjon ki ilyet. Azt mondom, hogy ez lenne a logikus és piacképes irány, ha ki akarna törni a jelenlegi "versenyképes GPU, de nincs AI platform" helyzetből. Ez egyébként analóg a Linux-robbanással: akkor is az történt, hogy a hozzáférhető vas lehetővé tette a közösségi szoftverfejlesztést, és ez végül felnőtt az enterprise szintre.

Most ugyanez történhetne az AI-val, és az AMD lehetne az új open CUDA hardveres motorja.