Igaz már 2 napos a hír, de az NVIDIA bejelentette, hogy elkészültek az AI szuperszámítógépükkel, aminek épp ésszel felfoghatatlan műszaki paraméterei vannak:
Az új GH200 chipből 256 kapcsolható össze NVlink switchek és optikai kábel segítségével és így az egész cluster egy egységes, 1-Exaflop teljesítményű 144TB GPU memóriával(!!!) rendelkező eszközként kezelhető. összehasonlításként eddig a 8db 80GB-os A100 kártyát tartalmazó gépekkel készültek az olyan LLM modellek mint a ChatGPT alapját is adó GPT-3. Ezzel az eddigiekhez képest 2 nagyságrendet tudnak ugrani a model méretében, ami elképzelhetetlen hová vezet majd ...
Mellesleg a GH200-ban található 72 db ARM CPU core is, hasonló felépítésben (közös memóriát használ a GPU-val) mint az Apple M1/M2 chipjei.
További részletek a bemutató videóban: