Az OpenAI nem elégedett az Nvidia chipjeivel, alternatívákat keres

Eredeti cikk: https://sg.hu/cikkek/it-tech/164436/az-openai-nem-elegedett-az-nvidia-chipjeivel-alternativakat-keres

TLDR (Gemini)

Az SG.hu cikke alapján az OpenAI és az Nvidia közötti szoros együttműködésben repedések látszanak, mivel a ChatGPT készítője nem elégedett maradéktalanul a piacvezető chipgyártó termékeivel, és aktívan keresi az alternatívákat.

A cikk legfontosabb pontjai:

  • Problémák az inferenciával: Míg az Nvidia chipjei dominálnak az AI-modellek betanításában (training), az OpenAI elégedetlen a modellek futtatásának (inferencia) sebességével. Különösen a szoftverfejlesztési feladatoknál (mint amilyeneket a Codex végez) találják lassúnak a jelenlegi hardvereket.
  • Alternatív partnerek: Az OpenAI olyan megoldásokat keres, amelyek gyorsabb választ tesznek lehetővé. Ennek érdekében tárgyalásokat folytattak olyan cégekkel, mint az AMD, a Cerebras és a Groq. Utóbbiak a nagy mennyiségű beágyazott memóriával (SRAM) rendelkező chipjeikkel kínálnak sebességelőnyt a chatbotok kiszolgálásában.
  • Saját chiptervezés: A vállalat nemcsak másoktól vásárolna, hanem saját AI-gyorsítókat is fejleszt a Broadcom segítségével, amelyeket a TSMC gyárthat majd 2026-tól. A cél az, hogy a jövőbeli inferencia-igényeik mintegy 10%-át saját vagy alternatív hardverrel fedezzék.
  • Feszültség a háttérben: Bár Sam Altman (OpenAI) és Jensen Huang (Nvidia) a nyilvánosság előtt továbbra is dicsérik egymást és a partnerséget (Altman szerint az Nvidia gyártja a világ legjobb chipjeit), a színfalak mögött zajló stratégiaváltás megnehezíti a két cég közötti, akár 100 milliárd dolláros befektetési tárgyalásokat.
  • Piaci hatás: Ez a lépés jelentős kihívást jelent az Nvidia piaci dominanciája számára, mivel azt jelzi, hogy az AI-fejlesztés új szakaszában már nem biztos, hogy az általános célú GPU-k jelentik a legjobb megoldást minden feladatra.

Összességében az OpenAI igyekszik csökkenteni a függőségét az Nvidiától, és olyan speciális hardvereket keres, amelyekkel gyorsabbá és költséghatékonyabbá teheti szolgáltatásait a felhasználók számára.

Hozzászólások

csak a szokasos alkudasi strategia a kovetkezo bevasarlas elott

mily meglepo, hogy egy celhardver gyorsabb es/vagy olcsobb tud lenni egy (majdnem) altalanos celu processzornal (gpu). foleg hogy az inferencehez tenyleg csak szorzas es osszeadas kell, de az iszonyu gyorsan es rengeteg adaton amihez sok es gyors eleresu ram kell.

igazabol a ram a szuk keresztmetszet mar most is, es azt pont nem gyart a fenti cegek kozul egy sem. nem lepodnek meg azon se, ha pl a samsung kozben elorukkolna egy inference-optimized chippel memoriaval osszeintegralva.