NVIDIA pálfordulás kvantumtéren

Mint ismeretes, januárban az NVIDIA CEO-ja, Jensen azt nyilatkozta, hogy a kvantumszámítástechnika kamu, ezzel nem kis pánikot keltve a tőzsdén, ahol bezuhantak az ezzel foglalkozó cégek részvényei, és egyesek már lufiról kezdtek beszélni.
https://www.axios.com/2025/01/08/quantum-computing-stock-nvidia-jensen-huang

Ehhez képest 180 fokos fordulat állt most elő, a minap már azt nyilatkozta, hogy tévedett,
https://www.cnbc.com/2025/03/20/nvidia-ceo-huang-says-was-wrong-about-timeline-for-quantum-computing.html
sőt, mi több, az NVIDIA beszáll és komoly összegekkel fektet a kvantumszámítógépekbe:
https://www.theregister.com/2025/03/19/nvidia_boston_quantum_research/

Szerény véleményem szerint az igazság valahol a két véglet között van. Valóban nem kis potenciál van bennük, de a jelenlegi technikai színvonalon még nagyon használhatatlanok, igazsága vagyon Jensennek abban, hogy (ha mint beismerte, nem is évtizedekre, de) iszonyat messze még a gyakorlati felhasználás. Az RSA-t csak elméletben képesek törni, a valóságban még csak ott tartunk, hogy kicsi fix paraméterekre tudnak csak kvantumalgoritmust kreálni, tetszőleges bementre egyáltalán nem, és ráadásul ehhez is durván sok qubitre van szükség, amivel a hardver (jelenleg legalábbis még) nem is képes lépést tartani.

Számokkal: a Nature-ben megjelent legfrissebb cikk például 5760 qubittel (ami rohadt sok) maximum 12 bites (ami rohadt kevés) prímszámot képes faktorizálni, fix bemenetre. Hogy ez mennyire gyíkfing, azt jól szemlélteti, hogy az RSA esetében már 20 éve is elavult volt az 1024 bit, manapság a 4096 bit az alap, de még a muglik is általánosan 2048 bitest használnak már (ne feledjük: a komplexitás a bitek számával ugye nem lineárisan, hanem exponenciálisan nő).

A fő kérdés tehát az, kitart-e az LLM hype addig, amíg a kvantumgépek beérnek. Ha igen, akkor hatalmasat szakít az NVIDIA, ha nem, akkor csúnya bukta lesz ebből. Persze az sem kizárt, hogy az egész fikázás csak szándékos tőzsdemanipuláció volt csupán, hogy kedvezőbb feltételekkel szálhasson fel az NVIDIA a kvantum vonatra. Csöppet sem lennék meglepve.

Hozzászólások

Szerkesztve: 2025. 03. 22., szo – 17:02

Nem értek a kvantumszámítógépekhez, meg a jelenlegi felhasználási területeihez, de jelen állapotában jó bármilyen jó ez bármilyen produktív munkára?

Másik.

...iszonyat messze még a gyakorlati felhasználás.

Nem mindig csak egy hirtelen áttörésnyire vagyunk attól, hogy használható legyen a mindennapokban?

Mondjuk egy olyan áttörés nagyon kellene, hogy lehessen kvanum-buffert csinálni.

Sajnos ez pont ellentétes azzal, amit tudunk a kvantummechanikáról, de néha vannak okos ötletek. Az okos ötletek eddig még soha nem találtak fogást a kvantummechanikán.

De most miről beszélünk? Már azzal jelentősen lehetne hatékonyságot növelni, hogy FPGA-t teszünk a számítógépekbe. Speciális algoritmusokat oda "fordítva" nagyságrendeket lehetne növelni a sebességen. De mégsem tesszük.

Persze nem tudom, hogy Jensen mit tudhat, amit mi nem. Mindenesetre fúziós erőművet is sokan ígérnek, és még pénzt is kalapoznak rá. Bár szerintem még az is előbb lesz, minthogy a kvantumszámítógép lenyomja a szilíciumot.

Mindenesetre fúziós erőművet is sokan ígérnek, és még pénzt is kalapoznak rá. Bár szerintem még az is előbb lesz, minthogy a kvantumszámítógép lenyomja a szilíciumot.

Egyrészről a fúzió már nemcsak elmélet, hanem laborokban jóideje gyakorlat, ráadásul elég jól áll, pár éven belül elképzelhető egy állandóan működő erőmű, ennyire közel vagyunk már (kínaiak 16 percnél tartanak, a franciák meg 22 percnél). Ráadásul hatalmas ugrás várható, ha végre átállnak tokamakról stellarator típusú erőművekre. Úgy tudom, németeknél már elkészült egy ilyen új generációs cucc, jelenleg tesztelik és tökéletesítik a W7-X-et, így hamarosan onnan is várhatóak eredmények.

Másrészről a kvantum sosem fogja kiváltani a hagyományos szilíciumot, mert arra mindig is szükség lesz a bemenet és az eredmény kódolásához. Inkább olyan lesz, mint most egy tipikus computational shader: a CPU összerakja a GPU-nak, amit kell, majd miután a GPU megtette dolgát, a CPU megcsócsálja a végeredményt és prezentálja. Hasonlót terveznek itt is, csak GPU helyett kvantumgéppel illesztenék, legalábbis ez az elmélet.

Persze, a fizikáját ismerjük, tehát nem kamu. Csak engineering challenge.

Ez mindkettőre igaz.

Mégegyszer: fúziós kísérelti reaktor már nemcsak elméletben, hanem a valóságban is létezik, odaslattyoghatsz hozzá, és megnyomhatod a bekapcsológombját. Igaz, még csak limitált ideig működik, de van. Ezzel szemben használható kvantumszámítógép még csak papíron létezik, senki nem épített ilyent még (legalábbis a nyilvánosan hozzáférhető adatok alapján a jelenlegi ismerteink szerint).

Nem csak az idejével van gond. Általában ezek csak kutató reaktorok, nem is alkalmasak folyamatos üzemre. 

De a legnagyobb gond, hogy általában több energiát kell befektetni, mint amit termelnek. Csak a szenzációs híreknél elfelejtik megemlíteni azt, hogy a komplett rendszer fogyasztása mennyi volt. Úgy szoktak hazudni, hogy például valamelyiknél a lézer energiáját viszonyítják a generált energiához. Csakhoz a lézer létrehozásához használ energia annak többszöröse. A teljes infrastuktúrát kell számolni, nem csak a reakciótérbe tolt energiát.

Harmadik nagy gond, hogy sugárszennyezést okoznak mellesleg a reakció közben. 

A negyedik gond meg az, hogy hibáa "ingyen" engergia. Ha az erőmű felépítése olyan sok milliárd dollárba kerül, amit sohasem tud kitermelni az élettartama alatt, akkor nem ingyen van, hanem egy drága csőd.

Hajjaj. A fissziós reaktorok hívei pont azzal szoktak érvelni, hogy a fissziónál ~200 MeV energiára jut két-három neutron, míg fúziónál ~20 MeV-re jut egy => 3x akkora felaktiválódást okoz.

Az ingyenergiára meg a fosszilis hívek szokták mondani: az olaj is ingyen van. Legalábbis a Föld nem kér pénzt, hogy kiszivattyúzzuk belőle, csak a szemét olajmultik ;)

jelen állapotában jó bármilyen jó ez bármilyen produktív munkára?

Nem jó még semmire, ezt jelenti az, hogy "iszonyat messze még a gyakorlati felhasználás".

A legnagyobb problémája (a sok egyéb mellett), hogy jelenleg minden bemenetre külön programot és interfészt kell készíteni, azaz nem képes tetszőleges bemenettel és algoritmussal dolgozni. Értsd: tud már prímszámfaktorizációt, de a gyakorlatban csak akkor, ha a bemenet fixen 3 * 5 konstans. Ha netán az 5 * 7 bementre szeretnéd futtatni, akkor több qubit kell és újra kell programozni a nulláról.

Bár történtek előrelépések ezen a téren is, ez a gyakorlatban még nem megoldott. Talán itt érthetőbben elmagyarázzák, de röviden azzal próbálkoznak, hogy sima számítógéppel próbálják illeszteni, ami összeállítaná a bemenetet, átpasszolná a kvantumprocesszornak végrehajtásra, majd pedig fogadná az eredményt és hétköznapi gépen prezentálható formába öltené. Egyelőre még csak terv szintjén, elméletben létezik ez, bár állítólag az olaszok két hete áttörést értek el (a Nature cikk összefoglalóból nem derül ki sajnos, hogy ez a tanulmány is elméleti vagy esetleg már gyakorlati megoldásról szól-e).

Szóval ahogy írtam, potenciál az van benne bőven, de még nagyon nagyon az elején vagyunk. Persze lehetséges, hogy Jensen hozzájutott valami bennfentes infóhoz, valamilyen nem publikus laboreredményhez, így ő már tud valamit, amit mi még nem, és ezért játszotta el ezt az egészet.

Szerkesztve: 2025. 03. 22., szo – 23:20

Nem a kvantumban van potenciál, a szilicium érte el a határait. A mostani rekord 1-2 nm alá nem nagyon lehet menni, 0.1 nm már atomi szint, és túl zajos, már nem elég klasszikus a tranzisztor. Valószínű más félvezetőknek van annyi előnyük, hogy azoknak is adnak egy esélyt, de méretben már nem lesznek kisebbek. Amire gondolok, hogy pl. a GaN transzisztorok hatékonysága sokkal jobb, ezért is használják a modern akkutöltőkben. Van esély, hogy lehet belőlük majd logikai áramköröket építeni, és esetleg kevesebb hőtermeléssel, nagyobb frekvenciával jobbak lesznek - és a méretük marad néhány nanométer, esetleg több rétegben.

A kvantumban sok lehetőség van, anyagszimulációra szerintem most is használják. Nagyobb, jobb koherenciájú gépek pedig jók gráfprobléma oldásra (bár a klasszikus heurisztikák lehet mindig jobban lesznek) . Csak az RSA törés miatt  nem kellenének .

A fő kérdés tehát az, kitart-e az LLM hype addig, amíg a kvantumgépek beérnek.

Az én meglátásomban ez nem így van. A nagy kérdés ami az én fejemben van egy ideje, és egyre nagyobb a valószínűsége, hogy az LLM és annak fejlődése fogja megoldani a kvantumugrást. Egyre kifinomultabb modellek jönnek, amik megfelelnek a SciPhi LLM elméletnek, és ezek képesek lesznek tudományos kérdések értelmezésére és új hipotézisek generálására.

Kvantumprocesszorokhoz olyan szuperanyagok kellenek, amelyek tervezése és szimulációja jó nagy fejtörés, PhD-fokozattal rendelkező tudósok ezrei végeznek el hosszú évek alatt. Ha az LLM eljut oda, hogy anyagtervezésben segít, az kvantumugrást hozhat. Pl. a Google DeepMind már foglalkozik ilyennel.

Ha eljutunk a tudományos LLM szintre ami nemcsak klasszikus mostani LLM, hanem következtet, új elméletet alkot, és ez elég gyorsan be fog következni, legyen 8-10 év, akkor jönnek az igazán nagy dolgok a Földön.

Szóval nem az LLM-nek kell "addig" kitartani, hanem használni kell, úgy és olyan módon hogy az emberiséget segítse.

A fő kérdés tehát az, kitart-e az LLM hype addig, amíg a kvantumgépek beérnek.

Az én meglátásomban ez nem így van. A nagy kérdés ami az én fejemben van egy ideje, és egyre nagyobb a valószínűsége, hogy az LLM és annak fejlődése fogja megoldani a kvantumugrást.

Az én meglátásomban meg e kettő egyáltalán nem is zárja ki egymást.

Hogy LLM-et is használnak-e a kvantumgépek megalkotásához, vagy sem, ettől függetlenül igaz az, hogy az a kérdés az NVIDIA piaci sikere kapcsán, kitart-e az LLM hype addig, amíg a kvantumgépek beérnek.

Ha eljutunk a tudományos LLM szintre ami nemcsak klasszikus mostani LLM, hanem következtet, új elméletet alkot, és ez elég gyorsan be fog következni

A szakterület legnagyobb koponyáinak egyöntetű véleménye, hogy ez sosem fog bekövetkezni, ehhez teljesen más alapokra kellene építeni az MI-t, mert a mostani modellek egész egyszerűen nem is képesek erre.
- Why LLMs Will Not Lead Us to AGI
- Why LLMs aren't AGI
- Is LLM leading to AGI? Feifei Li, Yann LeCun vs Hinton, Ilya Sutskever
- Why Text-Based LLMs May Not Lead to AGI: A Language Perspective
- Skepticism about Large Language Models (LLM) and ChatGPT
- Scale Won’t Turn LLMs Into AGI or Superintelligence
- ...stb.
Eléggé meggyőző érvek. Persze dönthetsz úgy, hogy a neves szakemberek véleménye helyett inkább a céges marketing bullshitet kajálod be, de akkor ne csodálkozz, ha átb*sznak.

A szakterület legnagyobb koponyáinak egyöntetű véleménye, hogy ez sosem fog bekövetkezni

Hát a felsorolásodból

  • egyre mondom én is hogy AI koponya
  • kettő AI tapasztalattal rendelkezik
  • három pedig egy ön tetű

Ebből kiindulva egy ember véleménye szerint ez sosem fog bekövetkezni, vagyis a marketing bullshitet kajálása lehet nem az én területem.

De nem azért írtam hogy rád erőltessem a véleményem, csak leírtam azt, hogy mit gondolok.

Azt kellene inkabb gondolkodni, hogy lesz e meg elegendo tiszta adat. Ez lesz a kovetkezo nagy baj. Szemettel eteted abbol csak fos lesz.

Every single person is a fool, insane, a failure, or a bad person to at least ten people.

Azt kellene inkabb gondolkodni, hogy lesz e meg elegendo tiszta adat.

Ezen felesleges gondolkodni, mert már most sincs elég.

Eddig is csak úgy volt épp hogy elég adat, hogy loptak orrba-szájba; a nyilvános adatokból már valahol a GTP2.5 környékén kifogyhattak. Gondolj csak bele, a desztilláció már bevalottan napi szintű, általános gyakorlat. Nyilván nem lenne az (és a lopás sem), ha a rendelkezésükre állna elegendő adat.

Mekkora javulást okoz a nagyobb adatmennyiség? Egy regény kb. 1 MB (plaintext), abból egy ember hetente el tud olvasni egyet, ha semmi mást nem csinál. Tehát egy életben 3-4 GB-nyi szöveget tudnánk feldolgozni, de ez is erősen elméleti. Csak a wikipedián több text van, és viszonylag jó minőségű.