- A hozzászóláshoz be kell jelentkezni
- 2372 megtekintés
Hozzászólások
Így hogy a gyerekeivel fotózkodik az ember nem tudja, hogy melyikről van szó. Rá kellett keresnem, hogy a tejfölösképű, vagy a szakállas-e az alany? :-) Nagyon jó a szakálla, gratulálok hozzá!
A témához: érthető, néha nem árt váltani. Emlegetve volt, hogy fogynak a kernelfejlesztők. Tényleg fogynak? Tényleg nincs utánpótlás?
- A hozzászóláshoz be kell jelentkezni
Van még mit fejleszteni a Mastodon-on. Magyar fordítás még nem az igazi.
12 megtolás . 28 kedvenc
Suta fordítás.
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
Sajnos nem hiba :) Ez az eredeti (szerintem elég szerencsétlen) terminológia maradéka, toot → tülkölés, boost → megtolás. Nekem sem tetszik, de a többi fordító ragaszkodott hozzá. Az első legalább magától megoldódott, mert már szinte teljesen felszámolták az eredeti kifejezést.
- A hozzászóláshoz be kell jelentkezni
Igy van, te is hagyd ott a fenebe az ertelmes munkat es foglalkozz a baromsaggal. Grat.
- A hozzászóláshoz be kell jelentkezni
olvasva hogy milyen kapacitás bővítési programok indultak már el, illetve vannak bent a pipelineban az AI szektorban az USA-ban, lesznek ott nagyon komoly szakmai kihívások.
- A hozzászóláshoz be kell jelentkezni
akkor en befejezem a gondolatot:
...de szivbol remeljuk, hogy minel hamarabb kidurran a lufi.
- A hozzászóláshoz be kell jelentkezni
Vagy már nem kell aggódnunk az emberiség jövője miatt, mert valamelyik trilliárdos felelőtlen fasz techmultinak sikerül átlépnie az észnélküli hajszában azt a láthatatlan határt, amit nem kellett volna. Onnantól meg nem lesz visszaút.
- A hozzászóláshoz be kell jelentkezni
Szerintem a határ nem éles, és már elkezdtük az átlépését. Nem a techmultik, hanem mi, ellustult felhasználók.
- A hozzászóláshoz be kell jelentkezni
Nem is lustulás, hanem hülyülés. Olyanokat veszünk komolyan, akiket régebben kiröhögtünk volna, még régebben el is zavartuk volna.
Színes vászon, színes vászon, fúj!
Kérem a Fiátot..
- A hozzászóláshoz be kell jelentkezni
A határ definiált, neve is van, informatikai szingularitás. Egyetemi tananyagnak is része.
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
Ah, lofasz lesz ebbol nem hataratlepes. AI-nak csufoljak ezt a szemetet amit most mindenkinek el akarnak adni, mert a penz, penz, penz mar megint a penz. Pedig az egeszre max a "mesterseges" szo igaz, de ez max egy nagyteljesitmenyi statisztikai elemzo, amiben nincs semmi intelligens. Van mar ra betuszo (LLM), de marketing szempontjabol nagyon jol jott atkeresztelni AI-ra. Egetjuk a penzt, pazaroljuk az energiat, felegetjuk a foldet azert, hogy meg nagyobb lusta hulyek lehessunk, szar minosegu hamisitvanyokat gyartsunk, emberek veszitsek el a munkajukat es gyerekek legyenek ongyilkosok.
Gratulalok a nagyszeru fejlodeshez minden kedves resztvevonek! Kell a fasznak kategoria a talalmanyotok.
- A hozzászóláshoz be kell jelentkezni
Majd próbáld ki egyszer komolyabban, a Claude elég jó cucc.
A magyar ember jelképe a hátrafelé nyilazás. Vakon rohanunk a semmibe, miközben a múltunkat támadjuk.
- A hozzászóláshoz be kell jelentkezni
Egy egyszerű magyarázatot tudnál adni, hogyan tud az AI olyan matematikai sejtést bizonyítani, amire emberi bizonyítás eddig nem létezett (így leírva sem lehetett)?
- A hozzászóláshoz be kell jelentkezni
Ehhez nem ártana tisztában lenni azzal is, hogy AI nem egyenlő mesterséges neurális hálókkal, hanem szélesebb kategória. Az evolúciós algoritmusok kifejezetten fontosak olyan komplex optimalizálási problémák megoldására, ahol a megoldási tér óriási, és nincsenek ismert, direkt matematikai módszerek a legjobb eredmény elérésére.
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
a tőzsdelufi talán kidurran, talán csak leereszt, a témának ez a vonatkozása nem is igazán érdekel. Csak annyiban, hogy a lufi miatt most $ tíz vagy akár százmilliárdok és ezzel eszközök, és kiváló szakemberek kerülnek ebbe a szektorba.
A szektorba áramló erőforrások viszont szerintem hatalmas fejlődést tesznek lehetővé llm és más generatív modellek területén is, és általában mi módszerek tömeges hozzáférhetővé válásában - pl. felügyelet nélküli tanulás és más mélytanulás témák, ezek eléggé mélyreható dolgok és gyakorlatban használható területek nyelvi modellek nélkül is. Ez a műszaki/szakmai vonal nagyon nem lufi. Szűkebb szakmámnál maradva (sw dev), személy szerint úgy látom egyre inkább, hogy egy GPT5 szintű LLM simán alkalmas olyan sw gyártási munkafázisoknak az automatizálására, amikben a low-level specifikáció2forráskód feldolgozás történik (kb. a kóderek kiváltása). Egy megfelelően letaszkolt sztorinál, taszkonként részletes LLD-kből a GPT5 is elfogadható kódot állít elő, nem veszíti el a kontextust, betartja az előírt konvenciókat, gyors stb. Lokálisan futó kód készítő modell (még?) nem tudja ezt a mutatványt - legalábbis az én szempontjaim szerint nem. Ez még persze nem az egysoros követelményből full alkalmazás készítés, még csak nem is HLD-ből, de egy-egy jól fókuszált LLD-ből (+konvenciók stb) indulva amik a kódolási munkafázis bemenetei és feltételei, humán kódkészítő helyett LLM-et is meg tudok hajtani. Ez pedig nem lufi, hanem egy középszintű kognitív szakmunka prod szinten is nagyjából elfogadható gépesítése, költséghatékonyan, az ipari gyakorlatban. Ha pedig én ezt tapasztalom a napi gyakorlatban, akkor elhiszem, hogy MS, google, meta új kódok > harmadát már mi készíti.
- A hozzászóláshoz be kell jelentkezni
Ez mind szep es jo, de az igazsag ezzel szemben az, hogy erre igazabol nincs szukseg. Lassan mar vegtelen mennyisegu programozo el a foldon, akik vegtelen mennyisegu kodot kepesek eloallitani valtozo minosegben ami az iparag szamara nemhogy elegendo, de kifejezetten sok is.
Ha pedig nem ilyen szakbarbar modon kozelitunk a "termekhez" (talalamanyhoz?), hanem figyelembe vesszuk, hogy milyen mas szektorokba es teruletekre eroltetik ra az AI-t es hogy ott milyen minoseget allit elo, nem beszelve arrol, hogy a minosegre tekintet nelkul, pusztan anyagi megfontolasbol szuntetik meg hus-ver emberek allasait, akkor tisztan latszik, hogy egyelore a jelenseg joval nagyobb kart okoz, mint amennyi hasznot hajt.
Konkretan szemetet csinaltatnak az AI-val olyan kreativ teruleteken ahol egy kezdo junior az elso munkaheten jobb minosegu termeket allit elo, de nem kell, mert ott az AI ami kvazi ingyen dolgozik, tehat az excelben jobbak a szamok ugyhogy megvagyunk. Ez a lufi. Mert a szemetbol egy ido utan a vasarlonak elege lesz es nem veszi meg a termekedet, de a godorbol mar nem tudsz kijonni, mert kirugtad aki megjavithatna a termekedet.
Egy pelda: https://www.theverge.com/news/644117/microsoft-quake-ii-ai-generated-te…
Ez nem technologiai csoda, hanem netto szemet. Amire idot, energiat es penzt pazaroltak merhetetlen mennyisegben.
- A hozzászóláshoz be kell jelentkezni
Vagy csak simán lecseng egyszer a hype, és be fog állni egy egyensúlyi állapot, ahol arra használják az adott technológiát, amire való.
- A hozzászóláshoz be kell jelentkezni
Mint az atombombat.
- A hozzászóláshoz be kell jelentkezni
A XIX. század végén úgy tartották sokan, hogy minden amit fel lehetett találni már fel lett találva. Nem öregedett jól ez a vélekedés.
A programozók száma a Földön közles sem végtelen. A programkód írásának képessége az új írástudás. Amikor már minden faluba jutott egy írástudó vajon felvetődött, hogy nincs szükség több írástudóra? Hiszen már mindenki közelében ott van egy, akit meg tud kérdezni vagy le tudja íratni vele amit akar.
Jöttek az Írók, egyre több, újságírók, kodifikátorok, műszaki írók. Sőt amikor az általános tankötelezettséggel szinte mindenki megtanult írni olvasni, utána is maradtad írók, akiknek ez a foglalkozásuk. Sőt még többen lettek, mert végre tömegek lettek képesek novellák, könyvek olvasására.
Programkódírás terén ma még ennek a közelében sem vagyunk. Egyébként ma már nem is programozóknak szokás hívni a szakma képviselőit. Inkább szoftvermérnök, és hasonló terminológiák vannak használatban. De a tesztelők között is a magas szinten levők rendelkeznek a programkód írásának képességével.
Microsoft’s Muse AI -féle Quake II tech demo valóban nem csoda. Adott egy nyílt forráskódú régi játék ami szerepel az AI tanítómintái között. Majd az AI újraírja a kódot bénán, 10 fps 300 x 180 felbontáson, amit azóta sikerült 640 x 360 felbontásra feltornázni. Hatalmas eredmény! :-)
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
> Majd az AI újraírja a kódot bénán, 10 fps 300 x 180 felbontáson
francokat! nem irt az AI semmilyen kodot, hanem valos idoben generalja (szintetizalja) a kepet/videot... megtanitottak milyen inputra hogy nezett ki az eredeti jatek es az alapjan lerajzolja kepkockankent...
es ilyen szempontbol igenis nagy csoda. kepzeld el mondjuk megtanitjak neki Tarantino osszes filmjet a forgatokonyvekkel (mint input) egyutt, aztan mar lehet is generaltatni az uj filmeket az o stilusaban :)
- A hozzászóláshoz be kell jelentkezni
Igazad van! Ez nem semmi. Sőt elképesztő.
Szerintem viszont ebből még nem következik, amit Tarantino filmjeiről írtál. Nem tudna egy teljes, koherens mozifilmet összehozni AI ma.
Működne a stílus és esztétika. Az AI tökéletesen elsajátítaná a vizuális stílust. Generálna olyan jeleneteket, amikben ott vannak a jellegzetes kameraállások, hirtelen vágások vagy az 1970-es éveket idéző szándékosan gagyi színvilág. A párbeszédek hangulata tarantinós lenne ha csak külön vizsgáljuk őket. Képes lenne olyan dialógusfoszlányokat írni, amik tarantinósan hangzanak. Tele lennének popkulturális utalásokkal, kocsma-filozofálgatással, feszültséggel. Az AI képes lenne lenyűgöző 1-2 perces, önmagukban megálló jeleneteket generálni. Például egy feszült helyzetet egy étteremben, egy laza autózós beszélgetést, vagy egy stilizált erőszakos jelenet. Ezek a rövid videók megtévesztésig hasonlítanának egy valódi Tarantino film részletére.
De ahol az egész szétesne szerintem az a pont, ahol a hosszú távú koherenciára lenne szükség.
Ezek a hiteles tarantinós, de különálló jelenetek nem állnának össze egy értelmes történetté. Olyan lenne, mintha megnéznénk egy Tarantino film legjobb pillanataiból összevágott, de random sorrendbe rakott megatrailerét. Hiányozna a cselekmény íve, az ok-okozati összefüggés a jelenetek között.
Egy karakter, aki az egyik jelenetben kemény és hallgatag, a következőben lehet, hogy vicces és beszédes lenne, mert az AI nem tudná fenntartani a személyiségét a film teljes hosszán keresztül. Egy szereplő, aki meghal a 20. percben, minden további nélkül megjelenhetne az 50. percben egy másik jelenetben. Na jó ez azért simán telefér Tarantinonál. :-)
A filmnek nem lenne eleje, közepe és vége. Nem épülne fel a feszültség, nem lenne katarzis. Csak tarantinós pillanatok lennének egymás után dobálva.
Nagyjából valami olyasmi eredménye lenne mint egy emberi álom, egy Tarantino mozimaraton után. A jelenetek önmagukban álmunkban valóságosnak és logikusnak tűnnek. De amikor felébredünk és megpróbáljuk elmesélni az egészet, rájövünk, hogy a történetnek semmi értelme, és a helyszínek, szereplők logikátlanul váltakoztak.
Valami ilyemi lenne az eredmény: https://www.youtube.com/watch?v=sEjUhjwSmaM csak valódi filmes mozgó jelenetekkel nem generált álló képekkel.
A Quake2 demó szerintem azért volt sikeres, mert ott a koherenciának csak pillanatról pillanatra kellett fennállnia. Egy film esetében a koherenciának két órán keresztül, egy nyílt, narratív rendszerben kellene működnie.
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
ebben teljesen igazad van, jelenleg(!) valoszinu igy mukodne. vagy meg igy se. de ahogy par eve meg 512 majd 2048 token volt a context size (gpt3-nal), most meg mar millio tokenes contextekkel mennek az LLM-ek, ez az idobeli korlat is eltunik eleg gyorsan. ha mar nem csak az utolso par masodpercre/kepkockara fog emlekezni hanem az elozo 3 orara is akkor tud koherens kimenetet produkalni.
egy regi/kicsi llm 3 kerdes utan mar nem emlexik honnan indult a beszelgetes mert kozben az kifutott a context ablakbol, a maiaknak meg beadhatsz 1000 oldal pdf-et es kerdezhetsz a tartalmarol, latja egyszerre az egeszet, es azt is amit generalt sot el is tudja menteni, ugy remlik az uj chatgpt-ben mar emlexik a korabbi contextekre is.
- A hozzászóláshoz be kell jelentkezni
Hasonló élmény lehetett mint amikor betanított konvolúciós neurális háló elkezdte felismerni a malwareket a képre konvertált fájlokon. Mondjuk sok false pozitívval. De ez még grandiózusabb flow hűha.
A tarantino stílusú AI filmgenerálásban én azért látok még buktatókat. Teljesen igazad van abban, hogy a memória-korlát, a kontextusablak mérete eltűnőben van. Ez a szükséges, de nem elégséges feltétele a koherens, hosszú formátumú alkotásoknak. A probléma lassan átalakul egy technikai memória problémából egy sokkal nehezebb, az intelligencia mélyebb rétegeit érintő alkotói és strukturális problémává. A fejlődés ütemét látva azonban egyáltalán nem kizárt, hogy a következő években ezen a téren is drámai áttöréseket fogunk látni. A Tarantino AI filmgenerátor tehát egyre közelebb kerül a valósághoz.
Illetve visszatérve a Quake2-re ebben a modellben az emberi agy biztosítja a hosszú távú koherenciát. A játékos a "rendező", aki a cselekményt irányítja. Az AI csupán egy rendkívül fejlett, intelligens kamera és világszimulátor, ami végrehajtja a rendező utasításait. A végeredménybe is ügyesen be van építve a játékos emberi agya is. Az emberi input a Quake2 demóban egyfajta külső mankóként vagy korlátként funkcionál, ami folyamatosan a helyes úton tartja az AI-t azáltal, hogy állandóan rövid távú, elérhető célokat ad neki. Enélkül a folyamatos irányítás nélkül az AI valószínűleg elveszne a saját generált világának logikai útvesztőiben.
Egy analógiával élve ez az AI egy tökéletes, hiperrealisztikus marionettbábu. Képes elképesztő mozdulatokra, de szüksége van egy bábjátékosra, a valódi emberi játékosra, aki a zsinórokat, az inputot rángatja. Emberi bábjátékos nélkül olyan lenne, mintha odatennéd a bábut a színpadra, és azt mondanád neki Adj elő egy darabot!. A bábu mozdulatlan maradna, mert nincs, aki mozgassa.
Ezért arra tippelek, hogy arra akarnának betanítani egy neurális hálót, hogy generálj Quake2 játékvideókat, az nem lenne ennyire sikeres ma még. Még úgy sem, hogy egy quake2 játékvideó sokkal gyengébb koherenciát igényel mint egy Tarantino film generálása. Szerintem a MoE megközelítés lehet a legeredményesebb a Tarantino AI mozihoz. De azt is megjegyzem, hogy már egyáltalán nem vagyok biztos abban, hogy igazam van.
https://www.youtube.com/watch?v=vFO7Cnoxdck
A játékmenetet elnézve, valóban elképesztő. De a hibák is érdekesek. Ahogy azt a top kommentelő megjegyzi valóban elég elfordulni egy ellenséget látva és jó eséllyel eltűnik. :-)
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
asszem igazad lehet, tenyleg nem a rendezot fogja ez a model kivaltani, hanem mindenki mast. diszlettervezot, szineszeket, operatort stb. a rendezore szukseg van, hogy legyen inputja a modelnek...
- A hozzászóláshoz be kell jelentkezni
es ilyen szempontbol igenis nagy csoda. kepzeld el mondjuk megtanitjak neki Tarantino osszes filmjet a forgatokonyvekkel (mint input) egyutt, aztan mar lehet is generaltatni az uj filmeket az o stilusaban :)
Huh, az tenyleg marha jo lenne, gondolom hasonloan ocska szemetet dobna ki magabol mint a fenti Quake-fos. Vagy te nem ultel te jatszani ele? Melyik volt a jobb elmeny az eredeti vagy ez low-res szar 10 fps-sel?
Tarantino filmeknel majd szepen ki fog derulni, hogy kellett hozza valami meg.... valami amit a fostalicska AI-junk az uristennek nem tud kifosni magabol akarhany GPU-t rakunk is ala. Ki erti ezt? Kerdezzunk meg valakit akinek van nemi fogalma arrol, hogy mi az a muveszet, a kockaknak meg szoljunk hogy nem kell mindent osszeszarniuk, mert csak budosebb lesz tole.
- A hozzászóláshoz be kell jelentkezni
En meghallgattam Tarantinotol jopar podcastet, ahol elmelkedik a vilag dolgairol.
Es bizony egy-egy filmje rengeteg *kutatast* von maga után. Rengeteg időt szán erre, rettentően alapos.
Csak két példa: Az Inglourious Basterds rendezését ahhoz kötötte, hogy talál-e megfelelő színészt a német antihos szerepére. És úgy vokt, hogy feladja, mert ez a szerep tényleg "eljatszhatatlan". Mígnem bele nem akadt Christoph Waltz-ba.
A Once Upon a Time in Hollywood-ban is rengeteget kutatott a Manson szekta utan, Tate-rol is kb. mindent tudott. Kb. egy szaktekintéllyé művelte ki magát, mielőtt a filmben az egészet az ő ízlése szerint újragondolta.
Ezekre egy AI nem képes. Az AI max egy visszhangja lesz a tarantino filmeknek. Hasonlít távolról, de ami újat ad, az kb. a barlanggjáratok üregei.
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
> Ezekre egy AI nem képes
hat az alapos kutatasra mondjuk pont kepes de mind1.
itt nem Tarantino volt a lenyeg, csak akartam irni egy random ismert rendezot es o jutott eszembe... csereljetek ki valaki kevesbe muveszire akkor. lehet hogy a legnagyobbakat - a kozeljovoben - meg nem fogja kivaltani, de az atlag netflix-fele szemetet gyartokat siman.
- A hozzászóláshoz be kell jelentkezni
Egyre jobb hirekkel szolgalsz Arpi. :)
Alig varom, hogy a technologia vegre eljusson oda, hogy percenkent akar tobb tucatos sebesseggel legyunk kepesek Netflix-fele szemetet gyartani. Ez kell erre a bolygora!
- A hozzászóláshoz be kell jelentkezni
Szerintem irreleváns, hogy szerintünk jó-e. Semmi ráhatásunk nincsen.
Honnan tudod, hogy a moziban játszott hulladék azt nem már most is valami AI generálta-e? Igazából sehonnan. Számítana egyáltalán, hogy AI generálta a forgatókönyvet, vagy egy forgatókönyvíró koppint le egy az egyben egy korábbi sikerfilmet?
- A hozzászóláshoz be kell jelentkezni
En nem szeretnek szemetet latni. Sem ember altal alkotottat, sem AI altal generaltat. Soha. Olyan filmeket szeretek nezni amik erteket kepviselnek: Ifjusag, A haz amit Jack epitett, Teljesen idegenek, Sunset Limited, Wall Street Farkasa, Ex Machina (temaba vago), Ejjeli Fereg, A fegyvertelen katona, Aljas Nyolcas, A Bunos stb. nehany azok kozul amiket mostanaban lattam es valodi, ertekes muveszeti alkotasok. Semmi egyebre nem vagyok kivancsi. Ha az AI kepes is lenne ilyenek eloallitasara, amire szerintem soha nem lesz, akkor sincs ra szukseg mert megcsinaljak hus-ver emberek is.
Szerintem az AI soha nem fog erteket eloallitani. Arra fogjak hasznalni amire a fold szarhazibb fele az ilyen dolgokat szokta hasznalni: fegyvernek. Politikusok a masik lejaratasara gyartott deep fake videokra es hasonlok. Azok fogjak tudni kiaknazni a benne rejlo lehetosegeket akik korlatlan eroforrassal rendelkeznek, vagyis mind kozul a leggecibbek.
Kozben meg azzal probaljak eladni, hogy ezt nezd milyen quake-et csinal, ezt nezd hogy utanozza ezt a festot vagy annak a halott szinesznek a hangjat (mar mennek a perek a hozzatartozoktol, hogy a jo edes anyatokat), vagy majd ennyi meg ennyi ember munkajat helyettesiti ami egeszen pontosan ennyi meg ennyi embernek rohadtul nem tetszik, stb, stb. Csupa-csupa olyan dolog amire senkinek semmi szuksege nincsen, csak arra jo, hogy az excel tablat lehessen vele polirozni.
Amire az AI (a.k.a. LLM) jo, az az, hogy korlatlan meretu adattomegbol bonyolult algoritmusok irasa nelkul kepes pillanatok alatt informaciot kinyerni, de sejtesem szerintem erre fogjak a legkevesebben hasznalni.
- A hozzászóláshoz be kell jelentkezni
Ha valamire hát pont az alapos kutatásra már ma is képes az AI. Ahhoz a kutatáshoz, ami egy Tarantino filmhez kell bőven elég már a mai tudása. Bár ezt már előttem is leírták. Tarantino egyébként is az amerikai konzumér filmipar gagyiságát szereti tükrözni a filmjeivel. Ez belátható időn belül AI-al is pont jól reprodukálhatóvá válik. Az emberi rendezőre viszont még hosszabb ideig szükség lesz. Ennek okait már korábban leírtam. Természetesen vélemény.
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
gondolom hasonloan ocska szemetet dobna ki magabol mint a fenti Quake-fos. Vagy te nem ultel te jatszani ele? Melyik volt a jobb elmeny az eredeti vagy ez low-res szar 10 fps-sel?
Jah, csak két évvel ezelőtt még nem tudott összefüggő szöveget írni, most meg már itt a "Quake-fos". Igazából fogalmunk sincs, hogy újabb két év múlva tudna-e (jó) filmet generálni. Még az is lehet, hogy igen.
- A hozzászóláshoz be kell jelentkezni
Még az is lehet, hogy igen.
Es azzal mit nyernenk?
- A hozzászóláshoz be kell jelentkezni
Napi 24 óránál több vizuális szemetet lehetne termelni és akkor netflix és társai előtti életvitelszerű tespedők komoly dilemma elé kerülnének, hogy mit nem tudnak megnézni. :-)
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
És szerinted a Metánál minek volt? Szívjóságból?
- A hozzászóláshoz be kell jelentkezni
Jogos.
- A hozzászóláshoz be kell jelentkezni
Úgy is mondhatnánk, hogy az új munkahelye miatt Bacik folytatni a kernelfejlesztést.
- A hozzászóláshoz be kell jelentkezni
Erős tipp, hogy inkább proprietary mód folytatja. A scale-out optimalizálás lesz a feladata. Milliárd dolláros infrában ha csak egy százalékot optimalizál, már kitermelte a súlyát aranyban többszörösen. Viszont most ez verseny a nagyok közt, meglepne, ha ezt a részét hamar látnánk opensource megosztva.
- A hozzászóláshoz be kell jelentkezni
mondjuk en csak azt nem ertem, az AI-s cegek miert nem invesztalnak hw fejlesztesbe? az LLM-ek szamolasahoz 99%-ban szorzas es osszeadas kell, egyszeruen osszelegozhato logikai kapukbol csak vegtelenul sok kell belole, es ami a legfontosabb: gyors memoria. ehelyett veszik a meregdraga gpu-kat aminek a 99%-at ki se hasznaljak.
- A hozzászóláshoz be kell jelentkezni
Szerintem invesztálnak, de mivel a piac most arról szól, hogy a modellekkel kell minél nagyobbat virítani, ezért nincs (nyilvánosan) sorozatgyártás. Közben azért a Google is nyomja a TPU-kat, meg ki tudja még, melyik cégnél mi van a puttonyban.
- A hozzászóláshoz be kell jelentkezni
Ezt tegnap találtam, elég nagyrészt TPU-król szól (+ egy bónusz chapter a GPU-król): https://jax-ml.github.io/scaling-book/
- A hozzászóláshoz be kell jelentkezni
Nekem csak azt magyarazza el valaki, hogy az nvidia AI vonala (jetson *) miert kokany linuxszal fut?
kokany linux: fognak egy ubuntut, lehetőleg így 2025-ben a legfrissebbet: ubuntu 20.04. Fogjak a saját binaris szarjukat, megpeccselik a kernelt jó egyedileg, az egészet össze-tar-oljak, és kész a produktum.
Ráadásul arm-os.
Kb. megvagy lőve ha bennevan a tarban amit szeretnél, akkor jó, ha nincs(pl másik utemezo) akkor a vége az, hogy úgy jártál.
De ezt a hardvert csak linuxszal árulják. Nincs is windows vagy bármi egyéb hozzá. Annyira leköpik az egész linuxos ethost, hogy nem lehet szavakba önteni.
Azt már nem is írom, hogy az általuk hozott számokat csak max. a mesében (termékismertető) lehet hozni, a valóságban egy optimalizalatlan osszehanyt tar-od van.
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
Egyrészt Ubuntu alá azt teszel föl, amit akarsz.
Másrészt elég jól dokumentálva van, hogyan csinálj magadnak saját kernelt.
Harmadrészt van Yocto is. Nem hivatalos, de elég friss: https://github.com/OE4T/meta-tegra
- A hozzászóláshoz be kell jelentkezni
szerencsere az nvidian kivul is van elet, igy sikerult kukazni a komplett projektet (legalabb 20 jetsonnal).
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
Inkább azt mondanám, hogy ARM helyett pont az ilyenek miatt ma is jobb még a szutyok PC. Ráadásul már egy ideje lehet kapni miniboard, mert cardsize board kivitelben is versenyképes fogyasztással.
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
arm maradt.
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
gyumolcsfeldolgozas, de "mobil", azaz asztali szgep/videokartya kilove. Plusz egy valagnyi erzekelo bemenet es kimenet. Es kamera feedek. Plusz pneumatika meg ilyenek.
A vicc az egeszben, hogy annyira nincs kozosseg az nvidia korul, meg minden hibat lezarnak ugy (amibe mi is belefutottunk rendszeresen), hogy a kerdezo a hulye. Meg naluk nem jon elo.
De ilyenekre gondolj, hogy hdmi monitorral 30bol egyszer belefagy bootolaskor (fekete kepernyo marad, kernel soros kimeneten valami videokartya nyug), es a valasz: hasznalj displayport-os monitort.
Es annyira optimalizalatlan szar, hogy lenyegeben ezert sikerult kukaznom az egesz nvidia vonalat a cegnel, mert van elet az nvidian kivul is. Igaz papiron 10x lassabb, de a valosagban elhanyagolhato a kulonbseg a mi felhasznalasi modunkra.
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
És mire váltottatok?
Nekünk több nVidia-s projektünk van, de egyelőre komoly gondba nem futottunk bele. A legnagyobb probléma eddig az volt, hogy ha nem másoljuk le a devkit-et, akkor nem fog működni, mert a különböző perifériákat még az elején egy zártforrású kód konfigurálja föl, és annak a forrását nem adják ki.
- A hozzászóláshoz be kell jelentkezni
Azt pont nem irhatom ki a netre, mert jelenleg futo(es nem kukazott) projekt:(, bocsi. De korbe kell nezni, mert masnal lehet a modellt annyira optimalizalni, hogy karcosan, de befer.
Az nvidia egy komplett zsakutca. Eleve devkittel vettuk, mert ugy olcsobb, mint kulon a som. Plusz az elejen a flasheles nem is mukodott a sajat nyakunkkal. De a nyak is egy horror hozza (hdmi, usb hubok, wifi) szoval van rajta minden, mint a bucsuban. Egy-egy revizio egy halom pénz, es ide már tudas is kell rendesen (6 v. 8 retegu nyak, nagysebessegu jelek, radio, eros aram).
Egy penztemeto. Es minden binaris blobos formedveny. Valahogy ugy indul, hogy van 12 particio amibol 2-ot használ (uefi, linux).
Kb. a linux meggyalazasa. En szerintem most kell eladbi az nvidia reszvenyt, mert 2 ev mulva nem lesz sehol. Ilyen hozzaaallassal semmikepp.
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
"Valahogy ugy indul, hogy van 12 particio amibol 2-ot használ (uefi, linux)."
Számold újra, lesz az 42 is. Én egyszer megszámoltam. :)
Nvidia alternatívája sebességben a Qualcomm lehet. Az szintén zsákutca, bár lett vele egy sikeres projektünk.
Ha ARM-os sebesség kell, akkor szóba jöhet még a Layerscape, de az hálózati procinak van kitalálva, így túl drága.
AI-hoz, vagy hasonlóhoz talán jó még az i.MX8, 9, mert azokban is van NPU.
A legjöbb SW környezete az STM32-nek van, de sebességben nagyon le vannak maradva a többiektől.
Más 64-bites ARM-okkal nincs tapasztalatom. Illetve dehogynem: Xilinx/AMD Zynq. Na, azok jó erősek. :)
- A hozzászóláshoz be kell jelentkezni
Ezek meglehetősen erős kijelentések, amiknek megkérdőjelezhető az alapja. NOT works for me nem erős érv!
Elhiszem neked, hogy a Jetson szar, és a Nvidia tojik az ügyfelei problémáira. Jellemző rájuk. De a Jetson nem is a legfontosabb termékük.
"A vicc az egeszben, hogy annyira nincs kozosseg az nvidia korul"
Ez az állítás nem igaz! Megértem a frusztrációdat az Nvidiaval kapcsolatban, de az objektív tényeken ez nem változtat. Ma ML/AI területen az Nvidia a standard. CUDA nélkül is kivitelezhető egy projekt, de sokkal több a munka vele és az igénybe vett idő is jelentősen nőni fog. Pont azért mert hatalmas közösség épült az Nvidia hardverei köré, az nvidia hozzáállása ellenére is. Számtalan feladatra találsz opensource megoldást, még válogathatsz is közöttük nvidia hardverre alapozva.
Nem véletlenül vásárolják az AI óriásai is, és vásárolták már a H100 előtt is. Pedig a kriptó hullám óta gátlástalan pénzbehajtó az Nvidia. Sokkal kedvezőbb áron lehetne AMD GPU-ra építeni, mégsem ez a fősodor.
"azaz asztali szgep/videokartya kilove."
Ha tervezés nélkül, indulatból ketrecbe zárod magad nyilván nehezebb lesz minden. Bőséges a kínálat ma már jetson szintű kicsi fogyasztású PC alapú hardverből. Mini-ITX board és NVIDIA RTX A2000 low profile kártya.
vagy direkt ipari felhasználásra szánt egybe box pc OnLogic, Neousys, vagy Axiomtek termékek. Azok pont erre valók.
"Az nvidia egy komplett zsakutca."
Neked, nektek nem működött. Talán rosszul választottál Jetsonnal, inkább ipari PC kellett volna. Ettől nem húzhatod rá a vizes lepedőt a komplett Nvidiara.
"En szerintem most kell eladbi az nvidia reszvenyt, mert 2 ev mulva nem lesz sehol."
Ezt mondták sokan anno a "kriptó hype" kidurranása utáni időre is. Nem öregedett jól.
Nvidia azóta meglovagolta az AI hullámot.
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
"A vicc az egeszben, hogy annyira nincs kozosseg az nvidia korul"
Ez az állítás nem igaz! Megértem a frusztrációdat az Nvidiaval kapcsolatban, de az objektív tényeken ez nem változtat. Ma ML/AI területen az Nvidia a standard
En az nvidia jetson vonalarol irtam, ami lényegében egy sbc npu-val.
Lehet, hogy a desktopos cuda bebetonozza az elsőbbséget AI vonalon.
De a jetson vonal eletkeptelen. Egesz egyszeruen semmi felhasználói bazis nincs.
Szerencsere van mar millio alternativa, szerintem ez a jetson vonal kompletten ki fog halni.
Mindent is kell kore tervezni, kell egy komoly harderes csapat aki nyaktervezes en otthon van. Kellenek linuxosok mert millio nyugje van, es valakinek meg kell fixalni hazon belul. Es kell szoftveresek es ai-sok.
Az alternativa meg adja kompletten az sbc-t kelloen belove, es csak az aira kell koncentralni. Ha a rapsberry pi is kijon valami npu-s lappal, akkor aztan tenyleg redony az nvidia jetsonnak.
Olyan szinten leszarjak a vasarloikat, hogy nincsenek ra szavak.
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
Itt is hasonló folyamatok történhettek, mint a Gamer piacon. Jött a sokkal zsírosabb piac az "okosautóké", ahol a NVIDIA DRIVE Orin egyre erősebb jelenléttel bír. Tesla elvből nem veszi, de az old-school autógyártók szinte csak erre építenek, kompetencia hiányában, sőt a BYD is át fog állni erre. Őket nem is értem miért dobták el a Tesla szintű DiPilot -jukat a Drive Orin és a vele csomagban érkező QNX zárt forráskódú rendszerért, ami nem az övék. Ha ezt is megszankciózza az USA megbánják még, hogy eldobták a saját megoldásukat.
Szóval leszarják a Jetsont és inkább a Drive Orint nyomják.
Az Nvidia Drive Orin hasonlóan egy felturbózott Nvidia Jetson, ARM Hercules CPU magokkal, Ampere-architektúrájú GPU-val, DLA-k és PVA, mint a az RTX Pro kártyák a Geforce gamer kártyák felturbózott testvérei sokkal drágábban.
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
Amikor viszitek ki a szemetet, szólj lécci, tartanék oda egy vászontatyót.
- A hozzászóláshoz be kell jelentkezni
sztem nem akarod magadat szivatni vele. Normal aira hasznavehetetlenul lassu, es egy arban van egy rtx 5070-es kartyaval es tizedet se tudja sebessegben.
Olyan hulyesegekkel csesztem el az ertekes idot, mint kernelforgatas, dto forgatasa, soros porton keresztul uefire scripteket irtam. A user program irasa helyett.
Olyan hibaim voltak, hogy 20 gepbol 2 nem bootolt ugyanavval az imagedzsel.
Nvidia az ai windowsa. Miota elhagytuk kb. minden sikerul elsore. Konkretan kesz az uj gep, az nvidiason meg mindig vannak nyitott bugjaink. Mar azon megy az agyalas, hogy kompletten kukazzuk a regi gepek nyakjait, mert olcsobban kijon mint mernokoradijban fixalni az nvidiast. Aszem az meg mindig ubuntu 22.04-en van, de egy-egy ilyen jetpack frissites vagy egy honapnyi bugfix utana.
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
Végülis nem ok nélkül lett ez a faszkalap cég az első "4trillion$company". A desktop pc gaming-re meg szarnak már kovid óta magasról, látszik a driverek minőségén. Végülis ha megvesz a hülye másfél millió forintért egy 5090-et, ami ha szerencséje van nem fog összeégni meg leolvadni a fostosan megtervezett 12v highpówer csatlakozó miatt, akkor jönnek a defektes gagyi driverek.
- A hozzászóláshoz be kell jelentkezni
Intelt vettem :D
- A hozzászóláshoz be kell jelentkezni
Köszi, hogy megosztottad a tapasztalataidat (fél évvel ezelőtt :-)
Egy apró megjegyzés, XeSS működik Radeon kártyákkal is, sőt sok esetben jobban mint az AMD saját megoldása. És ez még Linux Steam Proton környezetre is igaz.
Ahol problémát látok az az Intel GPU Linuxos támogatása. Most a tömeges Intel leépítések után itt nagy visszaesés lehet. A Linuxos támogatásról milyen tapasztalataid vannak a leírtakon túl?
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
Nem sok (konkrétan 0), mert csak windows alatt használom. A kirugdosási időszak környékén (elmúlt 3 hónap) látványosan belassult a driver-fejlesztés üteme még itt is. Most az elmúlt 1 hónapban mintha megint erőre kaptak volna, majd kiderül.
Linux alatt meg továbbra sincs (opensource?) xess, ez nagy szégyen nekik.
Illetve megjelent a napokban a Pro B50, a kisebbik workstation kártya. Ezt nagyon ígérgetik h. jól fog menni linux alatt. Passz, nem tudom. Meg azt sem, h. akkor a b570/b580 miért megy olyan gyengén linux alatt, hiszen a Pro B50 is belül pont ugyanaz a Battlemage.
Érdekes időszak lesz. Az nvidia lenne már komolyan megszorongatva valahogyan, hátha visszatérnek a földre! Ami most van az nagyon nem jó a desktop PC (játékos) társadalomnak.
- A hozzászóláshoz be kell jelentkezni
Esetleg ha van neked MVC-s 3D videód, valami.mk3d ki tudnád próbálni, hogy a Bino3D tudja kezelni? Itt vannak 3D MVC mintavideók ha nem lenne. Teljesen GPU driver függő. Nvidian nem működik egyik kártyámmal sem. Viszont Intel UHD Graphics 630-cal tökéletesen működik. Ezért is tettem el egy laptopot. Legegyszerűbben úgy tudod ellenőrizni ha az outputot red/cyan-ra állítod. Akkor jól látható a közelebbi tárgyak szereplők jobb és bal szélén a piros és kékes eltérés. Valami ilyesmi. Ha a sima 2D képet látod, akkor nem támogatja az MVC 3D dekódolást.
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
Én csak azt nem értem, hogy az elmúlt 25 évben miért nem foglalkozott gpu+linux driver írásával az Intel?
Pénze volt, lehetősége volt. Lenne egy normális driverkörnyezet amihez mindenki más idomulna, kb. 10 főt kellett volna foglalkoztatnia 25 éven keresztül es jobban be lenne betonozva, mint az nvidia.
Egy opensource linuxos videokartya driverből a melo kb. 10%-a windowsost gyártani. A hardveres bugok jóresze már le van kezelve, az architektura ki van találva.
Komolyan mondom, olyan mintha a cégek tetején politikusok kormányoznának.
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
Komolyan mondom, olyan mintha a cégek tetején politikusok kormányoznának.
Bingó!
- A hozzászóláshoz be kell jelentkezni
Latom, megy a szakertes, csak epp kisse gyenge ismerettel. Talan meg a 830-assal indult a linux driveruk, aztan jott a 915 generacio, ... alig ket evtizede. Igen komoly rahatasuk volt a fejlesztoiknek a linuxos DRM/KMS alrendszerekre, ossze is dolgoztak a tobbi fejlesztovel az API-k kialakitasaban, pl. az AMD-s csapatnak is sokat segitettek, akik azzal probalkoztak eleinte, hogy a windowsos driveruket minimalis modositassal athozzak linuxra (ami nem volt eppen egyszeru, biztos azert, mert nem a megfelelo szakertot kertek fel innen a hup-tol). Egy idoben erosen nyomta az Intel a sajat compute okoszisztemajat (oneAPI). Van OpenGL es vulkan driveruk is, funkcionalitas kapcsan lasd pl. mesamatrix.net
- A hozzászóláshoz be kell jelentkezni
Mar ott megoszlanak a vélemények, hogy az Intel beépített szutykai egyáltalán videokártyának számítanak vagy sem.
Azt ne feledjük,hogy onnan indult, hogy ne kelljen az asztali gepbe az oemnek videokartyat venni, mert epphogy kepet meg tud jeleniteni. (aztan jott a full flash video igeny esatobbi).
És pontosan ezt mondjuk, mint te (csak minusz a sertegetes), hogy az Intel csinált is videokártyát meg nem is, írt drivert meg nem is. Nem volt sose egy elhatározás, kb. mint most az intel arc sorozatnál, hogy akkor legyen videokártya (most meg ugye a driverre szarnak ra, amennyire en olvasom, de javitsatok ki, hogy ez igaz-e vagy sem foleg linuxon.)
Nah mindegy. Aki akarja, az érti.
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
Sok rosszat lehet mondani az Intelről az elmúlt évtizedben mutatott produkciója után. De azt, hogy gyenge drivereket készítettek volna pont nem!
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
Az ethernet / wifi drivereiket évekig kb 2-heti gyakorisággal updatelték.A management engine (az most driver v. firmware?) cve listája meg hosszabb mint a szaknévsor. Hirtelen így ennyi.
- A hozzászóláshoz be kell jelentkezni
Az ME szerintem egyértelműen firmware. Hát az valóban eléggé gennyes pont, egyben erős érv az AMD vásárlása mellett. Linuxos driver támogatásuk viszont legalábbis eddig elég jó volt. Lehet nekem volt szerencsém de nem volt bajom velük.
“Az ellenség keze betette a lábát”
- A hozzászóláshoz be kell jelentkezni
es ami a legfontosabb: gyors memoria
Vsz ez a legszukebb keresztmetszet, igen.
- A hozzászóláshoz be kell jelentkezni
Jól teszi, érdemes is felhagyni az érdemi fejlesztéssel, és muszáj felszállni az AI bullshitvonatra. Gondolom jobban fizetik, de majd rájön, hogy hosszú távon hibát követett el.
“Windows 95/98: 32 bit extension and a graphical shell for a 16 bit patch to an 8 bit operating system originally coded for a 4 bit microprocessor, written by a 2 bit company that can't stand 1 bit of competition.”
- A hozzászóláshoz be kell jelentkezni
Az AI körül valóban rengeteg a bullshit de messze nem csak az. Nehéz kiválogatni az tény.
zászló, zászló, szív
- A hozzászóláshoz be kell jelentkezni