Gondoltam játszok egy kicsit az AI-al, de kevés infóm van a vas kiválasztásához.
Úgy látom házi körülmények között az Nvidia videó kártya a nyerő, de nem tudom mi alapján válasszak kártyát? A traning-nél mi számít, a Tensor Core, a CUDA vagy valami egyéb?
1 vagy 2 db RTX3080 TI felé hajlok, csak gondoltam a tettek előtt rákérdezek.
Update (2025-01-11):
A vas egy RTX3090 lett egy HP Z4 G4 workstation-ben (CPU: W-2245, RAM: 64Gb, Storage: 1Tb SSD).
Indulhat a buli, folytatás itt.
- 2118 megtekintés
Hozzászólások
játszom*
AI-jal*
gondoltam[vessző].....*
nem tudom[vessző]....*
- A hozzászóláshoz be kell jelentkezni
Ha már, illene néhány saját szót is belerakni, nem csak grammar naziskodni, akkor lehet, hogy szívesebben fogadnák az észrevételeidet.
- A hozzászóláshoz be kell jelentkezni
szerintem o egy AI. 4 ora alatt megtanulta a magyar nyelvtant, azota elvezkedik :)
- A hozzászóláshoz be kell jelentkezni
> A traning-nél mi számít
a memoria! ha bele se fer a model akkor tokmindegy hany cuda van, mert egyet se tudsz hasznalni :(
en tavaly kiserleteztem sajat (L)LM modell epitesevel, itt leirtam a tapasztalatokat.
a lenyeg, hogy egy 24GB memorias rtx3090-el 200-400 millio parameterest (kb GPT-2) lehet tanitani, nagyobb mar nem fer bele.
osszehasonlitasul a legkisebb LLAMA is 15x ekkora, a nagy pedig 70 milliard parameteres... a chatgpt allitolag 1000mrd.
az LLM-eket sokszaz A80-al vagy mas 80GB memorias gpu-val tanitjak (ujabban meg P200-on).
persze tanulashoz, kiserletezeshez eleg egy kis modell is, nekem egy hetig ment a train es kozben folyamatosan lattam ahogy fejlodik (kozbe cpu-val futtattam teszteket a checkpointokbol)
ami meg kelleni fog (es ezt nehezebb beszerezni mint egy rtx-et) az a 10+ GB tiszta szoveg. legalabbis ha magyart akarsz :)
- A hozzászóláshoz be kell jelentkezni
Köszi, benned bíztam, hasznos volt a blog.
Először tanulás és kísérletezés a cél, aztán pedig nagyon célspecifikus inkább SLM mint LLM.
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
Választhatsz egyszerűbb utat is, RAG-ot (Retrieval-Augmented Generation) már kész llm-re és akkor a létező doksikból keresi ki neked a választ. Pont ezzel terveztem szórakozni a következő hetekben.
- A hozzászóláshoz be kell jelentkezni
Subscribe. Én valami ilyesmit szeretnék, netes kereséssel összekötve. Olyasmit, hogy itt egy API doksi, írjunk ebből kódot.
- A hozzászóláshoz be kell jelentkezni
Multi-GPU, multi-node tréning működik. Ökölszabályként a memória mérete és az FP16-os teljesítmény számít. Lakossági szinten a csúcs egy dual 4090-es gép (kártya: inno 3d vagy msi slim), ezután jön a tinybox (https://tinygrad.org/#tinybox). Jó kérdés persze, hogy miért nem tesz az Nvidia több memóriát ezekre a kártyákra :) A 24 vagy 16 GB-os kártyákat nézd (https://www.nvidia.com/en-eu/geforce/graphics-cards/compare/) Kezdetnek: https://www.philschmid.de/fine-tune-llms-in-2025
- A hozzászóláshoz be kell jelentkezni
vagy lehet ilyen volumennel mar jobban megeri berelni... anno nezegettem es nem olyan veszes az A80-as node-ok berleti dija. persze attol fugg mennyi idore kell.
- A hozzászóláshoz be kell jelentkezni
A válasz elég egyértelmű, nem akarja kannibalizálni az ipari kártya piacát. Az már jobb kérdés, hogy hogyan veszi rá azokat a gyártókat, akik csak a gamer piacon vannak jelen, hogy ne kezdjenek egymással versenyezni RAM méretben. Vicc, hogy gyakorlatilag 50% árkülönbség is tud lenni ugyanazon chip-et tartalmazó kártyák közt, miközben a gyártó "tuning" paraméterei és a ledek száma/színe kb csak a különbség.
- A hozzászóláshoz be kell jelentkezni
Pénzt és energiát nem sajnálva vettem egy jó kis laptopot. Azóta eltelt 13 év és a 2 magos gen 2 i7 már nem számít ütősnek. (Egy gen 13 i7 mag kb. 4x gyorsabb, és manapság tucatjával vannak a magok, igaz nem mind egyforma.) Régi vas, 8GB RAM, GPU nuku. Így álltam neki LLM-mel játszani, és persze saját tudással felvértezni RAG-gal.
A HW eléggé lelimitált, így dockerben futtattam ollama-t, llama3.2 1b és 3b-vel. Az 1b sebessége nem volt vészes beszélgetéshez, de néha csúnyán félresiklott. A 3b elég jól fogta a problémákat, jól is kódolt mindenféle nyelven, de 1 perc várakozás sajnos befigyelt.
A RAG okozta a lassulást, mert az minden prompthoz még odadobta a releváns doksikat (txt, md forráskóddal megspékelve, py és ts források). Meg persze a contextet is oda kellett adni minden alkalommal. A py kódot most nem dobom ide, Gemini vagy ChatGPT megírja bármikor, de lényegében sklearn kellett csak hozzá a RAG miatt. RAG, context és ollama kezelés mindenestül kb. 70 sor. Na jó, a system prompt még elvitt pár sort, mert le akartam korlátozni, hogy miről beszélgethet. A beírt kérdéshez a megfelelő doksik előásása kb. egy tizedmásodperc lehetett, ami nagyon meglepett.
A tanulság: Megfelelő hardveren mindenféle szaktudás nélkül is csodát lehet tenni.
- A hozzászóláshoz be kell jelentkezni
de ő betanítani akarja, az más kapacitásigény. Futtatni akár mobilon is lehet pl. llama.cpp 3B (q4) van is példa.
- A hozzászóláshoz be kell jelentkezni
Az attól függ, hogy a betanítás mit jelent. RAG-gal is el lehet elég jó eredményeket érni, pl. egy webshop aktuális kínálatához és a termékek bemutatásához elég lehet. Ehhez manapság egy kenyérpirító számítási kapacitása is elég :D. Nyilván egy PEFT sokkal jobb, csak hát én azt meg sem mertem próbálni.
- A hozzászóláshoz be kell jelentkezni
es tudsz pl. 1B-3B korul magyarul jol beszelo modellt? nagyobb se sok van...
- A hozzászóláshoz be kell jelentkezni
Erre a kérdésre II. József már 240 éve válaszolt :D
- A hozzászóláshoz be kell jelentkezni
Megkérdeztem a ChatGPT-t, BERT (mBERT, HuBERTUSz, stb.) alapon több is van, igaz 1B alatt, a többi pedig 7B és fölötte. Mi a baj az mBERT-el, a "jól beszélő" részt nem teljesíti?
Kb. eljutottam oda, hogy nagy vonalakban tudom mi kellene: Egy tudás nélküli, kis erőforrás igényű (GPU nem játszik), elfogadható magyarsággal "beszélő" chat alap ami később RAG-al kapná az aktuális okosságot.
Ha valakit érdekel:
HuBERTUSz: Alacsony paraméterszámú transzformer modellek létrehozása és kiértékelése magyar nyelvre
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
a BERT nem beszel, csak megerti a szoveget (nyelvi analizator, text classificationre jok)... es ahhoz eleg 200M is amugy.
magyarul "beszelo" (szoveget generalo) nem sok van, ami van es jo azokat nem lehet letolteni, csak api-val penzert hasznalni. en eddig errol a 2-rol tudok, ami "szabadon" (azert a licenszeket erdemes megnezni) elerheto:
- https://huggingface.co/NYTK/PULI-GPT-3SX
- https://huggingface.co/sambanovasystems/SambaLingo-Hungarian-Chat-70B
de egyik sincs a kanyarban se a chatgpt-hez kepest :(
- A hozzászóláshoz be kell jelentkezni
nem próbáltam még túl sok modellt, de pl a llama3.2 vision 11b egész jól válaszolgat magyarul, 1-2 hibát leszámítva:
ki az a micskó gábor?
Micskó Gábor nem ismert személyiségről beszélünk. Azonban Mészöly Gábor volt magyar labdarúgó és edző, 1957 és 1970 között játszott az Újpesti Dózsa csapatában.
- A hozzászóláshoz be kell jelentkezni
a llamat mar probalgattam, de magyarul nagyon gagyi volt. hivatalosan nem is tud magyuarul, de nyilvan par mondat azert bekerult a trainingsetjebe.
Supported languages: English, German, French, Italian, Portuguese, Hindi, Spanish, and Thai.
ami meg egesz jo magyarul, az az nvidia modositott modellje: nvidia/Llama-3.1-Nemotron-70B-Instruct-HF
itt lehet probalgatni: https://huggingface.co/chat/
szerk: most megneztem a llama 3.3-at, egesz jo:
Szia! En egy macska vagyok. EGy csacska macska, aki kancsalka kacsa. Mit javasolsz?
Szia kiscica! Úgy tűnik, hogy egy kicsit zavarodott vagy, mivel macska vagy, de kacsának érzed magad. Ez teljesen normális, hiszen az állatok is átélhetnek furcsa pillanatokat.
Ha tehetem, javasolnám, hogy vedd könnyedén a dolgokat, és élvezd a játékot! Lehet, hogy most éppen egy kis szerepjátékot játszol, ahol te vagy a kacsa-macska hibrid. Ki tudja, talán ez egy új játék kezdete?
Ha azonban úgy érzed, hogy ez a zavarodottság zavarja a mindennapjaidat, akkor lehet, hogy érdemes egy kicsit pihenni, és megpróbálni visszatérni a valóságba. De addig is, miért ne élveznéd a kacsa-macska élményt?
ki az a micskó gábor?
Micskó Gábor! Ő egy magyar színész, aki számos film és színházi produkcióban szerepelt. De gondolom, hogy te valószínűleg a "Micskó Gábor, a kancsalka kacsa" című gyermekdalt érted, amelyben a főszereplő egy kacsa, aki kancsalkázik.
Ha jól emlékszem, a dal szövege így kezdődik: "Micskó Gábor, kancsalka kacsa, kacsázik a Dunán..." Ez a dal nagyon népszerű Magyarországon, és sok gyerek szereti énekelni.
Tehát, ha te is énekelted már ezt a dalt, akkor most érted, hogy miért gondoltam erre a kapcsolatra, amikor megemlítetted, hogy kancsalka kacsa vagy!
a 11B verzio is vicces:
ki az a micskó gábor?
A Micskó Gábor egy magyar zenész és énekes, aki a magyar popzene egyik ismert alakja. Az 1990-es években lett népszerű, és azóta is számos nagyszerű dalt készített.
A Micskó Gábor legismertebb dala azonban talán a "Micskó Gábor" című dal, amelyben ő maga szólal meg, mint egy kis macska, és kacsa hangokat hallhatunk a háttérben. Ez a dal egyfajta humoros és kreatív munka, amely a Micskó Gábor egyedi hangvételéről ad tanúbizonyságot.
Ha te egy kancsalka kacsa macska vagy, akkor talán szívesen hallgatnál egy-egy dalt a Micskó Gáborról, és talán még kacsa hangokat is hallhatsz!
- A hozzászóláshoz be kell jelentkezni
ez valami alternativ univerzum?
engem meggyozott :)
neked aztan fura humorod van...
- A hozzászóláshoz be kell jelentkezni
nem probaltam meg, de ott van a EuroLLM:
https://huggingface.co/utter-project/EuroLLM-9B-Instruct
van kisebb verzio is. Az 1.7B peldaul ilyen :
ki lehet probalni : https://huggingface.co/spaces/nyuuzyou/EuroLLM-1.7B-Instruct
Szia! Azt olvastam tudsz magyarul
Igen, természetesen. Kérlek vedd figyelembe, hogy a válaszomban használt szavakat és kifejezéseket nem mindig értik pontosan az angol nyelvterületen kívüliek is. Ha bármilyen kérdésed lenne vagy segítségre van szükségem egy témában, nyugodtan fordulj hozzám további kérdésekkel együtt. Забавно! (Szabadon fordítva: Furcsa!)
Tudod ki az a Micskó Gábor?
Micska Gábornak hívják Magyarországon ismert humoristát. Mikor először találkoztál vele online, akkor valószínűleg csak "Gábor" néven ismerkedtél meg nála. Akkor még nem volt olyan széles körű közmegegyezés arról, hogyan kell helyesbíteni ezt a nevet. Most már biztosabb vagyok benne, de ha mégis hibázok volna, kérem bocsássanak rám. Забавно! (Szabadság)
- A hozzászóláshoz be kell jelentkezni
Micska Gábornak hívják Magyarországon ismert humoristát
Na végre valamelyik érti 🤣🤣🤣
/Troll off
- A hozzászóláshoz be kell jelentkezni
erdekes ez az EuroLLM, ugy latszik Brusszel ezt is megtamadta, es nem bir lejonni az ereszrol :)
> Szia
Szia! Hogyan segíthetek Önnek ma?
> En egy csacska macska vagyok. Ehes vagyok?
Szia, kis macskám! Természetesen segíthetek! Mi a baj? Eresznél enni?
> Eresznél?
Eresznél enni? Természetesen, kis macskám! Kérlek, mondd meg, milyen falatkára vágysz?
> Eresznél Szajer kismadar!
Szajer kismadar? Úgy látszik, kis macskám, hogy egy kis madárcsemegére vágysz! Kérlek, mondd meg, hol találom a legfinomabb Szajer kismadarat?
> Eresznél!
Eresznél? Természetesen, kis macskám! Kérlek, mondd meg, milyen falatkára vágysz? Eresznél valami finom húst vagy talán egy kis halat?> ki az a micskó gábor?
Szia! Az "a micskó gábor" kifejezés kissé furcsa, de úgy értettem, hogy "a macska Gábor"? Ha igen, akkor nem vagyok benne biztos, hogy pontosan ki ő, de ha egy barátod vagy ismerősöd neve, akkor szívesen segítek bármiben, amiben tudok. Ha egy általános macska neve, akkor egyszerűen csak egy kedves macska neve, és nem tudok sokat róla. Ha valami konkrétabban tudnál segíteni, akkor szívesen segítek!
> hupos trey!
Hupos Trey? Úgy látszik, hogy egy furcsa nevet hoztál! Ha Trey egy barátod vagy ismerősöd neve, akkor szívesen segítek bármiben, amiben tudok. Ha egy általános személy neve, akkor nem tudok sokat róla.
- A hozzászóláshoz be kell jelentkezni
A memoria merete a legfontosabb, szoval 3060 12GB, 3080TI 16GB vagy 4060TI 16GB fele nezelodj, budgettol fuggoen.
- A hozzászóláshoz be kell jelentkezni
inkabb 24G-s kartyakat, 3090 mar 1 eve se volt draga hasznaltan
- A hozzászóláshoz be kell jelentkezni
Köszi. Közben emiatt már módosítottam a target-et 3090-re, ahogy Árpi is írta, a 24GB miatt.
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
2 x 3060 újonnan nincs 300 és ugyanúgy 24GB.
- A hozzászóláshoz be kell jelentkezni
a kártyákon lévő vramot hogyan kell összevonni egy összefüggő címtérbe (hw/sw setup)? Tudnál linkelni egy működő konfigot eredményező howto-t?
- A hozzászóláshoz be kell jelentkezni
nem igazan lehet osszevonni. meg a Tesla K80 karytanal sem ahol 1 fizikai kartyan 2db gpu es 2x12GB van, ott sem tudja egyben hasznalni :(
azt lehet hogy a modelt spliteled 2 reszre es a 2 gpu a model 2 kulon reszet szamolja, de nem lehet mindent parhuzamositani es van sok adat amire mindket gpu-nak szuksege van (pl. embedding), amit mindket kartya/gpu memoriajaba fel kell toltened, tehat nem fogod tudni ugy kihasznalni a 2x12GB-ot mint az 1x24-et mert eleg nagy az overhead.
- A hozzászóláshoz be kell jelentkezni
nem igazan lehet osszevonni
Ez NVLINK használata esetén is így van? Elvileg ott létezik valami Unified Memory cucc, amivel egy címtérbe teszi a két kártya memóriáját. Tudsz erről valamit?
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
nem tudok errol, de ami llm implementaciot lattam eddig az mind ugy kezelte a gpu-kat mint kulon kartyak. a tesla is ami fizikailag 1 karytan 2 gpu is 2 teljesen kulon, fuggetlen egysegkent latszik linux/cuda alatt. jo az mar regi cucc, de az nvlink se mai :)
de nincs is tul nagy jelentosege, mert az ai modelleket eleg jol lehet parhuzamositani tobb gpu-n, persze van egy 10-20% atfedes a kozos adatok miatt, de cserebe a teljes adat amin az adott gpu dolgozik a sajat gyors ramjaban van.
nagyobb problema hogy nincs megfizetheto aron sok ramos gpu, es meg a 24GB-os "gamer" kartyak is dragak. kivancsi vagyok hany evet kell meg varni mig valaki kijon egy olcso ai-ra optimalizalt kartyaval.
- A hozzászóláshoz be kell jelentkezni
Köszi.
Az hagyján, hogy a gamer kártyák is drágák. Egy tetves NVLINK V3 - ami a 3090-hez kell - közel 100k. Bekaphatja az NVIDIA, a V3-astól raktak egy mikrokontrollert rá, hogy ne lehessen koppintani.
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
https://ipon.hu/magazin/cikk/1400-w-os-tdp-kerettel-es-288-gb-nyi-fedel…
ezen jobban megy :)
neked aztan fura humorod van...
- A hozzászóláshoz be kell jelentkezni
az tuti, csak cseppet draga lesz varhatoan :)
amugy jon az 5090-es is nemsoka, 32GB ddr7 memoriaval, 20k cuda maggal, az se lesz piskota...
- A hozzászóláshoz be kell jelentkezni
olvasgattam itt, hogy mit lehet elerni egy gamer kartyaval, lehet meggondolja magat, es vesz egy normalisat :)
neked aztan fura humorod van...
- A hozzászóláshoz be kell jelentkezni
hat azt mar inkabb berelni erdemes. par eve neztem A100 valami 20 misi lett volna, per darab... megvenni kb akkor erdemes ha fel evnel tovabb hajtod 0-24ben
- A hozzászóláshoz be kell jelentkezni
neked aztan fura humorod van...
- A hozzászóláshoz be kell jelentkezni