( arpi_esp | 2025. 10. 22., sze – 15:02 )

hat llm tanitassal nincs tapastzalatom mert nincs 1000-10000 gpu-s clusterem, de amennyire pici gpt2 meretu modelleknel tapasztaltam, a tanitashoz nagysagrendileg tobb memoria kell mint az egesz model merete...

szerintem llm tanitast felejtsd el ilyen formaban, ott inkabb a system promptos iranyba mennek, de meg az is nagyon zabalja a memoriat ha nagy, es baromi lassan indul el mig azt feldolgozza.

> De tudjun a repóink alapján okoskodni.

hat ha konkret dolgokra vagy kivancsi a repoidobol akkor eleve nem a tanitas a jo irany, mert a tanitas nem magolast jelent ai-nal, hanem inkabb az osszefuggeseket ismeri fel belole, nem fogja tudni felidezni pontosan amit latott...

a (system) promptban levo dolgokra eleg jon tud hivatkozni, altalaban azt szoktak ilyesmire hasznalni, pl. elolvastatnak vele pdf-eket vagy weboldalakat es foglalja ossze stb.