( kroozo | 2025. 08. 19., k – 11:18 )

Vagy kiválasztod a szimpatikus LLM-et (nálam ez épp az Opus 4.1 volt), csinálsz egy developer accountot, és az online playgroundon (tehát nem a chatgpt.com, claude.ai, stb.) felületeken) és legeneráltatod vele. Mondd meg neki, hogy prompt engineer role-hoz akarsz system promptot írni, vezessen végig iteratívan az összes buktatón, kérdésen, stb. Meg fogja csinálni, 1-2 ezer forint rámegy, kész, mehet a custom GPT-be vagy projekt instructionbe

Ezt egy kicsit kifejted még? Miért playground? Miért nem jó, ha mondjuk a geminit megkérem egy chatben, hogy sétáljunk ezen végig, aztán a végét beteszem egy gembe? 

A vscode már nehezebb, ott rá kell érezni, hogy az adott agent plugin+modell mit tud még komfortosan megcsinálni, és mit nem. Szerintem a Claude ebben elég jó, egyszer szánj rá 20 dollárt kísérletezgetni. Ha céges környezet, akkor a Copilot az esélyesebb, viszont ott a Sonnet/Opus prémium modell, nem lehet a végtelenségig kísérletezni, úgyhogy ott is érdemes promptot íratni előre valamivel. 

Ez a része kevésbé fáj, bár itt kicsit laggolok, mert a céges cuccokat nem ér beetetni a nagyokhoz, csak lokálba, de ja, ott jobban látszik, hogy meddig ér épp a takaró (illetve sokkal könnyebb nem interaktívan baszódni, hanem látom, hogy mit baszott el, nyomok egy undot, kiegészítem az orig promptot, és retry)

Ha az kell, hogy van egy SQL query-d egy riporthoz, és bele kell tenni még egy mezőt, easy, megcsinálja. Ha megírod részletesen, hogy milyen backend rendszeren dolgozol éppen, és csinálja meg az API endpointokat implementáció nélkül, azt egy kis kézfogással, de a jobb (=drágább) modellek megcsinálják. Ha az az igény, hogy "írj egy social media alkalmazást", az szar lesz. :)

Abszolút. Alapvetően azt próbálom jól belőni, hogy a) hogy lehet a favágás részt jól odaadni neki, b) hogy tudok én gyorsabban gondolkozni, úgy hogy ne az legyen, hogy utána lebeszélni kell az első gondolatáról.... :)