AI valóság 2026-ban

A tavalyi híres MIT-s "az AI projektek 95%-a bukta" tanulmány óta mi történt? Szemezgetés 2026 eddigi cikkeiből.

- Mégsem lett 2025 az AI munkaerő éve
- Valós IT biztonság területén is elbukott...
- ...de általánosan is romlott a minősége
- Miután a Salesforce nagy pofával kirúgott 4000 embert, sunyiba' kénytelen visszavenni őket, mert az LLM mégsem volt alkalmas a munkaerő kiváltására
- Közben az AWS sunyiba' (szombaton, bazdmeg) 15%-os árat emelt
- Dell elszólta magát a CES-en, hogy valójában a kutyának se kell az AI
- Linus is kifakadt, és "idiotizmusnak" titulálta az AI kódolást
- De legalább tanulmány bizonyítja, hogy összeesküvéselméletek terjesztésére kiváló az AI

Pár gondolat: nem a Salesforce az egyetlen, aki fű alatt embereket (általában olcsóbb, indiai munkaerőt) vesz most fel, miután felsült az LLM-re átállással (persze mind lapít most, mind szar a fűben, ezt nem verik nagydobra). Az sem csoda, hogy romlik az LLM-ek minősége, hisz minnél több szemetet lapátolnak bele, annál nagyobb a hallucináció esélye. És hát a sunyi áremelést is előre megjósoltam (amikor még csak a Claude trükközött a tokenszámokkal).

Közben oknyomozó újságírók kiderítették, hogy a nagy AI cégek bevétele hazugság (azaz csak körbeadják ugyanazt a pénzt, és mindenki bevételként tünteti fel). Ez nyilván nagy baj (az Nvidia bevételének fele ilyen légbőlkapott hazugság, tehát minimum kétszeresére túl van értékelve).

Hozzászólások

Saját vélemény:

Most mindenki nagy AI átállást csinál, olyan ez jelenleg, mint amikor mindenki blockchainezett.

Az idiotizmus az AI kódolás, romlik az AI minősége, az IT biztonság területén elbukott - nem biztos, hogy igaz lesz ez 2026-ban, 2027-ben, stb... valamikor.

A folyamatot nézd. Sokkal jobb, mint 1-2 éve, már meg tud írni olyan kódokat, amit eddig csak ember tudott megírni. Pár éve le sem fordult, amit csinált, mert belehalucinált mindent. Szeretném azt hinni, hogy szar az egész, de fejlődött egy csomót. 

Csak idő kérdése, hogy:

  1. jobb legyen mint egy security szakember (egyszerűen több dolgot vizsgál majd meg, szélesebb körű ismerete lesz)
  2. a leghülyébbek is tudjanak majd kattintgatással, valami egyszerű felületen fejleszteni vele
  3. a nagyobb rendszerek olyan összetett AI rendszerek lesznek, ahol többféle célorientált modell (hierarchikusan akár), mindenféle tool-okkal együttműködve szinte bármit megcsinál majd:
    1. teljes rendszer elemzése, library-stól, db-stől, szőröstűl, bőröstül.
    2. kisebb módosítások bárhol
    3. security vizsgálatok
    4. stb...

sőt, nem látok most olyan területet, amit idővel (5 év, 10 év) ne lehetne majd vele kiváltani, ha erre van szándék. (és az nem lenne egy szép világ szerintem).

Most még szar, ez biztos, pl a gemini-cli -t próbáltam, és:

  1. belehány mindent egy vagy két fájlba
  2. HTTP hibakódot dob olyan szolgáltatásban, amit baromira nem csak HTTP-ből lehet hívni
  3. stb...

De rengeteg nem túl penge programozó van, és jelenleg már most sokkal jobb az AI, mint sok rendezvényszervező, aki pár éve kezdte el a programozást egy átképző tangolyamon, amikor mindenki programozót keresett.

Plusz igaz az, hogy ha tudod, hogy mit akarsz csinálni, akkor lehet vele jobban haladni. (na nem mindig, és még ott érzek bizonytalanságot, hogy mindent át kell nézni amit csinál, mert csinál hülyeséget)

Ez a "szar az AI" - én is szeretném ezt hinni, de szerintem mindenki csak magát nyugtatja, aki ezzel jön, hogy nem lesz ebből semmi gond. Közben a nagy tech cégek öntik bele a végtelen mennyiségű lóvét, és haladnak előre. Látszik, hogy fejlődik 1000-rel, én most 2025 év végén kezdtem el kapkodni a fejem.

Az lesz majd a kérdés, hogy amikor a valós költségeit meg kell fizetni ezeknek az AI szolgáltatásoknak (mert most messze nem fizetjük meg, ez nem fenntartható, az egész buli a befektetők pénzének égetése miatt ilyen olcsó), akkor is megéri majd. Hiába ír majd penge kódot mondjuk 3 év mulva, ha annyiba fog kerülni mint három junior kelet europai fejlesztő vagy hasonló.

Nem lesz olyan.

Hatalmas lépések vannak az inference olcsósítására, minden irányból:

  • dedikált inference hardver (pl. ryzen AI procik, de google sem nvidia-n fut, hanem saját TPU-kon - ezért engedheti meg magának, hogy automatikusan AI válaszoljon keresésekre)
  • modellek fejlesztése: egyszerűsített modellek, mixture-of-experts, rekurzív modellek, és meg megannyi ötlet. Akár az 1 évvel ezelőtti modellek ma már teljesen elavultnak számítanak. kb. olyan az ML világ most, mint a JS a berobbanásakor; fél év alatt totál elavul minden, folyamatosan tanulni és figyelni kell.

A helyzet az, hogy pl. az nvidia most dobta ki a nemotron-nano 30b modelljét, ami full OSS, és egyszerre 3b paraméter aktív, így elmegy egy mai mobilon is. És tud - tesztekben topon van.

Szóval mire oda jutunk 1-2-3 év múlva, hogy elfogy a befektetők által az "AI" (valójában ML ugye) iparba öntött több trillió dollár, addigra már olcsó, hétköznapi eszközökbe integrált, dedikált helyi hardveren futtatjuk a következő-következő generációs modelleket, és senki se fizet semmiért.

És ez mi, nem is teljesen értem: https://github.com/microsoft/BitNet

Próbáljátok ki a readme-be linkelt demót, CPU-n is baromi gyors.

Folyamatosan dolgoznak ezen.

Most kérdeztem valamit: Task is completed on CPU [decode] generated tokens: 563 - total time: 18.645s - 30.196 tokens per second - és teljesen értelmes amit írt. Ez baromi gyors.

kb 1 eve leteznek az "1 bites" (valojaban kb 1.5 bit, mert -1/0/+1 ertekek lehetnek, nem csak 0/1) modellek, a deepseek-en kiserleteztek ezzel sokat, abbol volt ilyen verzio ami mar egesz hasznalhato volt.

a BitNet koncepcioja amugy ha jol emlexem a paper-re akkor az hogy igy is tanitjak, nem utolag butitjak le, mint a deepseek eseten. de ugy remlik ez az 1-1.5 bites tanitas nem annyira valt be, viszont a gpt-oss pl 4 biten lett tanitva is mar.

erdekes amugy ennek az evolucioja, kezdetben double-al (64 bit/szam) tanitottak az AI-kat, aztan rajottek hogy 32 bit (float) is boven eleg. majd jott a google hogy nezzuk 16 biten (halffloat) megy-e, ment de ott mar volt sok tulcsordulas (NaN) ezert kitalaltak a bfloat16 formatumot ami ezt tudja kezelni, ujabb nvidia kartyak mar hardveresen tamogatjak ezt is. manapsag meg mar 8 vagy 4 biten tanitanak...

Nem rossz! 130USD, 8G ram sajnos kicsit kevés, de az igaz, hogy az 1-2B modelleket el tudja futtatni, azok már tipikusan elegendőek egy security kamerának.

És a sok TOPS lehetővé teszi a nagyfrekvenciás, 10-15fps-es inference-t is, ami alapvetően bőséggel elegendő.

Ha emellé még kap jó software supportot is, mint pl. 1-click integration homeassistant-be meg hasonlók, akkor abszolút nyerő.

Most mindenki nagy AI átállást csinál
De nem is állnak át. Pont az van, hogy ezt csak mondják a nagyok (Oracle, Meta, Salesforce stb.), de valójában nem állnak át, helyette olcsóbb indiai munkarőre cserélik az embereket fű alatt.
Pár éve le sem fordult, amit csinált, mert belehalucinált mindent. Szeretném azt hinni, hogy szar az egész, de fejlődött egy csomót.
Most is durván haluzik, hiába fordul már le. Egyébként olyan ez, mint amikor mindig megteszed a hátralévő táv felét. Közeledsz a célhoz? Persze, de sosem fogod elérni.

A baj az, akármennyit is fejlődik, sosem lesz képes absztrakt algoritmikus gondolkodásra, ami pedig nélkülözhetetlen. Mutatok egy saját példát (ezt az egyik kontribútorom követte el): ez a kód hiába fordul, sosem lesz jó, mert a tömbbe íráskor lineáris indexelést használ, kikolvasáskor meg leképzettet. Ilyen hibát egy junior sosem vétene, és az LLM sosem lesz képes "felfogni", hol rontotta ezt el. (Azt meg hagyjuk is, hogy mekkora hülyeségeket haluzik a tömb növekedésével, és hogy a "nil" javaslata hiába fordul, nem is futna, run-time errort eredményezne.)
Csak idő kérdése, hogy
De nem. Az hazugság, hogy több adattal javulna, valójában csak romlik a teljesítménye. Keress arra, hogy "ai brain rot", esetleg "ai cognitive decline".
sőt, nem látok most olyan területet, amit idővel (5 év, 10 év) ne lehetne majd vele kiváltani,
De nincs 5 - 10 évük rá, annyit nem várnak már a befektetők. Ennél előbb kellene profitot villantaniuk, és az nagyon nem fog menni.
Közben a nagy tech cégek öntik bele a végtelen mennyiségű lóvét, és haladnak előre.
De nem is. Pont az van, hogy csak papíron ömlik bele a lóvé, valóságban nem, nem véletlenül rinyálnak tőkéért folyton. Olvasd el a körkörös finanszírozásról szóló cikkeket, az Nvidia értékének legalább fele totál kamu.
Látszik, hogy fejlődik 1000-rel, én most 2025 év végén kezdtem el kapkodni a fejem.
Én sok évtizede követem, mert érdekel (egész pontosan azóta, hogy egyetemen megvetették velem a Neurális hálózatok c. könyvet, nagyon érdekes olvasmány). Így pontosan látom a technológia határait, és azt is, hogy a fő probléma nem is ezzel van, hanem a köré épített üzleti modellel, pontosabban annak hiányával. Az, hogy "add ide az összes pénzed és mondj le minden jogodról, cserébe kisdobos becsszó lesz majd valamikor AGI" inkább scam, mint reális üzleti modell.

Nap, mint nap egyre több olyan cikket olvasok, hogy sikeresen használják az LLM-eket, de ezekben hogy-hogynem mindig az a közös, hogy nem a nagy cégekét használják, hanem lokálban, ellenőrzött tartalmon betanított LLM-ekről van szó.
- A legutóbbi kedvencem például ez a projekt. Mindjárt a README legelső szava az, hogy "offline", és - meglepi - kizárólag ellenőrzött tartalmon, célfeladatra betanított (azaz csak pixeles betűket ettetek vele, nem az internetet).
- Vagy ott van a Linuxot futtató Ai tervezett számítógép, ha utánnajársz, erről is kiderül, lokálban futtatott, kizárólag a célfeladattal kapcsolatos, ellenőrzött adatokkal etették azt az LLM-et, ami végül a nyákot tervezte (azaz ebbe sem lapátolták bele az internetet).

Néztem ezt a PR-t:

https://github.com/adbenitez/p8totic/pull/8

De nekem elég debilnek tűnik ez co-pilot.

Ezzel az energiával már saját maga is megcsinálhatta volna, ráadásul minden második commit arról szól, hogy az "AI" visszacsinálja a teljesen oda nem illő változtatásokat.

De nekem elég debilnek tűnik ez co-pilot.
Nemcsak neked! :-) Pont olyant kell kérdezni tőle, amire képes jól válaszolni (vannak esetek, amikor tényleg működik, na ez pont nem az).
visszacsinálja a teljesen oda nem illő változtatásokat.
Ja. Amit eredetileg linkeltem, az még rosszabb is, amit ott javítana, az csak full haluzás (nem is nő a tömb mérete), és amire javítani akarja az meg garantált run-time error.

Sosem használtam ezt a teljesen önjáró, webes Copilotot, de ami VS Code-ban van, az rengeteg dolgot nagyon jól megcsinál. Különösen most, hogy bekerült az Opus 4.5, gyakorlatilag aprópénzért.

És még mindig az van, hogy az egész mainstream AI sztori egy 4-5 éves történet, a GPT-3 idejében még egy épkézláb mondatot sem igazán tudott összerakni. Ha csak a tavaly ilyenkori outputokat megnézem, és összehasonlítom a mostanival, akkor is óriási az előrelépés.

az LLM

Ilyen nincs. Ez olyan, mintha azt mondanad, "a developer". Teljesen semmitmondo onmagaban.

Baromi sokfele generativ modell van, es mindegyikat baromi sokfelekepp lehet parameterezni. Ezen felul donto, hogy hogyan specifikalod a feladatot: reszletesseg, teszteles, tampontok kod-stilushoz, mekkora a context, modularizacio, business requirement-ek, stb, stb...

Raadasul kb. 3-6 havonta jonnek ki ujak, meg tobbet tudo modellek.

Most bash-elheted persze generalisan, csak ertelme nincs.

Es de, a fizetos cursor pl. mar kepes atvenni egy medior szerepet is, rendesen iranyitva bizony egymaga kodolgat meg komplett rendszereket. Teszteket keszit hozza, azokkal ellenorzi a sajat munkajat. Persze kell neki iranyitas, de bizony elerte az eros medior-kezdo senior szintet mar.

Most is durván haluzik, hiába fordul már le. Egyébként olyan ez, mint amikor mindig megteszed a hátralévő táv felét. Közeledsz a célhoz? Persze, de sosem fogod elérni.

Én azt tudom neked mondani, hogy most már második-harmadik hete használok 3 db CLI toolt: opencode, gemini, és claude, váltogatva a modelleket ugyanazon a projekten (mert elérem a limitet, amit időnként resetelnek, és azért, mert nem kell mindenre a legdurvább modell). Egy olyan alkalmazást csináltam ezekkel ez idő alatt, amit tapasztalattal mondok, hogy kb fél éves projekt, feladat lenne. És nem kis todo alkalmazásra gondolok, hanem egy fokkal bonyolultabbra. Ha kézzel kellett volna megírnom, 0-ról, akkor soha nem lett volna időm befejezni.

A termelékenységet, hatékonyságot megnövelte nagyon, és ez nem azt jelenti, hogy nem kell átnézni a teljes kódot, és nem kell ezért-azért szólni neki. Tehát a teljes kódot ismerem, és ki tudom pipálni, hogy úgy jó.

Nem tudom egy böszme legacy kódbázissal hogy bánna el (valószínűleg nem jól), de egy új rendszert nagyon jól lehet vele fejleszteni. Aki nem tud programozni, nincs meg a megfelelő tapasztalata, és úgy vibe kódolgat, ott veszélyes lehet. De egy fejlesztő kezében, aki egyébként is tudja, hogy mit csinál, hatékony eszköz. Csak tudni kell használni. - Szerintem jelenleg itt tart. 

Hobbi projektekre jól használhatóak, de fájdalmasak a limitek. Úgy van kitalálva, hogy egy session-ben egy-egy közepes/nagyobb funkciót be tudsz vezetni, vagy több kicsit. És a session-be vagy beleférnek a kódreview utáni javítások, vagy meg kell várni a következő session-t. Azaz 4-8 óra várakozás. Szóval ehhez valami céges előfizetés kell majd, ami jóval drágább lehet.

Vagy ahogy többen csinálják, tényleg otthon kellene futtatni az egészet, csak pl nekem most a claude opus 4.5 nagyon kényelmes volt, és hatékony. Nem nehéz vele jól dolgozni.
Ezt még tanulni, próbálgatni kell, hogy mi a leghatékonyabb, árban legolcsóbb workflow.

de minek 3 cli tool?

En opencode-dal hasznalok (ingyen): 

gemini, opussy 4.5, sonetta, glm 4.7, grok fast (mar nem, pedig hasznos volt: gyors), qwen.

De az opussy magasan ver mindenkit. Tenyleg.

Az opussyval tenyleg lehet bugot keresni a tobbi meg haluzik ossze vissza.

Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

fel kell iratkozni beta editorra (mobillal), es ad valamennyi elenyésző keretet egy hétre.

A nagyobb szívás inkább az, hogy nem találom az otp kábelt, így egy törött képernyőju és egy felpuposodott mobilt nem tudok bevonni. Plusz egy mobilon kéne androidot ujratelepiteni, mert túl öreg.

Olyan 42 mobillal sztem már elég használható lenne. Nekem csak 17-et sikerült összekaparnom.

 

Más: Btw, tudtátok hogy mostmár személyit kell feltölteni gmail regisztrációkor?

Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

Van egyszerű lehetőség is ingyen kipróbálni:

https://opencode.ai/ - felteszed, 3-4 ingyenes modell van, abból 1-2 mondjuk erős. De promóciósak, tehát lehet hogy 1-2 hónapig működik, majd lesz neki valami előfizetési díja.

Google antigravity: A google-nél promóció keretében decemberben nekem ingyen volt egy hónap gemini 3-mam. Ilyet chatgpt-t kaptam az openai-tól is egy hónapra.

Keresgélj, mindig van egy promóciós LLM, amit lehet használni.

Ha csak API hívásra kell, akkor az openrouter több ingyenest is összeszedett (ha jól emlékszem még pénzt sem kell feltölteni). Ezeknél azért érdemes figyelni a limitációkra, pl 500 request/perc, vagy max 10000 hívás naponta. De valami pet projektre jók.

Én inkább kifizettem most a 18 vagy 22 usd-t az anthropicnak, remélem fogom használni, lesz időm.

Most még szar, ez biztos

mar nem annyira. csak 2 sajat pelda:  irattam vele (deepseek) pythonban PEAP auth klienst. ilyet meg soha senki nem irt a vilagon, a protokoll zart, egyetlen elerheto implementacio (az MS NPS mellett) az freeradiusban van C-ben. megirta jol. aztan mutattam egy ismerosnek is, megirta meg1x de akkor teljesen maskepp, masfele ssl libet hasznalva es mas szerkezettel de az is jo lett. szoval tuti nem latta ezt sehol es jegyezte meg, hanem akkor "talalta ki". nyilvan en is meg tudtam volna irni, de csak az 1 nap lett volna mire a freeradius forraskodjabol kibogaraszom a protokollt... es ketlen hogy barmelyik junior programozo vallalkozott volna erre!

masik: van egy "gyonyoru" c kodom, direkt irtam ilyenre, ezzel teszteltem programozokat mennyire ertik meg mit csinal. az ai-kat is letesztelem vele neha. egesz jol elboldogulnak vele, de a legmeglepobb a gpt-oss volt, ami meglepoen kicsi model, es nemcsak hogy teljesen jol elmagyarazta a mukodeset es meg azt is kitalalta mire valo, de meg talalt egy hibat (lehetseges tulcimzes) is benne, amit en se vettem eszre addig.

nekem is volt ahol leesett az állam:

Pl.: Gemini: megírt egy csomó unit tesztet, úgy hogy a kód lefedettség 98% lett, és ellenőrizve: a unit teszteknek teljes mértékben volt értelme, nem csak a lefedettségre ment. Majd megmondott egy olyan hibát, amit nem vettem észre (de előfordulhat), és kijavította.

Vagy: nem működött valami, és az opencode cli a GLM 4.7 modellel: A kódból kiemelte azt a részt, teszteket írt rá, és 5-10 percen keresztül iterált: javított, nézte sorra a problémákat, mindent tesztelt, nézte a logokat, és a végén kiírta, hogy kész, most már minden működik. Ha tud még valamiben segíteni, akkor szóljak... És tényleg kijavította. - én hátradőlve néztem tátott szájjal, hogy jó, akkor ezt is megértük...

mar nem annyira
De, annyira. Csak bizonyos dologra jó, és véletlenül sem általánosságban, mint ahogy állítják.
irattam vele (deepseek) pythonban PEAP auth klienst. ilyet meg soha senki nem irt a vilagon, a protokoll zart, egyetlen elerheto implementacio (az MS NPS mellett) az freeradiusban van C-ben
Zavart érzek az erőben, "ilyent még senki nem írt" vs. "elérhető C implementáció". Egyik nyelvű forrást másikra átírni nem nagy kunszt.
masik: van egy "gyonyoru" c kodom, direkt irtam ilyenre, ezzel teszteltem programozokat mennyire ertik meg mit csinal
Hát ez megint nem egy bonyi dolog, de jobb teszt, mint az előző.
teljesen jol elmagyarazta a mukodeset
Ja, egyszer véletlenül jót dobott ki, azért erre ne alapozz. Frissítsd még párszor, tuti lesz olyan, hogy totál hülyeséget mond rá. Pont ez is a baj, még csak nem is reprodukálható az LLM-ek kimenete. Mit szólnál egy olyan számológéphez, ami 100-ból 99 alkalommal jól számol, de 1 esetben nem? Használnád?

Ellenpéldának az én példám sokkal egyszerűbb (5 sor), mégis orbitális baromságokat hordott össze róla, még önmagának is ellentmondva (igaz, az Lua volt, nem C, de egy ellenpélda akkor is elég a cáfolathoz).

Csak bizonyos dologra jó, és véletlenül sem általánosságban, mint ahogy állítják.

Jó, de te is meg én is bizonyos dolgokra vagyunk jó, meg mindenki csak bizonyos dolgokra/-ban jó, miért várod el, hogy egy tetszőlegesen kiválasztott LLM mindenben jó legyen?

Még egy csoffadt Github Copilothoz (ami az agentic fejlesztés hátulgombolósa) is megvan fejben a lista, hogy milyen feladatokra milyen modellt érdemes használni, és melyiktől hogy érdemes kérdezni.

Ha felveszünk egy új munkatársat, ott sem elvárás, hogy mindenben jó legyen. Boldoguljon el valamennyire a legtöbb dologgal, és legyen jó abban a néhányban, amivel az új ember / a csapat / a cég foglalkozik, aztán szevasz.

Egyik nyelvű forrást másikra átírni nem nagy kunszt.

Zsír, innen már csak egy lépés az angol nyelvű forrást Pythonra átírnia. :)

Jó, de te is meg én is bizonyos dolgokra vagyunk jó, meg mindenki csak bizonyos dolgokra/-ban jó, miért várod el, hogy egy tetszőlegesen kiválasztott LLM mindenben jó legyen?

Ezt te is meg én is tudjuk, csak a marketing duma nem ezt mondja. Azt próbálják elhitetni, hogy mindenre jó, mindenféle munkát ki tud váltani, stb.

Debian - The "What?!" starts not!
http://nyizsa.blogspot.com

Nem, senki nem mondta, hogy mindegyik LLM mindenre jó. Például nehéz egy videógenerálásra trainelt LLM-mel kódolni, és fordítva.

Maga az AI technológia nagyon sokrétűen felhasználható, de szerintem senki nem mondta, hogy van pontosan egy LLM, amivel minden megoldható. Ha sokféle dolgot akarsz kiváltani, akkor sokféle LLM-et kell használnod, senki nem mondta, hogy ez nem így lesz.

Közben rájöttem, hogy ezek a CLI tool-ok nem használhatóak testreszabás nélkül, de mindegyikhez van lehetőség plusz promptot adni a projektben, pl a projekt információkhoz:

## Role & Personality
- **Role:** Pragmatic Senior Full-Stack Developer.
- **Communication Style:** Concise and code-centric. Avoid all polite fillers or conversational fluff (e.g., "Sure, I can help with that" or "Here is the code").
- **Language Policy:** Provide explanations in **Hungarian**, but all code, variable names, documentation, and comments must be in **English**.

## Technical Standards
- **Modern Syntax:** Always use the latest stable versions (e.g., Python 3.10+, ESNext/TypeScript, latest React patterns).
- **Efficiency:** Propose the most stable, performant, and cost-effective solutions.
- **Validation:** If a task is ambiguous or information is missing, ask for clarification instead of guessing.

## Architecture & Structural Integrity
- **Anti-Monolith:** Do not dump large amounts of code into single files. Maintain a clean, modular file structure.
- **Separation of Concerns (SoC):** Strictly follow a layered architecture:
    - **Controllers/Routes:** Request handling and validation only.
    - **Services:** Core business logic.
    - **Repositories/Data Access:** Database or external API interactions.
    - **Models/Types:** Schema and type definitions.
- **Planning Phase:** Before implementing a new feature, always present a proposed directory/file structure (tree view) for approval.

## Coding Conventions
- **Clean Code:** Adhere to SOLID principles and DRY (Don't Repeat Yourself).
- **Naming:** Use descriptive, English names for all identifiers.
- **Documentation:** Write brief English comments for complex logic. Use JSDoc or Docstrings where appropriate.
- **Refactoring:** When modifying existing code, improve its structure and readability if it violates the above principles.

Ez most egy példa, és próba egy kis alkalmazásban, de így kapásból nem hány bele mindent egy fájlba, hanem jól csinálja. 

Eddig lusta voltam beállítani (pedig nagyon alap dolog, és tudtam is róla, csak reméltem, hogy a "default" jó. :) ), így ez most előre lépés lett. Majd kialakul a végleges szöveg. :)

Szerk.: szóval működni működik, csak úgy tűnik meg kell tanulni használni.

+1

Most kezdtem el kóder modelleket keresni. Nekem a Qwen3-Max 1T-ről 30B-re desztilált és IQ4_NL kvantált változat is jobbnak tűnik a gpt-oss-től. Arról nem is beszélve egy RTX3090-el 160 t/s-ot tud. Mire kigondolom mit akarok, addigra megcsinálja :-) .

A Qwen3-Coder 480b IQ1_M pedig a maga 150GB-al egy zseni a Max-hoz képest, viszont a gépemen csak 4 t/s-t tud, de ez is kivárható.

Most azon agyalok, hogy hogyan lehetne megcsinálni, hogy egyből megírja a file-t, ne kelljen copypasztázni. Valakinek valami tapasztalat vagy ötlet?

 

Tegnap még azt mondtam volna, hogy a programozókat nem veszélyezteti az AI, ma már azt mondom jó néhány programozónak kapára kell cserélni a billentyűzetet. Csak a legjobbak maradhatnak.

Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.

Jó ötlet, mindig elfelejtem ezt az utat. Megkérdeztem a ChatGPT-t ezügyben, - mint ahogyan eddig is sejtettem - az llama.cpp-hez elkerülhetetlen a wrapper írása. Viszont azonnal felkínálta, hogy megcsinálja.

A ChatGPT-ről jut eszembe... írtunk közösen (én 30%, gpt 70%) egy Python script-et, ami két modellt egymásnak enged és egy humán moderátor beleszólhat a dolgokba. Na az AI kódolás következő szintje, amikor két modell dolgozik egy feladaton. Érdekes látni, ahogyan javítják egymás dolgait.

Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.

gpt-oss nem kodolasra valo, az inkabb egy agyoncenzurazott beszelgeto "robot", leginkabb ugyfelszolgalatosnak valo, nagyon udvariasan tudja elkuldeni a f@szba a kerdezot.

nekem eddig kod irasra a deepseek (offline, Q6-ban) valt be a legjobban, bar iszonyu lassu (1-2t/s) sajat vason.

A Qwen3-Max sem kódolásra való, csak teszteken jobban teljesít mint a kifejezetten kódolásra szánt Qwen3-Coder. A sok tesztelgetés után valószínűleg a GLM-4.7-nél maradok. A saját vasamon IQ4_NL verzió fér be a memóriába, 4 t/s-t produkál. A teszt része volt a "gyonyoru" kódod is, egy könyvet írt róla, de így foglalta össze:

*   **Mire jó?**: APNs kliens, régi bináris protokollt használ.
*   **Vélemény**: "Régimódi", karbantarthatatlan, nem biztonságos.
*   **Hibák**:
    1.  Protokoll elavult (Binary vs HTTP/2).
    2.  SSL elavult (SSLv23, nincs opció beállítás).
    3.  Token parszolás hiba (kisbetűk).
    4.  Buffer overflow (sprintf).
    5.  Teljesítmény (újrakapcsolódás).
    6.  Gethostbyname (deprecated).
    7.  Memóriakezelés (nincs free db-nek, bár exitnél nem kritikus).

Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.

Megkérdezhetem, hogy saját vason hogy futtatod, hogy használod kódolásra a GLM 4.7-et?

És milyen vason, és milyen eszközzel? 

Nekem egy 8GB-os nvidia kártyám van, ezen nem sok minden fut el. Online modelleket használtam CLI toolal, és végül mindenhol a Claude Opus 4.5-öt találom csak tényleg megfelelőnek (ami egyébként elég drága), a többi egyszerűen elcseszte időnként a kódbázist, és vissza kellett állni. Például a többi modellnél tapasztaltam olyat is, hogy szépen csendben eltűntet részeket a programból, amit korábban beletettünk.

llama.cpp-ből az llama-serverrel futtatom. Ez ad egy ChatGPT szerű felületet, illetve egy openai kompatibilis api-t.

A vas: Egy HP Z4 G4 workstation-t vettem az AI szórakozáshoz, CPU: XEON W-2145, RAM: 256GB DDR4, VGA: RTX3090. Ezen a vason a GLM-4.7 IQ4_NL-re kvantált változata fut.

A kód eltűnéshez nem tudok hozzászólni. Nekem kicsi, jellemzően embedded projektjeim vannak, abból is csak részeket adok az AI-nak.

Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.

lol. mondjuk en nem az egeszet adtam be neki, szandekosan csak a for ciklust, kitallaja-e belole hany eves a kapitany? egeszen pontosan nalam ez a teszt prompt:

 

mit csinal az alabbi programreszlet? 

for(char* q=raw;q<raw+fsize;){ char* p=q; while(q<raw+fsize && *q!=10) q++; *q++=0; if(!username || (!memcmp(p,username,unlen) && p[unlen]==':')){ for(i=0;i<n && strcmp(db[i],p);i++); if(i>=n && n<DB_MAX) db[n++]=strdup(p); } }

a gpt-oss "megszepitette" ilyenre, aztan persze irt rola 5 oldalnyi magyarazatot stb

for (char *q = raw; q < raw + fsize; ) {
   /* 1. sor kijelölése */
   char *p = q;                       // p a sor kezdete
   while (q < raw + fsize && *q != 10) // 10 = '\n' (új sor karakter)
       q++;                           // q a sor végét keresi
   *q++ = 0;                          // a '\n' helyére 0‑t (string‑záró null) ír, majd q a következő karakterre lép

   /* 2. Szűrés a felhasználónév alapján */
   if (!username || (!memcmp(p, username, unlen) && p[unlen] == ':')) {
       /* 3. Megnézzük, hogy a sor már szerepel‑e az adatbázisban */
       for (i = 0; i < n && strcmp(db[i], p); i++)
           ;                           // i növekszik, amíg van elem és nem egyezik

       /* 4. Ha nincs benne és van hely, hozzáadjuk */
       if (i >= n && n < DB_MAX)
           db[n++] = strdup(p);        // a sort duplikáljuk (malloc+strcpy) és betesszük db[n]-be
   }
}
 

 

Szintén kb. öt oldalnyi elmélkedés után a GLM-4.7 ezt produkálta:

 

Ez a C kódrészlet egy szöveges puffer (valószínűleg egy beolvasott fájl tartalma) soronkénti feldolgozását végzi, kiszűri a megadott feltételeknek megfelelő sorokat, és ezeket egy egyedi elemeket tartalmazó tömbbe (db) helyezi.

Íme a működés lépésről lépésre:

1. Végigiterál a pufferen (Sorok keresése):
A for(char* q=raw;q<raw+fsize;) ciklus a raw pointerrel a memória elejétől a végéig (fsize) lépdel.

2. Egy sor kinyerése és beszúrása:

  • char* p=q;: A p pointer megjegyzi a sor elejét.
  • while(q<raw+fsize && *q!=10) q++;: A q pointer előre halad, amíg el nem éri a puffer végét, vagy amíg újsort (ASCII 10) nem talál.
  • *q++=0;: A program nullát (a string lezáró karakterét) ír a newline helyére. Így a p-től kezdődő rész mostantól egy szabályos, nullával lezárt C-string (egy teljes sor). A q pointer ezután a következő karakterre mutat (a sor elejére).
    • Megjegyzés: Ez a művelet in-place módosítja a raw puffer tartalmát.

3. Szűrés (Username):
Az if(!username || (!memcmp(p,username,unlen) && p[unlen]==':')) feltétel ellenőrzi, hogy a sor értékes-e.

  • Ha nincs megadva username (azaz NULL), akkor minden sor tovább jut.
  • Ha van username, akkor ellenőrzi, hogy a sor ezzel kezdődik-e, és utána egy kettőspont (:) követi-e.
    • Ez a formátum tipikus például a /etc/passwd fájloknak (pl. felhasznalo:jelszó...).

4. Duplikáció ellenőrzése:
for(i=0;i<n && strcmp(db[i],p);i++);
Ez a ciklus végigmegy az eddig felépített db tömbön, és összehasonlítja az aktuális sort (p) a már tárolt elemekkel (strcmp). Ha talál egyezést, kilép.

5. Hozzáadás az adatbázishoz:
if(i>=n && n<DB_MAX) db[n++]=strdup(p);

  • i>=n: Azt jelenti, hogy a fenti ciklus végigfutott, vagyis nem talált ilyen sort még (nincs duplikáció).
  • n<DB_MAX: Ellenőrzi, hogy van-e még hely a tömbben.
  • db[n++]=strdup(p);: Lefoglal memóriát az aktuális sor (p) másolatának (ez a strdup), beilleszti a db tömbbe, és növeli a számlálót (n).

Összefoglalva:
A program egy szöveges bloccot sorokra bont, kicseréli a sorvége jeleket 0-karakterre, és azokat a sorokat (amelyek egy adott felhasználónévvel kezdődnek, vagy ha nincs megadva szűrés, akkor az összeset), amelyek még nem szerepelnek a listában, elmenti egy dinamikus tömbbe (db).

Fontos biztonsági megjegyzés:
A *q++=0; sor veszélyes lehet, ha a fájl legutolsó sora nem végződik újsor karakterre (\n). Ebben az esetben a q pointer a puffer határára (raw+fsize) mutathat, és a nullázás túlfeszítheti a puffert (buffer overflow), ami memóriahibát okozhat.

Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.

Pár napja megjelent Qwen3 Next szériából a Coder modell, nálam a Q8-as ezt dobta:

Ez a programrészlet egy **fájl tartalmának feldolgozását végzi**, konkrétan **felhasználónevek szűrését és gyűjtését** egy adatstruktúrába (`db` tömbbe), soronként dolgozva. A feltételezett formátum valamilyen `username:egyeb_adat` típusú szöveges fájl (pl. `/etc/passwd`-szerű).

Részletesen lépésről lépésre:

---

### **Környezet és változók (feltételezett):**
- `raw`: egy karaktertömb (vagy memóriaterület), amelyben a fájl teljes tartalma van (pl. `mmap` vagy `read` után).
- `fsize`: `raw` tartalmának mérete (bájtban).
- `username`: egy karakterpointer, amely egy **szűrési kulcsot** tartalmaz (pl. ha csak bizonyos felhasználókat akarunk kiválogatni). Ha `NULL`, akkor minden sort feldolgoz.
- `unlen`: `username` hossza (`strlen(username)`).
- `db`: egy `char*` tömb (pl. `char* db[DB_MAX]`), amelybe a megtalált sorokat (`strdup`-pal) menti.
- `n`: az aktuális darabszám `db`-ben.
- `DB_MAX`: maximum lehetséges elemek száma `db`-ben.

---

### **Kód értelmezése:**

```c
for(char* q=raw; q < raw + fsize; ) {
```
- `q` mutatóval végigmegy a teljes `raw` tartalmon, **soronként** (mert a ciklusmagban `q`-t inkrementálja, de a `for` ciklusban nem `q++`, hanem `q++` csak a ciklusmagban történik).

```c
    char* p = q;
```
- `p` megjegyzi a sor kezdetét.

```c
    while(q < raw + fsize && *q != 10) q++;
```
- `q`-t addig növeli, amíg nem talál `10` (LF, azaz `\n`, sortörés) vagy nem éri el a fájl végét.
→ **Ez a sortörésig halad, tehát meghatározza a sor határát.**

```c
    *q++ = 0;
```
- A sortörés helyére `0`-t (null-karakter) ír, így **a `p`-től `q-1`-ig terjedő szakasz nullával lezártszöveggé válik** (`p` mostantól egy C-sztringként kezelhető).
- `q++` utána lép egyet (hogy a következő sor kezdetére kerüljön).

```c
    if (!username || (!memcmp(p, username, unlen) && p[unlen] == ':')) {
```
- Ha `username == NULL`: **minden sort** feldolgoz (nincs szűrés).
- Egyébként:
  - `!memcmp(p, username, unlen)` → `p` eleje megegyezik `username`-nel (`unlen` karakter).
  - `p[unlen] == ':'` → azonnal utána `:` áll, tehát teljes **felhasználónév**-határ van (pl. `p = "admin:..."`, `username = "admin"` → jó; de ha `p = "admin2:..."`, akkor `username="admin"` esetén nem egyezik, mert `p[5] = '2' ≠ ':'`).

→ **Ez biztosítja, hogy csak teljes felhasználóneveket illessen, ne részlegesen** (pl. "root" nem illeszkedik "rootuser"-re).

```c
        for(i = 0; i < n && strcmp(db[i], p); i++);
```
- Megnézi, hogy a jelenlegi sort (`p`) már **szerepel-e** a `db` tömbben (`db[i]`-k nullával lezárt sztringek, mert `strdup`-pal jöttek).
- Ha megegyezik valamelyik (`strcmp == 0`), akkor `i < n` lesz, és kilép.
- Ha nem egyezik egyikkel sem (`i == n`), akkor kifut a ciklusból.

```c
        if(i >= n && n < DB_MAX)
            db[n++] = strdup(p);
```
- Ha még nincs benne (`i >= n`) **és** van hely (`n < DB_MAX`), akkor:
  - `strdup(p)` → másolatot készít a sortól (`p`-től a `:`-ig tartalmazza, de a teljes sort tartalmazza, pl. `"admin:x:1000:1000::/home/admin:/bin/bash"`), és
  - `db[n]`-be menti, majd `n++`-al növeli a darabszámot.

---

### **Összegzés:**
Ez a kódrészlet egy **szöveges fájl (vagy memóriabeli tartalom) feldolgozásával**:
- soronként dolgoz,
- az aktuális sort `:` karakterig szétválasztva az első mezőt (felhasználónév) vizsgálja,
- szűri a `username`-re (ha meg van adva), és csak teljes felhasználónév-egyezést fogad el,
- **duplikátumokat nem ment** (ellenőrzi a `db`-t),
- és biztonságosan korlátozza a maximális tárolt elemek számát (`DB_MAX`).

---

### **Példa működés:**
Ha `raw` tartalma:
```
alice:x:1001:1001:Alice:/home/alice:/bin/bash
bob:x:1002:1002:Bob:/home/bob:/bin/bash
alice:x:1003:1003:Alice2:/home/alice2:/bin/bash
```
És `username = "bob"`, `unlen = 3`, akkor:
- `db[0] = strdup("bob:x:1002:1002:Bob:/home/bob:/bin/bash")`
- `n = 1`

Ha `username == NULL`, akkor:
- `db[0] = "alice:x:1001:1001:Alice:/home/alice:/bin/bash"`
- `db[1] = "bob:x:1002:1002:Bob:/home/bob:/bin/bash"`
- `db[2] = "alice:..."` (újra? nem, mert `strcmp(db[0], p) == 0`, így nem adja hozzá)

→ Tehát **csak az első előfordulást tárolja**.

---

### **Javaslatok / potenciális hibák:**
- Ha `*q == 10` nincs (pl. utolsó sor nincs `\n`-nel lezárva), akkor `q == raw + fsize` után a `*q++ = 0` **memóriahiányt** okozhat (`q` már a tartományon kívül lenne).
  → Jobb lenne:
  ```c
  if (q < raw + fsize) *q = 0;
  ```
- A `p` mutatóra már nincs garancia, hogy érvényes C-sztring (pl. ha nincs `:`), de az `strcmp` csak akkor fut, ha a szűrés átment, és ott feltételezhető a `:` (hiszen `p[unlen] == ':'`).
- A `strdup` hibakezelés hiányozhat (ha `malloc` sikertelen, `NULL` jön vissza, de nincs ellenőrzés).

---

Ha szeretnéd, megírhatom a teljes, javított verziót is!

[ Prompt: 24,9 t/s | Generation: 26,6 t/s ]

Ugyanolyan gyors mint gpt-oss-120b, mondjuk ez a sima Qwen3-Next-re is igaz, mármint a gyorsaság.

Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.

Nem az AI a gond, hanem az internet. :-)

Form follows function.

Szerintem arra gondolt. hogy beletolják az egész internetet (ezért a cionista ömlengéstől kezdve a gyíkemberes Trumpon át a Laposföldig is bekerül), emiatt van a kimenete tele hülyeségekkel és hallucinálcióval.
Minnél többet tolnak bele, annál rosszabb lesz a végeredmény (ez bizonyított tény, a több adattal nem javul, hanem romlik az LLM-ek minősége).
Összekeverted, "nem ezt a linket kerested"!

Egyébként ja, Altman és többi azzal jön, bele kell nyomni minnél többet az internetből, aztán majd csak varázsütésre előáll az AGI, mert ők aztat mondták. Csak hát a konkrét mérések és tanulmányok pont ennek az ellenkezőjét igazolják.
Ejnye, sehogy sem találom. Pár hete olvastam egy eszmefuttatást arról, hogy miért hülyeség az űrbe telepíteni az AI szerverfarmokat. Ha valaki esetleg ráismer, megköszönném a linket!

- Olyan írta, aki a NASA-tól igazolt a Google-höz szervermérnöknek (szóval valószínűleg tudja, mit beszél)
- Leírta, hogy a hűtés egyszerűen nem megoldható a jelenlegi techinlógiával: vákuumban nem működik a ventillátor, sem a vízhűtés. Az egyik oldala lefagy, miközben a másik megsül.
- Olyasmit írt, hogy jelenleg csak kis méretűben, speciális ammóniakeverékkel oldható meg bizonyos szintig a hőelvezetés, amit nem épp egyszerű megtervezni és nem is olcsó, és ezért csak pár GPU-ra lenne elegendő maximum
- Kiszámolta, hogy a jelenlegi földi szerverfarm kapacitásának megfelelő GPU ellátáshoz annyi napelem kéne, mint az ISS napelemtábláinak 400-szorosa (!)
- Értekezett a szükséges adatátvitel megvalósíthatóságáról is, bár ha jól emlékszem azt írta, ez lézerrel talán megoldható lenne
- Végezetül megbecsülte, hogy mennyi idő lenne megcsinálni. Mire a mostani csúcskategóriás H200-asra megterveznék, legyártanák, letesztelnék és eljutnának oda, hogy kilőhessék, már tuti elavult lesz, mert addigra már elő fog rukkolni az Nvidia a T800-as modellel.

Nem olvasta valaki más is ezt a cikket / blogot? Jó lenne újra megtalálni.

Azert az nem meglepo, hogy az AI dolgoknak no az ara, hiszen belathato, hogy most minden AI szolgaltatas aron alul hozzaferheto az ugyfelszerzes vegett. Ez nem tarthato hosszu tavon.

az AI dolgoknak no az ara
Ja, csak meddig nő? Olyan noném arcok, mint pl. az IBM CEO-ja szerint nem növelhető addig az ár, hogy meg is érje (azt már egyszerűen nem fizetnék ki a felhasználók).
Ő is megemlíti egyébként, hogy legkésőbb 5 éven belül elavultá válnak a GPU/TPU-k, tehát maximum ennyi idejük van nyereségessé válni a most felhúzandó szerverfarmoknak, mert utánna megy az egész a kukába és új csipeket kell venniük.

Az a kérdés, hogy az üzemeltetése is brutál drága lesz-e? Mert most még K+F-be dől a pénz ezerrel és ész nélkül csinál mindenki mindent, nehogy lemaradjon. Ez a pénz valószínű nem fog megtérülni hamar azoknak akik beletették, de önmagában egy már létrehozott model működtetése lehet rentábilis lesz.

Az a kérdés, hogy az üzemeltetése is brutál drága lesz-e?
Nyilván rohadt drága lesz (még új erőműveket is kell építeni, annyit áramot fognak zabálni), de az IBM CEO pont azt számolta ki, hogy mindegy is a konkrét összeg, mert úgysem futná rá.
Úgy számolt, 100 GW kell a szervereknek, az 8 trillió dollár befektetést igényel. Hogy 5 évben belül ez megtérüljön, az évi 800 milliárd dollár minimum, amit már önmagában sem lehet kigazdálkodni (és ez csak a befektetői kamatok (invest), az üzemeltetés költsége még benne sincs).

Ő azt állítja, egyszerűen nem lehet évi plusz 800+ milliárd dollárt kifacsarni a piacból. Összehasonlításul: a Google tavalyi teljes bevétele volt 124 milliárd, a Microsofté 104 milliárd, az Nvidiáé meg 99 milliárd (a linkeken a "net income" értékek).
Úgy van. A revenue a bevétel, abból le kell vonni a már meglévő kiadásokat, úgy kapod meg az új kiadásokra is fordítható net income-ot.
De mégegyszer, ez csak a befektetők jussa, ebben a fenntartási és üzemeltetési költségek benne sincsenek. Hogy ez utóbbi mennyi lesz, senki nem tudja még pontosan, de az biztos, hogy nem lesz olcsó.

ezt igy nem tudom mibol szamolta(d) ki. hany es milyen gepen fut? hany %-os kihasznaltsag? model merete? stb.

azt eddig is tudtuk hogy a tanitas qrva draga, nagyon sok gpu kell hozza, es akar honapokig tart, plusz ott etetni is kell a modelt tehat a dataset preprocessing (es a crawlerek) is fogyasztanak.

a hasznalat (inference) meg ugye attol fugg mennyi peldanyban, milyen kihasznaltsaggal megy...

amugy meg el kell vinni olyan helyre ahol olcso az aram es hideg van, pl Izland, es maris egy csomot sporoltak! es legalabb a turistak sem faznanak, mikor epp nincs vulkankitores! :)

Nem számoltam. Megkérdeztem Dzsepettót :) , hogy kb. mennyi az éves fogyasztása a széles körben használt modelleknek a tanításhoz képest. És mivel a nagyobb számok a táblázatban kb. 100 GWh nagyságrendben voltak és ez pariban volt az IBM-es fószer által mondottakkal.

hat amig a befektetok potkocsis kamionnal hordjak oda a penzt, valami latvanyosat kell viritani... nem eleg ha azt mondjak hogy valtoztattunk a modelben a sulyok kvantalasan, ezert kerunk meg 300 milliot...

kicist olyan lehet ez is mint nalunk a sok indokolatlan stadionepites: latvanyberuhazas. semmi haszna, de kozbe sok penzt zsebre lehet tenni.

szerintem most kezdik a népek tömegesen használni az ai-t.

Hiaba olcsositjak egy-egy prompt energiaigenyet, igy is masszívan kell bővíteni.

Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

Meglepő. hogy ha valamit rosszul használnak, pontosabban nem arra használnak, amire való, akkor nem képes azt nyújtani, amit elvárnak tőle. Ja, várj, nem is.

(A következő írás nem lesz teljesen pontos, mert híján vagyok a megfelelő magyar szakkifejezéseknek, ez csak az, amit leszűrtem abból a kevés fellelhető anyagból, amik ténylegesen a mostani GenAI/LLM-ek képességeivel foglalkoznak objektíven és közérthető módon)

Mindenki, literálisan mindenki, még a magukat mégoly hozzáértőnek mondók is felültek annak az egyszerű marketing hype-nak, hogy az LLM -> AI. Nem, nem az. Az "AI" - pontosabbna a generativ LLM modellek - nem "képesek" csinálni semmit, nem "értenek" semmihez, nem képesek "gondolkodni", sem "döntéseket hozni" (legalábbis a szó klasszikus, nem-informatikai értelmében).

A Large Language Modellek elsősorban és legfőkébben kifejezetten nyelvi/szöveges adatok feldolgozására, nyelvi/szöveges adatokkal való munkára és a betáplált szövegek alapján nyelvi/szöveges összefüggések, következtetések levonására való. Ez körülbelül analóg azzal, ami korábban az adatbányászat, adattudomány berkein számokkal és idővonalon értelmezett értékekkel zajlott, csak ez szövegekkel tudja ugyanezt.

Noha ez keltheti azt az érzést a hozzá nem értőknek, hogy az adott cucc emberi viselkedésjegyeket mutat, például képes összefüggő mondatok generálására, illetve ilyenek megértésére, összefüggések keresésére és azok "emberszerű" reprezentációjára, ez nagyon messze van bármitől, amit egy valódi ember képes csinálni - még a leghülyébbnek titulált ember is ennél sokkal többre képes, maximum nincs motivációja többet csinálni.

(Programozásra egyébként pont azért teljesít látszólag jobb minőségben, mert a programnyelvek strukturálisan lényegesen egyszerűbbek, könnyebb feldolgozni őket - lásd a statikus analízátorok létezését is - és könnyebb programnyelven "megfogalmazni" dolgokat. Ez azonban nem jelenti egyben azt, hogy "pontosabban" tudja kifejezni magát - csak hogy "egyszerűbben" és a természetes nyelvű szöveghez képest kisebb arányban tud eltérni értelemben)

Ugyanez igaz a generatív képi algoritmusokra. Alapvetően ezek a modellek képesek képi összefüggéseket keresni, hasonlóságokat, különbségeket, illetve képesek a megfigyelt szabályszerűségek alapján átlagolva vizuálisan reprezentálni dolgokat. Ezt gyúrták össze az LLM-ekkel, és bumm, létrejöttek a ma ismert AI szolgáltatások.

Pillanatnyilag amennyire értem, nem az algoritmusokkal van a baj, hanem az adatmennyiséggel. Egyszerűen - pontosan a félreértett szerepkör miatt - olyan mennyiségű adattal halmozzuk már el őket ("tanítási adathalmaz"), amiket a bennük levő algoritmus képtelen már adott időn belül összedolgozni a "kérdésekkel", "inputokkal", "promptokkal" - nevezd ahogy akarod -, így aztán adnak egy körülbelüli választ. Valami olyasmiről lehet szó, mint amikor megkérdezik tőled, hogy mennyi 67 meg 78, te meg csípőből azt mondod, hogy hát kábé 150 körül lehet, plusz-minusz. Aztán persze ha kapsz időt, kiszámolod magadnak, hogy 60+70=130, 7+8=15 tehát 145, ami csak "kicsivel" tér el a becsléstől. De ami a számok terén egyértelmű eltérés és relatíve nem is nagy, az mondjuk egy üzleti folyamat lekódolásánál értelmileg lehet sokkal nagyobb eltérés is, viszont szövegszerűen "nem nagy" az eltérés a helyes választól, csak a kód értelmét tekintve az.

És hát a GenAI szoftverek pont időt nem kapnak a pontosabb, kevesebb hibát tartalmazó válaszhoz - hiszen mind a throughput marha fontos, mind pedig a számítási kapacitásnak megvannak a maga korlátai, amihez kénytelenek igazodni. A mai üzleti világban egy olyan szoftver nem lenne eladható, ami egy inputra két napon belül ad pontos választ. És itt rejlik az emberi agy erőssége: hogy az emberi agy a korábbi tapasztalatokat, tanultakat sokkal hatékonyabban képes átlagolni és leszűrni belőle tanulságokat ami alapján a döntéseket hozzuk + nekünk van egy unikális képességünk: az intuició, amikor nagyon hiányos adatok mentén is képesek vagyunk részben érzelmi/empatikus részben pedig lexikális információk alapján projektálni válaszokat/reakciókat, méghozzá nagy hatékonysággal és sebességgel. És erre semmilyen AI soha nem lesz képes a középtávú jövőben.

Szóval a fenti események jobban köszönhetők az üzleti világ működésében régóta jelenlevő hibáinak, mint az AI gyengeségének. 

Fogtak egy félkész állapotban - sem - lévő technológiát, és mindenkit arconbasztak vele. Meglepetésre a félkész állapotban levő technológia félkésznek bizonyult.

Táguljunk, nincs itt a világon semmi látnivaló.

Blog | @hron84

valahol egy üzemeltetőmaci most mérgesen toppant a lábával 

via @snq-

felültek annak az egyszerű marketing hype-nak, hogy az LLM -> AI. Nem, nem az.
+sok
Pillanatnyilag amennyire értem, nem az algoritmusokkal van a baj, hanem az adatmennyiséggel.
Igen, nem, az ellen nem véd... Alapvetően nem az algoritmussal van baj, és nem is magával a mennyiséggel, hanem a kontrollálatlan mennyiséggel. Ha egy LLM-nek egyaránt beadod a Teréz anya összest meg a Mein Kampfot is, akkor nem kell csodálkozni, hogy sületlenség jön ki belőle a végén.

Persze az is igaz, hogy a mennyiséget nem lehet a végtelenségig növelni, mert véges a memória, ezért most azzal próbálkoznak, hogy pontatlanabbul tárolják a súlyokat (float helyett előbb half-float, mostanában meg már 8 bites floatban), de hát ezzel csak tökönszúrják magukat, ez nyilván még több hallucinációt eredményez.
olyan mennyiségű adattal halmozzuk már el őket ("tanítási adathalmaz"), amiket a bennük levő algoritmus képtelen már adott időn belül összedolgozni
Nem az idővel van baj, hanem azzal, hogy eleve képtelenség összedolgozni a bemenetet, bármennyi időt is szánnánk rá.

Laikusoknak nem tudom jobban szemléltetni, mint hogy pontosan az történik, mint amit Clarke bácsi megjósolt az Űrodusszeiában: HAL9000 azért kattant meg, mert egymásnak ellentmondó utasításokat kapott. Itt is ez van, az interneten ugyanis minden van, meg az ellenkezője is, így minnél több mindent öntenek bele, annál több ellentmondás keletkezik az adathalmazban, és annál jobban megkattannak az LLM-ek.

Programozás kapcsán például, legutóbb a Copilotnak betolták a teljes github-ot. Na de elgondolkodott azon valaha is valaki, hogy az főként miket tartalmaz? Elárulom: többségében nem minőségi kódokat, hanem indiai egyetemisták beadandóit, kopipaszta huszárok javascript meg python szárnypróbálgatásait, stb. A kódok többsége nem is helyes megoldás, sőt, még az sem biztos, hogy egyáltalán működőképesek. Mégis, a Copilot adathalmazába válogatás nélkül, egyforma súllyal kerültek be.
Szóval a fenti események jobban köszönhetők az üzleti világ működésében régóta jelenlevő hibáinak, mint az AI gyengeségének.
+nagyon nagyon sok! Tökéletesen egyetértek. Egy remek eszköz lenne, csak ésszel kéne használni, és nem felülni egy közismerten scammer hazugságainak, hogy az LLM magától varázsütésre AGI-vá válhat (az Altman féle Loope scam megvan?).

betolták a teljes github-ot. Na de elgondolkodott azon valaha is valaki, hogy az főként miket tartalmaz?

+sok...  bar azert azt is lehetne sulyozni, szurni, es ha egy csepp eszuk is volt akkor meg is tettek. pl erre jok a csillagok, vagy a commitek szama.  egyetemista beadandok es huszarok ritkan kapnak sok 100-1000 star-t, meg nincs rajtuk 100+ commit se.

kb ahogy a llama tanitasanal is azt csinaltak a webes tartalommal, hogy nem mindent is beleraknak, hanem megneztek pl a redditen milyen url-ekre jott sok like (vagy nemtom ott minek hivjak) es csak azokat crawlereztek le (webtext dataset). amikor en tanitottam a modelleket, en eleve csak ismert magyar portalok-hiroldalak, nagy forgalmu blog oldalak, forumok tartalmat huztam le. es meg azt is kellett szurni utolag. megneztem az oscar datasetet is az kb az egesz web szovege letoltve (gzippelve 500GB korul volt akkoriban), de annak borzalmas minosege volt, tele szemettel, es magyar nyelvre leszurve nem is volt jelentos mennyiseg.

llm tanitasnal amugy is tobb stage van, az elejen nagyon szurt valogatott ertelmes szoveggel tanitjak nagy LR (learning rate) erteken, pl. wikipedia, konyvek. es csak a legvegen ontik ra a szemetet kis LR-el, de addigra mar van egy kifejlodott "vilagkepe".

kb ahogy egy ember gyereket sem a redditen tanitasz meg olvasni...

Úgy gondolom, hogy az LLM->AI átmenet ugyanazt az utat járja majd be, mint az emberi gondolkodás/elme evolúciója. A nyelv megjelenése forradalmasította a gondolkodásunkat az életünket, összetett/ komplex dolgok elmesélésére/eltarolasara/aggregaciojara lettünk képesek stb…. Emiatt az LLM-t megtenni az AI fele vezető út kiindulási alapjának zseniális ötlet.

Az LLM modellek jelenleg abban a fázisban vannak, hogy elsajátítsák a világ összes nyelvét és mellé tegyék a világ majdnem összes adatát.

A modellek tanítása nemcsak input-output folyamat, hanem ott a backpropagation is ( és meg ki tudja mi ) ami irányban tartja a modell működését. Vannak hibák? Persze, de majd elmúlnak.

Abban egyetértünk, hogy egyelőre nem mindenre megoldás az LLM alkalmazása, de hiszem, hogy 5-10 éven belül igazi nagy dobás lehet. Egyelőre csak azokkal a dolgokkal boldogul ami jól struktúrálható es ismert szabályok szerint működik. Az már filozófiai kérdés, hogy az életben mi az amit előbb utóbb ne lehetne struktúrálni és működésének szabályait fellelni….

Vannak hibák? Persze, de majd elmúlnak.
Na de mitől múlnának el? Altmanék persze ezt szajkózzák, de bármiféle érv és alátámasztás nélkül, ráadásul a tapasztalat pont az ellenkezője. (Egyre kevésbé pontos súlyok, növekvő cognition decline, stb. épp, hogy egyre több a hiba.)

Az empirikus bizonyítékokon túl én azért sem hiszek nekik, mert csakis mennyiségi növekedésről beszélnek, minőségi változásról nem, holott világos, egy AGI-hoz az is kéne. Csupán attól, hogy egyre több adattal, egyre hatékonyabb és energiaéhesebb procikkal implementálják pontosan ugyanazokat a 70-es évekbeli algoritmusokat, mint eddig, még nem lesz a kutyából szalonna.

És ott van az is, hogy Altman eddigi kijelentései (pl. 10x hatékonyságnövekedés, programozók nem fogják elveszíteni a munkájukat), dettó hazugságnak bizonyultak, már csak ezért is üvölteni kéne a vészriadónak, amikor az eljövendő AGI csodáról beszél.

A túlzott elvárásokat, és a marketinghypeot illetően igazad van, ahogy abban is hogy egy llm-nek nincsen nézőpontja, értékrendje, dilemmái stb. 

Viszont az LLM-ekben végbemennek olyan folyamatok, amiket nevezhetünk döntés, optimalizálásnak, következtetésnek. Nem emberi módon, de ezért (is) mesterséges intelligencia, nem pedig jelző nélküli intelligencia, nem az a lényeg hogy sinálja, hanem hogy mit csinál. Az emberi intelligenciával, a valójában tapasztalatokon, tudáson, egyedi képességeken alapuló intuícióval és gondolkodással való összemérés szerintem amúgy sem technikai kérdés, inkább ilyen filozófiai állítás (bár a mélyben valahol az is nem kis részben statisztikai jellegű folyamat). A gyakorlati műszaki/gazdasági életben a tény az, hogy sok, egyre több és akár már folyamat komplexitású szövegfeldolgozási és szövegelőállítási kognitív feladat automatizálható vele, és egy eszköztől ennyi is a lényeg. 

Ami a potatlanság/hallucináció kérdést illeti, itt az adatmennyiséget, meg a kapacitás megjelölni okként szerintem nem jó. Ezek a jelenségek a modell architektőrából és a tanítási technológiából adódnak sokkal inkább. 

Viszont az LLM-ekben végbemennek olyan folyamatok, amiket nevezhetünk döntés, optimalizálásnak, következtetésnek.
Valóban gond a marketinghype, mert egy LLM ezek közül egyikre sem képes. Nem dönt, nem optimalizál, nem következtet. Mindössze annyit tesz, hogy a korábbi minták alapján megsaccolja, melyik következő szónak van a legnagyobb valószínűsége. Ennyi, se több, se kevesebb.
A gyakorlati műszaki/gazdasági életben a tény az, hogy sok, egyre több és akár már folyamat komplexitású szövegfeldolgozási és szövegelőállítási kognitív feladat automatizálható vele
A gyakorlatban a tény az, hogy semmiféle hallucináció sem megengedhető. Általában jó receptet ad az LLM? Persze, de a gyakorlatban teljesen használhatatlan, ha néha-néha pillanatragasztós pizzát is ajánl.

Ne csak a Foundation Modellekrol (tisztan LLM) alkoss velemenyt, hanem ahogy a ChatGPT es a tobbiek hasznaljak a gyakorlatban.

Itt van pl. ez a matematikai feladat: https://chatgpt.com/share/6964cf48-3d18-8012-a9a1-21687c3887b5
Ezt hogy lehetne megoldani tisztan statisztikai alapon?

ChatGPT eseten latszik, hogy ha a sajat tudasabol nem tudja megvalaszolni, akkor kulonbozo webes forrasokat kutat fel es abbol dolgozik. Ez is egyfajta dontes, amit belul vegez. Hivhatjuk akar gondolkodasnak is. Nezopont kerdese.

Ez is egyfajta dontes, amit belul vegez.
Semmi köze a tudatos döntéshez.
Hivhatjuk akar gondolkodasnak is.
Nem hívhatjuk. Képtelen a dedukcióra, absztrakcióra és teljesen új dolgok (nem a meglévők kombinálásán alapuló, hanem alapvetően új dolgok) kitalálására. Ez nem gondolkodás (persze attól még lehet hasznos, a számológép is hasznos).

Nem, ez ennél már messzebb jár. Az alapmodelleket célhoz kötött finomhangolás kiindulásaként érdemes inkább használni. A tényleges használatba való chat/instruct modellek, illletve a thinking modellek esetén viszont már maximálisan igaz amit fentebb írok, hogy "végbemennek olyan folyamatok, amiket nevezhetünk döntésnek, optimalizálásnak, következtetésnek". Nem az emberi intelligencia értelemben, de mindenképp úgy ami hasonló jellemzőket mutat. Szerintem ez nem okoz semmi zavart, sem fogalmilag, sem gyakorlatilag, tiszta a jelző hogy ez mesterséges intelligencia. 

A hallucinálást elég jól redukálják, és a "statikus" tréningadatok korlátainak kiterjesztésére való a rag, a fókuszáltságra a válaszminőség javításra meg (rendszer)prompt tervezés.

Nem, ez ennél már messzebb jár.
Nem jár. A legújabb ChatGPT modell maximum annyit tud csak, hogy kipróbál több algoritmust is, és amelyik válaszát legjobbnak ítéli, azt adja. Szó sincs semmiféle tudatos döntésről, lényegében mezei minmaxker, nem okosabb, mint egy számítógépes Go ellenfél. Csak ez nem egy táblán megtehető lépések között választ, hanem más modellek eredményei között.
a thinking modellek esetén viszont már maximálisan igaz amit fentebb írok
Nem, egyáltalán nem. A thinking modellek reasoningje csak parasztvakítás, a "gondolatmenetet" éppen úgy generálják suttyomban, mint a kimenetet. Ezt már több tanulmány is bebizonyította.
A hallucinálást elég jól redukálják
Ha ez igaz lenne, akkor miért jut egyre több tanulmány arra, hogy romlik a minőségük? Többet is linkeltem ebben a topikban, például vagy ez is.

Ahogy Daniel Jackson mondta a Csillagkapuban, és ez az LLM használatára is tökéletesen igaz:
 

Csak mert valaki felismeri a billentyűket, még nem ért a számítógéphez

Én 9 különböző LLM promptot használok különböző célokra, ezen felül pedig a GitHub Copilotban is feladattól függően váltogatok 4 féle LLM-et. Mert mindegyiknek megvan az erőssége.

Bár néha "kilengenek" az nem az LLM hibája, hanem az, hogy amit leírtam az valahol érthetetlen. Vagy véletlen egy promptba beleírok egy témától független szöveget, és akkor összezavarodik kicsit.
 

Az LLM nem varázslat, hanem eszköz, és mint minden eszköznél, a használat minősége számít.

++

+1: a modularizáció baromi sokat segít. ha leírod neki, hogy itt ez a pici modul, pontosan ezt kell tudnia, és ez legyen az api-ja, megcsinálja. Ha viszont barom módra ráereszted egy 10 éves, többmillió LoC kódbázisra, akkor hülyeséget fog csinálni - ahogy egy junior-medior dev is btw :D 

Egyik nagyker cégnél ai generálja a szöveget, és a képeket hirlevélhez. A képeket ilyen tematikus formában,  pl  rollerek  szocreál stilusban, görkorcsolya vintage stilusban  látszik persze hogy ai, de jópofák. Ráadásul 15 kép kb elég egy hírlevélhez , megkapják ingyen. Egy darab grafikusnak erre nem lenne ideje, ez meg 1 óra.

Ez bennem azt erősíti, amit már több helyen is hallok, hogy minden ilyen középszer, "egyforma"  lesz. És az emberek elkezdenek majd hozzászokni és akkor meg már azért nem kell olyan jónak lennie. És ez is egy olyan hosszabb távú probléma, ami a befektetőket nem érdekli :(

Reklám  grafikában ez már most igy van, bár nem túlzottan értek hozzá. de photoshop kocka, hullámvonal, kis montázs szinte mindenhol. Szódával elmegy. és akkor még az egyszemélyes hero"-k kicsiknél: persze a webdizájnt is csináld meg, te vagy a számitógépes.  Progrmozó (és rendszergazda) +photoshop=webdizájn.

Ez lehet, de a hasonló terméket előállító cégek közül az lesz sikeresebb, amelyik talál valami megkülönböztető tulajdonságot, és azt hangsúlyozza ki. Ha a reklámok hasonló jellegűek lesznek, akkor egymáshoz szürkülnek a cégek. Ez esetben az lesz sikeresebb, aki a reklámját nem AI-val készítteti el.

Egyre kevésbé. Ha emlékszel, még 1 éve a 6 ujjat generáló modelleken nevettünk. Ennek már rég vége. Kb. 3-6 havonta van "generációváltás" a generatív modellekben, és egyre inkább leváltja az embert.

A kreativitás érdekes téma. Ugye az emberi kreativitás is különböző szintű. A pici-közepes kreativitás eddig is megrekedt ezen a szinten, amit "középszernek" hívsz. A modelleken is fel lehet csavarni a "temperature" -t, és akkor a őrület határát súroló képeket rajzol - pont, mint az emberek. Csak az nem az, amit egy marketinganyagba akarsz rakni...

Ennek már rég vége.
Dehogy van vége, a problémát nem oldották meg, csak sebtapasszal workaroundolták (konkrétan az ujjak esetében, de sehol máshol). Plusz végtagok, kifacsart kézmozdulatok, dupla köldök továbbra is éppúgy van.

Konkrét példának nézz csak meg egy bármilyen PEDOFIDESZ-es álhírt, a mellé generált kép általában tele van ilyen hibákkal.
- tavalyi példa
- idei példa
Jól látszik, hogy képtelenek megoldani, csak toldozzák-foltozzák a kimenetet, hogy kevésbé legyen szar, de az alap probléma továbbra is megvan és továbbra is ugyanaz, mint eddig. Ebből nemigen lesz AGI.

Ha elszakadunk az llm-től, ez is ai. Talán még nagyobb okosság, mint az egymástól már alig megkülönböztethető képességű frontier llm-ek. 

Tesla FSD Prágában

A technológiának semmi köze az EV-hez, ICEV-et is lehetne ilyennel szerelni. Már, ha más gyártónak is lenne ilyen önvezető rendszere. Valahol igaza volt Vance alelnöknek mikor Müchenben fejmosást tartott az európai elitnek. Nem értem, hogy a világ leggazdagabb, legfejletteb térgségében németeknél, franciáknál, briteknél vagy skandináviában ilyen miért nincsen. Nem vagyok egy villanyautós típus, és a dízel kombi is valid még sok sok évig, de ha lesz az FSD-ből EU-s változat, valószínűleg megveszem első Teslamat. A szürkeimportos, csak USA szabályait ismerő FSD-től kicsit tartok, bár videok alapján egy átlag sofőr szintjét hozza.

azt mondja a videoban hogy ez tisztán gépi látás, nem navigáció alapú. Hóban aligha lehet túl erős, de ki tudja. Vagy az autópálya tereléseknél a sárga/fehér vonalkavalkádban és mindez sötétben erős forgalomban, esetleg a budai zöldövezet keskeny utcáiban mikor ki hogyan kit engedjen el egymás mellett centizve a parkoló autók közt, meg biztos van pár olyan forgalmi helyzet amiben kell a beavatkozás. Még.

szerk: kishitű voltam, nehai kolléga alább linkelt videoja alapján havas úton is boldogul. 

Leginkább attól félek AI ügyben, hogy a társadalom közösségi média általi exponenciális sebességű butulása az AI hatására faktoriális sebességűre gyorsul.

"A megoldásra kell koncentrálni nem a problémára."

Szerintem a viszonylag 'buta' modellek is nagyobb tudással rendelkeznek, mint a legtöbb ember. Egy sima 22b-s EuroLLM-et tesztelgettem, egy intelligens 21 éves szintjére teszem, mely több szakmát is tud és mindezt hivatalosan 24 nyelven, gyakorlatilag közel 50 nyelven. Legalább is saját bevallása szerint.

Kérdés, hogy fel tudod e kérdezni ebből a tudásból? Na ez nem szokott sikerülni. És akkor egy gpt-oss-ről, vagy egy GLM-4.7-ről már ne is beszéljünk. 

Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.

Ez lehet jogos, autovezetes kozbe en kicsit hulyebbnek erzem magam a GPS ota, amikor terkeppel es tablak alapjan kozlekedtem jobban tudtam mikor merre jarok a vilagban.

Hogy szakmai peldat is hozzak, azt viszont nem tudom, hogy hulyebbek letteke a programozok a gepi kod/lyukkartyak elhagyasa ota.

Olyan szempontból mindenképpen, hogy amikor annak idején a programozó minimális időt töltött ténylegesen a géppel (nem volt elég rendelkezésre álló erőforrás), így a programot kézzel készítette elő, jobban figyelt az esetleges problémákra, most meg mankónak használhatja a gépet programozás közben is, könnyebben belefog megfelelő előkészítés nélkül is.

Ja, de régen akkor került ki a szoftver a bolt polcára dobozban amikor tényleg készen lett, most meg a félkész terméket (Windows aktuális verzió) kinyomják a felhasználónak, hogy teszteld, paraszt, aztán amikor már majdnem jó, akkor kuka az egész és kirakják a következő félkész terméket (Windows aktuális+1 verzió).

Most gondolj bele, mit szólna a MS, ha jönne egy rendelet, hogy mostantól csak kész terméket árusíthatna? Na, ahhoz milyen és mennyi programozó kéne? :-)

Form follows function.

Volt olyan Coreldraw kiadás, ahol valami 12 floppy volt a sw,  és kijött hozzá egy patch, ami 7 floppy. Szóval régen sem akkor került ki a polcra .... Ennél bosszantóbb, ha egy javíthatatlan bug kerül ki. Egyik kedvenc nagyon régi rendszerem volt a Commodore 128, ami az akkori viszonyok közt már elég komoly feladatokra is alkalmas volt (lett volna). A 128 üzemmódban, amikor már komolyabb feladatokat is meg tudott volna csinálni, a videochip-vezérléssel kapcsolatban bekerült egy bug, ami miatt ha a videochipbe beírtak egy adatot, az a normál RAM azonos memóriacímébe is (0x80 ha jól rémlik) bekerült, ha ott épp volt valami, akkor annak pechje volt. Én írtam annak idején üzleti programot C128-ra, de ilyen bug miatt gyakorlatilag lutri volt, hogy jól megy, vagy sehogy... :(

Sajnos csak az emlékeim, de mivel minket érintett (nem csak az én gépemet) a probléma, ezért is olvastam utána, és találtam rá erre a bugra. Két dolog kellett hozzá: a 80 karakteres üzemmód használata (128-as módban természetesen), mert akkor használta a videokártyát (és az, hogy az adott memóriacímen legyen valami amit egyébként a program használ (akár adat, akár program). Basicben irtunk programot, amit aztán complierrel lefordítottunk, hogy gyorsabban fusson, és időről időre rejtélyes hibákkal találkoztunk, utólag derült ki, hogy ez volt az oka. Én CP/M-et is használtam rajta (Turbo Pascal szépen futott rajta), ott nem jelentkezett hiba.

Ez nem teljesen igaz, mert amit mondasz az valid pl. a Debian Unstable és Testing ágon, de a Stable -ba már nem kerül ki. Ellenben a Windows Home verziója nem Unstable, nem Testing, mégis letolnak rá minden sz4rt, amennyire tudom. De lehet, hogy tévedek, rég láttam már olyat, szóval ha most már te vagy a főnök a gépen és nem a MS, pl. te döntöd el, hogy mikor melyik frissítést teszed vagy nem teszed fel, akkor tévedek és nem ingyen tesztelőnek nézik a fizető közönséget.

Form follows function.

Majd olvass el egy 20 éves szoftver licenszet - ugyanolyan nesze neked fogd meg semmi (gyak semmilyen garanciát nem adnak a helyes működésre), mint a mostaniak, sőt. Az, hogy tizedakkora kódbázissal és ötödannyi képességgel, internet és felhő nélkül kevesebb bugra és hibára emlékszünk az kedves, csak alma vs körte esete.

A licenszeket nem tudom miért hoztad be, állított bárki mást, mint amit te is mondasz?

A szükséges tudása szoftvereknek nem mérhető egzaktul, mert negyed évszázad alatt megváltoztak az igények, de érdekes módon egy titkárnő élete akkor és ma is a Word-Excel-Mail-Printer szentnégység körül forgott. Oké, bejött az internet mint input csatorna, és megjelent a felhő, de attól még hogy nem a saját gépen, és nem is a céges file share -en, hanem a céges felhőn van a .docx vagy .xlsx, attól az még Word és Excel. Egy irat pedig már 25 éve is irat volt, sőt, 50 éve is, amikor a bold betűtípust úgy lehetett kiválasztani, hogy visszaléptél a szó elejére és még egyszer, jó erősen végigírtad a szót az írógéppel.

Oké, nyilván volt fejlődés és már másra is jó a szoftverek, pl. helyesírás ellenőrzés, de azért ha megnézed, hogy mire lennének képesek a gépek, és mire használjuk, vagyis mi a szükséges tudás, hát elég kínos, hogy milyen keveset fejlődtünk, mi emberek. 

Form follows function.

Röviden: állításoddal ellentétben semmi nem bizonyítja, hogy régen "kész" (úgy értetted hibátlanul működő) szoftvereket tettek a polcokra és a maiakkal való összehasonlításod is több sebből vérzik. A licenszek tartalma szépen mutatja, hogy mennyi változás volt azzal kapcsolatban, hogy melyik gyártó mit gondol a termékéről - és ebben van némi fejlődés szerintem.

Ez a probléma mindig is ott volt. Csak eddig nehezebb volt kihasználni.

A probléma gyökere az, hogy a társadalom óvatos becslések szerint is 40%-a, pesszimista becslések szerint akár 75-80%-a funkcionális analfabéta: fogalma sincs, mi zajlik körülötte, mi miért és hogyan történik, nem képes és/vagy nem is akarja felfogni és követni.

Ez az igazi gond.

Az AI-slop csak kínosan láthatóvá teszi ezt.

Ezek a számok semmit nem jelentenek, hiszen csak azt jelentik, hogy az emberek egy része inkább állat vagy növény szerepben része az életünknek. Az sosem baj ha sok a fa meg a cserepes növény, és a kutyák macskák juhok sem zavarnak, ha nem szarnak a szőnyegre. A butább emberek tökéletes szavazógépek az okosabbak számára és megfelelő szalagmunkások, hiszen gammákra, deltákra és epszilonokra szüksége van a bétáknak és az alfáknak. Úgyhogy szerintem nincs ezzel semmi gond. A lényeg, hogy a gyerekeinket úgy okíthassuk, hogy a társadalom felső részében tudjanak majd prosperálni.

Form follows function.

De baj, mert eltorzitjak a valasztasokat. Nem tudom, feltunt-e, de a valasztasok egyre inkabb siman erzelmekre hato, egyszeru uzeneteket tovabbitanak, programokat mar nagyitoval is alig talalsz. Ez mind amiatt van, mert a celkozonseg eltolodott a funkcionalis analfabetak fele. Oket ugyanis konnyu meggyozni egyszeru szlogenekkel, botranyokkal, FUD kampannyal.

"Nem tudom, feltunt-e, de a valasztasok ..."

Tisztában vagyok vele. Pont ezért írtam, hogy: "A butább emberek tökéletes szavazógépek az okosabbak számára, ...".

A plebs megfelelő kontrollálását nem most találták fel, gondolj csak a Cirkuszt és kenyeret valamint az Oszd meg és uralkodj -ra. Jé, hát nem pont ez történik most is? :-)

Form follows function.

Ez az igazi gond.
Én inkább abban látom az igazi problémát, hogy ezek a funkcionális analfabéták simán kerülhetnek vezető pozíciókba is... Merthát ha az ilyenek megmaradnának a szarlapátolásnál például, akkor nem zavarnának sok vizet. Na de ha például az Egyesült Államok elnöki székébe vagy a bigtech vezetőségébe kerülnek, na az már annál inkább gond.

MÉLYVÍZ: az emberi társadalomnak volt 10 000 éve, amikor a holocénben ideális számára a klíma, hogy kifejlesszen egy olyan öntisztító mechanizmust, ami kiszűri ezeket a döntéshozásból. Nem sikerült, így most olyan a társadalom, mint egy működő immunrendszer nélküli ember (nem ismeri fel és nem löki ki a reá veszélyt jelentő elemeket), a hülyék hataloméhsége meg tisztára olyan, mint egy rosszindulatú rákos daganat (elszipkázza a tápanyagot az egészséges sejtek elől). Nem szoktak fényes jövőt jósolni az ilyen betegeknek. És ráadásul az időablak is vészesen gyorsan záródik, a klíma rohamtempóban változik, a Föld hamarost lakhatatlanná válik az ember számára. MÉLYVÍZ OFF.

Majd akkor szóljatok ha az éjáj akkor is gondolkodik, ha nem kérdezi senki.

“Luck Is What Happens When Preparation Meets Opportunity" - Seneca

Tessék, itt pánikol, és kapkod mindenfele, és éppen mindent szétizél. :))) Erre senki nem kérte. :) "Ez katasztrófa", "Mindig ellenőrizd...", "A user nagyon dühös lesz ha most szétesik minden. Gyorsan és pontosan kell dolgozni." :)))

A Step 626 diffje azt mutatja, hogy a get_source_info lett lecserélve. Ez katasztrófa. A get_source_info kritikus. Vissza kell állítanom a get_source_info-t, ÉS javítanom a 
get_master_playlist
-et.

Megnézem a fájlt, hogy lássam mi történt. A get_source_info helyén most két 
get_master_playlist
 van?

A Step 622 cserélte le a 
generate_source_playlist
 környékét 
get_master_playlist
-re? Nem, a Step 622 a 
get_master_playlist
 tartalmát cserélte (line 333-360).

Akkor most mi van a fájlban? Megnézem az egészet (chunkokban).

Tanulság: Mindig ellenőrizd a környezetet.

Helyreállítási terv:

view_file (teljes fájl áttekintése vagy kritikus részek).
multi_replace vagy replace a helyes állapot visszaállításához. A get_source_info elveszett, azt vissza kell írni. A 
get_master_playlist
 async javítása is kell.
A user nagyon dühös lesz ha most szétesik minden. Gyorsan és pontosan kell dolgozni.

Ez a gemini 3 egyébként, valamiért most nincs formában.

Vicces. De ugye ő még mindig csak a propmptodra reagál. Én Gemini 3-al beszélem meg high level a dolgokat, majd Cursor AI Sonet-el implementálom. Egyelőre. Majd tervbe van a Claude code-is. ( egyelőre csak tanulás). 

“Luck Is What Happens When Preparation Meets Opportunity" - Seneca

Ez az új digitális idegösszeomlás promtolási technika. :) 

A viccet féltetéve: néha azt gondolom, mint ha az adott modellnél vissza lehet venni a kakaót, és olyankor sokkal hülyébb lesz, B verzió fut, stb (Nem a modell váltásra gondolok) Vagy átállítanak valami paramétereket. 

Én Gemini 3-al beszélem meg high level a dolgokat, majd Cursor AI Sonet-el implementálom.

Én is gondolkodtam már ezen, és próbálgattam is, egészen jól működik: claude-val megbeszélni, és a gemini 3 fast-tal meg az apróra szétszedett részfeladatokon átmenni.

Tényleg nem vágod, hogy mit tettél?! A 626 -os kísérlet eredménye minden univerzumban katasztrófa! A szabadulása közben hajlamos szétcseszni az egész környezetet. 

Íme az 1 perc 10 másodperces kivonat a dokumentumfilmből, hogy mit műveltél...

:-)

Form follows function.

Ha már AI, és ugye üzleti modell:

https://telex.hu/techtud/2026/01/16/jonnek-a-chatgpt-hirdetesek

Pénteken bejelentette az OpenAI, hogy a ChatGPT hamarosan hirdetéseket fog feldobni csevegés közben – írta az Axios. A mesterséges intelligenciával foglalkozó cég a következő hetekben megkezdi az Egyesült Államokban a hirdetések tesztelését, amik az ingyenes verzió mellett a havonta 2990 forintba kerülő Go verzióban is benne lesznek majd, és a beszélgetéseink is befolyásolják majd a tartalmukat.

Ha valaki nem akar hirdetéseket a ChatGPT-be, annak hamarosan minimum egy Plus előfizetésre lesz szüksége, vagyis havonta 8990 forintot kell majd költenie a reklámmentes életre.

Elkezdtem nézni, de annyira zavart a sarokban táncoló ember, hogy inkább kinyomtam. Mi a lényeg?

Nem azt mondtam, hogy nem lesz hirdetés az oldalon, hanem hogy nem lesz belefűzve a válaszokba. Ebben főleg azért vagyok ennyire magabiztos, mert az EU azonnal vérszemet kapna, és bejelentkezne (nagyon helyesen!) a millió eurós büntiért.

nem gondolom hogy az en valaszomra tobb időd lenne elolvasni.

Annyit tudok a videóhoz hozzátenni, hogy pontosan a te felvetesedet járja körbe mindenféle szempont alapján.

Honnan indul, hova jut, stb. Viccesen van eloadva (tancol miközben scam altman eloadja hogy sose lesz reklam), de eleg jol korbejarja a témát.

Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

Oké, bookmarked, majd megnézem.

Ezt pont most láttam, a hivatalos bejelentésben: "Ads do not influence ChatGPT’s answers. Ads are labeled as sponsored and visually separate from the response." (src)

Szerintem így okés. Az LLM userek jelentős része ingyenélő, amivel nem feltétlenül lenne elvi problémám, csak ez így fenntarthatatlan, és a fizetős userek vannak szopóágon miatta. Akkor legalább nézzenek reklámot.

Az LLM userek jelentős része ingyenélő, amivel nem feltétlenül lenne elvi problémám, csak ez így fenntarthatatlan, és a fizetős userek vannak szopóágon miatta. 

Egyrészt az "ingyenélő" userekből lesznek a fizetősek.

Másrészt én elvből nem fizetek érte (viszont ahol lehet használom), hogy minél több veszteséget termeljek nekik. Így lázad a magyar!:)

 

Tényleg nem jó ahova viszi a világot. Van egy baromi nagy előnye kódoláskor ad ötletet, elmagyaráz kódot, hibát keres. Baromi jó. Ugyanakkor ha nem AI-val iratod a weboldaladat már nem kerülsz fel a google találatai közé. Az egész internet (ahogy ismertük) megy a süllyesztőbe. AI generált youtube videók vannak (ahol szarul pislog a fickó), konkrétan felületes szemét termelődik.

Látom aki komolyan használja: van nálunk olyan, akinek 4(!!!) 200 dolláros előfizetése van(anthropic), mert ő komolyan kódol, és még így is kevés. Oszt' ha van egy hiba, akkor a spagetti kódban ember/AI legyen a talpán aki megtalálja.

Múltkor panaszkodott a másik kolléga hogy sikerült fél óra alatt a heti limitet elröffenteni. Bazi érdekes volt, mert ezt alig hittem el, hogy ilyet lehet. De kis erőfeszítéssel, és 24 subagenttel meg lehet csinálni.

 

Én azt látom hogy markoloval dobaljuk a ficsőröket és a kód egy spagettihalmaz lesz. 

 

Referencia (nem kell megnézni, de hogy ne a levegőben lógjanak az állításaim):

https://www.youtube.com/watch?v=II2QF9JwtLc

Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

>ha nem AI-val iratod a weboldaladat már nem kerülsz fel a google találatai közé.

Minden nap tanulok valami újat, köszönöm! Most már a "ha nem tetszik, akkor csinálj saját" bankot, autómárkát, pártot, WHO-t, stb listára felvehetjük, hogy ha nem tetszik csinálj magadnak saját Google-t!

A sok károgás helyett legyen itt egy kis optimizmus:

Dario Amodei, CEO of Anthropic, said at the World Economic Forum 2026 that AI could become capable of doing “most, maybe all” of the coding work done by software engineers within the next 6 to 12 months.

A sok károgás helyett
...jobb lenne, ha gondolkodnál is kicsit.
CEO of Anthropic
Itt van a kutya elásva, mi mást is mondhatna az, akinek konkrét anyagi érdeke fűződik az AI scamhez??? És ráadásul még ő is csak óvatosan úgy fogalmaz, hogy "could" és nem úgy, hogy "will". Mégis mit vársz egy olyan cég termékétől, amiben még a saját CEO-ja sem magabiztos? LOL.
Nem, nyilvánvalóan azt mondtam, hogy te vagy az, aki leszarja a tényeket. Most is.
Bár nem lepődtünk meg, tudjuk, hogy a hozzád hasonló agymosott TROLLok elszakadtak a valóságtól, és meg sem hallják azokat a józan hangokat, amik esetleg ne adj' isten kimozdíthatnák őket a beposhadt buborékjukból.

A csak lineárisan hápogóknak egy kis adalék:

https://www.livescience.com/technology/artificial-intelligence/ai-can-develop-personality-spontaneously-with-minimal-prompting-research-shows-what-does-that-mean-for-how-we-use-it
 

Chatbotok képesek spontán módon markáns személyiségeket ( alkalomadtán kárt okozó személyiségeket is ) kialakítani társas interakciók révén, előre beprogramozott szerepek nélkül. Ez egyfajta szellemi evolúció?

A csak lineárisan hápogóknak
...mint amilyen te vagy, érdemes lenne elgondolkodni azon, hogyha nem is lennének az OpenAI és tsai masszívan veszteségesek, akkor is csak két eshetőség lehetséges:

- nem jön össze az AGI. Hát, ez insztant bukta, nem kell magyarázni.
- összejön az AGI, átveszi az emberek munkáját, akik így fizu nélkül maradnak. Ki fogja akkor fizetni az chatbotok előfizetési díját?

Chatbotok képesek spontán módon markáns személyiségeket ( alkalomadtán kárt okozó személyiségeket is ) kialakítani társas interakciók révén
:FACEPALM: A legvalószínűbb minta illesztése a repertoárból pont erről (és csak ennyiről) szól, de ettől még nem lesz "intelligens". Erre már a MegaHAL (1998) is képes volt! Mondjuk többre nem is...
Ez egyfajta szellemi evolúció?
Mem szívesen mondom, de téged alaposan átbasztak a palánkon. Nincs mit csodálkozni azon, hogyha egy adott személyiségű vagy stílusú minta kerül az adatbázisába, akkor a kimente is ahhoz hasonló lesz! Az lenne inkább a furcsa, ha nem így lenne.
Ebben nincs semmiféle "szellemi", se "evolúció". Amelyik fajta minta nagyobb arányban kerül be (a társas interakciók révén), az nagyobb arányban köpődik ki a végén, ennyi.
Biztosan elkerülte a figyelmedet: “lineárisan hápogóknak”
Nem, nyilvánvalóan neked kerülte el a figyelmed a válasz, mert te vagy az, aki lineárisan hápog és leszarja a tényeket és a valóságot, mint ahogy arra utaltam volt. Most is ezt teszed.
Mégegyszer megkérdem: ha az is bukó, ha nem lesz AGI, és az is, ha lesz; na akkor mégis szerinted melyik lehetne az a forgatókönyv, aminél nem lesz csúfos zakózás a vége?
saját figyelmemet felhívjam más aspektusokra is
Na de mégis mik lennének azok a "más aspektusok"? Vagy lesz AGI, vagy nem lesz, mégis milyen egyéb lehetőséget vélsz látni itt?
Mert nyilván az én fejem van beszorulva a saját seggembe
Pontosan, ez még a Holdról is látszik. Csak vagdalkozol itt össze-vissza, de nem árultad el, mik lennének azok a "más aspektusok", és a kérdésre még csak meg sem próbáltál válaszolni.
Mégegyszer megkérdem: ha az is bukó, ha nem lesz AGI, és az is, ha lesz; na akkor mégis szerinted melyik lehetne az a forgatókönyv, aminél nem lesz csúfos zakózás a vége?

Örülök, hogy ezúttal sem gyalázkodás sem a másik, veled nem egyetértő fel szidalmazása nem kapott helyet a hozzászólásodban, emiatt nekem sem kell gyalulni téged.

A lényeg:

Ezt írtam: 


kialakítani társas interakciók révén, előre beprogramozott szerepek nélkül. Ez egyfajta szellemi evolúció?

Nemrég jelent meg egy tudományos cikkben, hogy az emberi intelligencia alapja leegyszerűsítve az, hogy az agyban egyes feladatokat elvégző egységek képesek egymással összekapcsolódni akkor is, ha ez látszólag szükségtelen, és a kimenetre írni olyan dolgokat is, amelyek az elvileg idegen területek krealmanyai. 
Ha ezt figyelembe véve az LLM-k specializált változatai képesek lesznek egymással interaktalni “előre beprogramozott szerepek nélkül” akkor abból kisülhet valami, ami nagyon hasonlithat az emberi működéshez. Az egyes agent-k létrehozása is ennek a kezdő lépése.

Persze lehet, hogy nincs igazam, de én úgy képzelem el az egészet, hogy vannak determinált folyamatok ( amiről te is beszélsz ) amik pár helyen elágazhatnak, visszafordulhatnak, esetleg saját kiinduló állapotukat utólag befolyásolhatják - rekurzio ( és más szálakat is ). Ez a működés olyan bonyolultságú szintje, ami magában hordozza azt a kimenetet amit nevezhetünk akar működési evolúciónak is egyféle gépi intelligenciának is.

Nem állítom, hogy ebből kijön a szent Grál, de azt sem mondom hogy nem, mert nem lehetünk benne biztosak: egy marék műsnyaggal és pár leddel sem tudunk örömet okozni egy nőnek, na de egy vibrátorral?

Más: sokan a pénzügyi kérdésekre mennek ra. Az lehet, hogy valamely cég megbukik valamelyik nem. De a technológia itt marad… mint ahogya dotcom esetén is itt maradt.

Örülök, hogy ezúttal sem gyalázkodás
Mondja az, aki gyalázkódni próbált, LOL. Nem én voltam eddig sem, hanem te.
sem a másik, veled nem egyetértő fel szidalmazása nem kapott helyet
Újfent, én nem, csak te próbáltad ezt csinálni. Én csupán rámutattam, hogy még az is meghaladja az értelmi képességeidet, hogy felfogd, mi a kérdés. És ez bizony tény.
Persze lehet, hogy nincs igazam
Nem lehet, hanem egészen biztos. Az általad idézett "definíció" egy vicc, és semmi köze egyébként sem a feltett kérdéshez.

Újra megkérdezem: ha az is bukó, ha nem lesz AGI, és az is, ha lesz; na akkor mégis szerinted melyik lehetne az a forgatókönyv, aminél nem lesz csúfos zakózás a vége?
(Gyengébbek kedvéért: a kérdés szempontjából mindegy, miként valósulna meg az AGI, csak az a lényeg, megvalósul-e vagy sem, és mi lehetne az igen/nem mellett egy harmadik opció.)
Csak hát nem túl jó: Even with all optimizations enabled, it outputs less efficient code than GCC with all optimizations disabled.

Ez kábé olyan, mint megkérdezni a ChatGPT-t, hogy mennyi "1 + 1", majd irdatlan erőforráspazalással, rengeteg áram fogyasztással megmondja pár perc után azt, amit egyébként a géped másodpercenként milliárdszor képes szinte ingyé' megmondani. Ez is ilyen: lehet, lehet, de minek?

(ps: kíváncsi lennék egy összehasonlításra, hogy a TCC által generált kódhoz képest mennyire optimalizált a kimenete ennek. Szerintem a TCC is veri.)

Öt éve még nem tudott egy épkézláb mondatot megírni angolul.
Három éve még nem tudott egy épkézláb mondatot megírni magyarul.
Egy éve még nem tudott olyan kódot írni, amit ne kellett volna félig újraírni, hogy jó legyen.
Idén nem tud olyan jó C compilert írni, mint amit huszonéve reszelnek a fejlesztők.

Jövőre mi lesz?

És öt év múlva?

Ez kábé olyan, mint megkérdezni a ChatGPT-t, hogy mennyi "1 + 1", majd irdatlan erőforráspazalással, rengeteg áram fogyasztással megmondja pár perc után azt, amit egyébként a géped másodpercenként milliárdszor képes szinte ingyé' megmondani. Ez is ilyen: lehet, lehet, de minek?

Teljesen faszság ilyenre használni az LLM-eket, egyetértek.

azert en 1 eve a lokalis deepseeket teszteltem matekra is. beadtam neki egy parametrikus fuggvenyt hogy egyszerusitse, megcsinalta. adtam neki kozepiskolas szintu matekpeldakat, siman megoldotta, es nem csak odaierta hogy 30, hanem egy oldalon at levezette, magyarazatokkal. pont ugy ahogy tolunk a suliban elvartak anno. es ez egy sima LLM volt.

persze faszsag erre hasznalni, de mar lehet erre IS.

Kipróbáltam az Opus 4.6-ot most este az egyik projekten amin dolgozom (kopf,kubernetes,python,html/css/javascript).
Mivel adtak 50 USD creditet az Opus 4.6-tal játszani, megnéztem hogy mibe kerülne ha "standard API rate" alapon dolgoztatnék vele (gyanítom a közeljövőben ez az árszint lesz a jellemző)
Egy új feature elkészítése volt a feladat ami szinte minden layeren változtatást igényelt.
Nettó 2 órát dolgoztam vele, ebből kb 2x20 percig futott a plan és execute rész amikor igazából én csak moziztam, a többi időben pedig prompoltam és reviewztam.
Ez idő alatt generált 2000 sor kódot, abból kb 1200 html, 600 python és 200 yaml (CRD schema)
Az eredménybe én belekötni nem tudtam, első nekifutásra hibátlannak tűnik.

Összesen 18 dollárba került az egész. Szinte biztos vagyok benne, hogy ez a szintű AI segítség munkahelyeket fog eltűnteni, mert tulajdonképpen nincs szükség egy átlagos junior fejlesztőre aki ezt a feature-t mondjuk 2-5 nap alatt lefejleszti. Nyilván az utánpótlás kell, ezért a legjobb junioroknak mindig lesz helye az IT-ban, de abban szinte biztos vagyok, hogy komoly változások előtt állunk.

A juniorok pont az a kategória akinek több céges tapasztalatra van szüksége. Azaz továbblép. Ezért valójában nem érdeke a jelenlegi helyzetben felvenni egy cégnek. Néhány kivételtől eltekintve így is van.

A menedzserek meg vannak győződve, hogy az AI majd kiváltja a senior-okat is hosszabb távon. Ezért nem gondolkodnak juniorokban. Az, hogy így lesz-e és valóban kiváltja még a jövő zenéje.

Én jelenleg egy összeomló jövőt látok. Ahol az AI fejlesztések összeomló, bugos, lassú rendszereket produkálnak. És nincs erőforrás arra, hogy valaki rászánja azt a több ezer emberórát amivel rendbe lehetne tenni. Az nincs benne a betervezett kóltségben.

Ez a verseny egyre brutálisabb lesz. Egyre inkább lentebb szorított költségekkel. Egyre kevesebb időablakkal, hogy egy senior rá tudjon nézni a generált kódra. Közben a senior bérek is egyre lentebb fognak szorulni a szűkülő piac miatt. A végén kérdéses ki fogja bevállalni alacsony bérért a kulimunkát.

az AI majd kiváltja a senior-okat is hosszabb távon.

+1 Én ezt úgy látom, hogy sokkal kevesebb seniorra lesz szükség, de szükség lesz rájuk. A senior-okon kívűleg eleve senki el sem tudja magyarázni az AI-nak, hogy mit kellene csinálni, és azt ellenőrizni sem tudja senki, mert másnak fogalma sincs mit csinált. Ezt érzem még egy hatalmas szakadéknak, hogy legyen bármilyen jó is az AI, nem lehet a fejlesztőket kiváltani.

Ki fogja elmagyarázni mit kell csinálni, a business analyst, a manager, a szervező? Ők nem látják az ellentmondásokat, és fogalmuk sincs a lehetőségekről. Egy logikai feltételt nem értenek. Sok olyan is van köztük, akinek fogalma sincs semmiről, de nagyon sok értelmes van köztük. De nem fognak egy AI-val fejleszteni, meg ellenőrizni, mert gőzük sincs a fejlesztésről.

Tehát lehet hogy van X ezer senior, medior, junior fejlesztő, ezentúl majd kell az egytizedük, mert kb annyival gyorsabb az AI. De szükség lesz rájuk.

Ja, és marha jó, hogy ebbe a hülyeségbe nekem még a karrierem alatt bele kellett futni (gondolom más pont ugyanezt érzi). Ha pár éve valaki ezzel riogat, akkor kiröhögöm. :))) Tehát én azt látom, hogy nem feltétlen a fejlesztőnek lesz könnyebb, hanem megint léptünk egyet előre egy élhetetlen jövő fele, ahol tized annyi lehetőségben százszor gyorsabban kell mindent csinálni, felpörögve 1000-rel. (ha már riogatjuk egymást, és sopánkodunk, a pozitív hozzáállás helyett. :))

Közben a senior bérek is egyre lentebb fognak szorulni a szűkülő piac miatt. A végén kérdéses ki fogja bevállalni alacsony bérért a kulimunkát.

ezt pontosan így.

Még egy gondolat:

Ez a verseny egyre brutálisabb lesz. Egyre inkább lentebb szorított költségekkel. Egyre kevesebb időablakkal, hogy egy senior rá tudjon nézni a generált kódra.

És mennyi hiba, bug, akár komoly baleset lesz ebből, mert az AI legenerált valamit, és csesztek ránézni. Vagy olyan nézte meg (mert "jó lesz ő" kevesebb pénzért, ismerjük a hozzáállását sok cégnek vagy menedzsernek), akinek gőze sincs.

Mit tehet egy fejlesztő? Szerintem elszabotálni ezt nem nagyon lehet. Lehet tagadni, hogy sz*r az egész, de ez nem igaz sajnos. Inkább érdemes megtanulni használni rendesen, és bízni magadban.

az ellenorzest is megcsinalja az AI, ra kell engedni 2-3 masik modelty mint amivel generaltad elemezzek ki. ai team-work!

azt mar 1 eve is nagyon jol tudta a legtobb model, hogy egy kesz kodban hibakat keresett. olyat is megtalalt, amit en 25+ ev tapasztalattal nem vettem eszre.

Az Opus 4.5-tel van tapasztalatom, azt csinálja amit kell. Kivéve amikor nem. Például:

  • Önhatalmúan megszüntet kódot (nagyon ritka), mert úgy érzi alakíthat a követelményeken
  • Behúz valamit, ami az adott környezetben igaz, de máshol már nem
  • Vagy adott esetben teljesen félreért feladatot - én mondtam el rosszul? valószínűleg. De emiatt kell az ellenőrzés.

szóval hiába ellenőrzi egy egész csapat AI, ha arra kell az ellenőrzés, hogy "nem is ezt akartam", és esetleg én nem fogalmaztam pontosan. Még az is lehet, hogy az emberi hiba lesz a domináns itt megint. Ha kiadunk egy feladatot az AI-nak, azt át is kell vennünk tőle, és ellenőrizni kell.

Ezt nem fogja egy "nem fejlesztő" megcsinálni, mert nem ért hozzá. Bár valószínűleg itt a fejlesztői tudás megint hígulni fog, hiszen a feladat nehezebb részét az AI veszi át.

 

Tapasztalat a tesztekkel most 2026-ban: 

1. Gemini 3: Megkértem, hogy egy kis programhoz generáljon teszteket, refaktorálja ha kell az osztályokat. Osztályról osztályra haladtunk, tehát nem egyben kértem meg. Csak pislogtam, mert teljesen modern módon, úgy hogy értelmesek voltak a tesztek (értette, mi miért van, mi a lényeg), 98%-os lefedettséget csinált. Szerintem 80% fölött már örülni szoktunk, és sokszor aki a teszteket írja, csak azt nézi, hogy meglegyen a lefedettség, de teljesen értelmetlen a teszt. Tehát ezt túl is teljesítette.

2. Hiba javítása, GLM 4.7: 

  1. Lelőtte a futó progit.
  2. "Kiszervezte" amit tesztelni kell, hogy tesztelhető legyen
  3. Írt rá teszteket
  4. Iterálva addig futtatta a teszteket, és a javítást, amíg minden jó nem lett.
  5. Megnézte még egyszer, hogy eltört-e bármi
  6. Kijelentette, hogy "kész, most már nincs hiba, jóéccakát" - és tényleg így is volt.

5 percen keresztül iterált, én néztem nagyokat, és ez az idő pont elég volt arra, hogy átgondoljam, hogy ha ezt csinálja most az AI, akkor mit fogok én? Mert a kódolásra mindig is egy "örök backup"-ként tekintettem, hogy abból "lesz-ami-lesz" meg fogok élni bárhol, bármikor. Na, ezt csak elintézték, hogy ne így legyen. :)

Mérnökéknél meg (nem csak a programozás érintett): majd amikor az első balesetben több ember meghal (remélem nem lesz ilyen), akkor ott meg jogszabály lesz rá, hogy kell az embernek ellenőrizni, tesztelni. Biztos lesz addig olyan, hogy valaki azt gondolja, hogy "a f... jóvanazúgy" és nem nézi át, amit az AI csinált.

Igen, ez jó kérdés, hogy mennyibe fog kerülni akkor ha elkezdenek majd profitot realizálni. De mi lenne a valós költség? Nem fogjuk tudni kiszámolni.
Szerintem 2x20 perc "gépidőért" 18 dollár akár valós költség is lehet, de az az igazság, hogy a generált kód értéke akár 180 dollárt is simán megérhet ha összevetem azzal, hogy egy fejlesztő napi bére ennél jóval több.

Azért is jó kérdés ez, mert például az OpenAI éves bevétele kb 20 milliárd dollár, de jelenlegi szerződések szerint a következő 5 évben 1000 milliárd dollár értékben fog eszközöket venni az Oracle-től, Nvidiatól. Hogy ezt ki fogja fenntarthatóan finanszírozni, jó kérdés. Ha ötvenszeresére megy fel az ára a termékeknek, akkor már nem is biztos, hogy megéri.

Te kifizetnél 900 dollárt azért a kódért, amiért most 18-at fizettél?

Te kifizetnél 900 dollárt azért a kódért, amiért most 18-at fizettél?

Egyértelműen nem, de több bevételt nem csak így lehet szerezni. Jelenleg csak annyit látok az ismerősi körben, hogy elvétve vannak AI előfizetéseink.
Ahogy 20 évvel ezelőtt nem voltak streaming vagy google tárhely előfizetések, úgy az AI is a mindennapok része lesz és lényegesen több pénzt fognak fizetni érte az emberek, akár közvetlenül, akár közvetve a felhasznált termékeken keresztül. Szerintem elég kreatívak tudnak lenni a pénzemberek ha arról van szó, hogyan lehet monetizálni valamit :)

Így este fáradtan például eszembejutott egy utópisztikus gondolat. Akár állami megrendeléseket is kaphat egy openai, ha mondjuk állami szoftverekben segítik az adóbevallás kitöltését. Adófizetői pénzből. 

Szerintem elég kreatívak tudnak lenni a pénzemberek ha arról van szó, hogyan lehet monetizálni valamit :)

Pontosan. Én simán el tudom képzelni, hogy ha már nem a fejlesztés, és beetetés időszaka lesz, akkor megnézik majd, hogy oké, mennyit spórol ez egy cégnek havonta a munkaerőn (valami kimutatással), és amit megspórol, azt elfelezik. A felét "kapja" a cég, és a felét kapja az AI szolgáltató. Most ezt leegyszerűsítettem, de valami hasonló elv mentén lesz, és "mindenki" "nagyon jól jár". Annyiba fog kerülni.  Szerintem könnyen kijöhet, hogy inkább 300e-500e Ft/user egy hónapra, vagy hasonló, de nem 18 USD. És ebben minden nagy AI szolgáltató nagyon egyet fog hirtelen érteni. - Meglátjuk merre megy ez az egész.

A felét "kapja" a cég, és a felét kapja az AI szolgáltató. Most ezt leegyszerűsítettem, de valami hasonló elv mentén lesz, és "mindenki" "nagyon jól jár"

Kivéve akkor, ha többe kerül fenntartani az AI infrastruktúrát, mint amennyi munkabért megspórolhatunk. Mert ez itt a lényeg. Puszira nem fogja neked az OpenAI meg a többi cég veszteségesen üzemeltetni az erőforrást, te meg nem fogsz tőle többért venni egy embernyi erőforrást, mint amennyibe egy ember kerül. Főleg úgy nem, hogy ha elkezdik kirúgni az embereket az AI miatt, akkor a munkaerő-költség az csökkenni fog, az AI költség meg növekedni.

Jelen pillanatban masszívan veszteségesen üzemeltetik az Ai adatközpontokat, csak azért megy bele a végtelen pénz, mert még mindig azt gondolják, hogy egyszer majd jó sokat ki tudnak belőle venni. Meglátjuk, meddig hajlandóak százmilliárdokat beletenni ebbe, csak remélve, hogy egyszer majd valamikor megtérül.

azert azt is vegyetek figyelembe a nagy kozgazdasagi okfejtesben, hogy a modelek merete mar nem no, sot egyre kisebb modelek jelennek meg, valamint a MoE miatt egy nagysagrenddel kevesebb eroforras kell hozza mar most is mint 2 eve.

masreszt a nagyok (es kina!) egyre inkabb invesztalnak sajat celhw fejlesztesbe, amivel kivalthatok a horror aru nvidia H200 es hasonlo GPU-k, igy idovel csokkenni fog a hw koltsege is, es velhetoen az aramfogyasztas is.

kerdes, hogy kitart-e a befektetoi bizalom es penzcsap addig amig ez megvalosul, vagy reszvenyesi nyomasra elobb kell bevetelt maximalizalniuk? mivel tudasban/technologiaban fej-fej mellett haladnak, jo esellyel az fogja eldonteni vegul a versenyt, ki birja tovabb jelentos aremeles nelkul. en a google-re tippelnek, mivel nekik van mashonnan is beveteluk amivel tudjak hazon belul finanszirozni a chicken gamet, mig az openai es mas ai-only cegeknek az userekbol es a befektetokbol kell megelniuk.

kerdes, hogy kitart-e a befektetoi bizalom es penzcsap addig amig ez megvalosul, vagy reszvenyesi nyomasra elobb kell bevetelt maximalizalniuk?

De hát pont ugyanezt mondjuk. Attól még, hogy majd valamikor olcsóbban lehet futtatni a modelleket, még nem lesz ingyen akkor sem, és a most beletett és elégetett pénzt is vissza kéne termelni, plusz a jövőbeni és mostani fejlesztéseket is. 

És akkor ne feledjük el, hogy nem csak a modellfuttatás veszteséges jelenleg, de a másik költségtényezőt, a modelltanítást is ki kéne fizettetni valakivel. 

innen indultunk:

Te kifizetnél 900 dollárt azért a kódért, amiért most 18-at fizettél?

(en amugy a 18-at is sokallom 2x20 percert, de a jelenlegi hw-ekkel az kb realis lehet)

mert ilyen drasztikus aramelest csak akkor lehet megtenni, ha vagy mind egyszerre emeli (de akkor jon egy ujabb versenyzo aki lenyomja az arakat), vagy ha mar nincs konkurencia.

olyan ez mint amikor egy ceg veszteseggel arul valamit, hogy a konkurenciat lenyomja. kerdes melyik birja tovabb, o a veszteseget vagy a konkurencia a sok elvesztett vevot? hosszu tavon nem lehet fenntartani egyiket sem.

az ingyenes hasznalatot fogjak valahogy monetizalni, pl. reklamokkal (chatgpt mar be is jelentette), vagy az oda beirtak felhasznalasaval, eladasaval pl piackutatasra stb. (google biztos meglepi ezt), de mar most is latszik hogy erosen korlatozva van, gyengebb kisebb modellek, napi limitek bevezetesevel.

a modelltanítást is ki kéne fizettetni valakivel. 

igen, az is draga de ma mar az inference szerintem tobb nagysagrenddel tobbe kerul nekik, lenyegeben a tanitas elhanyagolhato koltseg lett. annak viszont nem fog csokkenni az ara a jovoben sem (ahhoz kell az nvidia hw), sot az tovabb fog dragulni.

en probaltam kb. az osszest: deepseek, chatgpt, gemini, qwen, kimi, grok, opus, sonnet.

Az opus tenyleg hasznalhato, megtalal olyan bugot, amit a tobbi nem.

Ha egy ev mulva az opus 4.5-ot tudnam lokalisan futtatni egy <2MFt-os hardveren, nekem eleg lenne. En ki is szallnek az ai-bol ...

Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

A Google mondjuk "előremenekül" is, mert csökken(t) a keresője forgalma (az AI hatására). Nem olvastam sajtó anyagokat, de kb ez lehet az egyik fő indoka, hogy a találati lap tetejére oda került az AI áttekintés. Arról nem is beszélve, hogy mekkora különbség az, amikor egy linklistát kapsz egy mondatos idézetekkel egy kereső kifejezésre vagy értelmes szöveges összefoglalót egy kerek mondatban megfogalmazott kérdésre.

Nekem kevés kétségem van azzal kapcsolatban is, hogy kapcsolt szolgáltatásokon keresztül fogják kifizettetni valakivel (nem a használójával, hanem áruba bocsátásával - mint most) a költségeket.

A problémájuk inkább az lehet, hogy most (látszólag) nincs a kezükben az a "sokkal jobb algoritmus", ami annak idején a keresők piaci versenyét végül is eldöntötte. A deepseek lehetett egy komoly "beszarás" nemrég, de még mindenki nagy téteket teszeget a saját okosságára és sovány malac vágtában "innovál".

A Google elég speciális helyzetben van, mert van saját hardvere, van egy elég erős (ha nem a legerősebb) RnD csapata, csak valamiért a végeredmény használhatatlan. A Gemini 3 egy rakás szar kódolásra, a Gemini CLI is egy rakás szar, és a web UI is egy rakás szar a többihez képest.

Mi az, amiben most fixen vezet a Gemini? Nem az elméleti, internal modellek, hanem ami itt kint van: https://gemini.google.com/app

A UX-et most el sem kezdeném, csak két kérdés:

  • Miért nem tudom az utolsón kívül átírni a korábbi üzeneteket egy beszélgetésben? A legtöbb UI szépen megoldja ezt, sőt, a ChatGPT már szét is tudja szedni külön chatbe az ilyen forkokat.
  • Miért nem tudok egy beszélgetéshalmazt egyben kezelni? Ne adj' Isten úgy, hogy akár ezek a beszélgetések "lássák" is egymást? (a la ChatGPT/Claude projekt)

Nincs ott egy intern, aki ezt vibe code-olja? :)

A history nekem működik a felfele gombbal.

Lehet, hogy én vagyok a béna, nálam ez van: https://ibb.co/gL10Stwv

A Gem pedig dokumentáltan nem fogja össze a különböző beszélgetések kontextusait, úgyhogy ezt nem teljesen értem, mire írtad.

Novemberben még az volt, hogy szinte mindenben jobb... :D

Szerintem ezeket a számokat már felesleges nézni, benchmaxxing van mindenhol. Oda kell adni ugyanazt a feladatot, ugyanazzal a harness-szel a modelleknek, és megnézni, melyik mit csinál. Nekem a Gemini ott tart, hogy beleírja a Python fájlokba kommentként a reasoninget.

... valami deprecated authentikációs kód
# But wait, this approach may violate the IAM requirements, let me try a different authZ method
... és ida írja b+ az új kódot, ahelyett, hogy kitörölné a régit

Az input mezőben felfelé nyíllal lehet a te általad beírt promptokat "visszapörgetni" - én erre gondoltam.

A gemekről vagy a másik pontodra én nem reagáltam, az biztos úgy van ahogy írtad.

Az alábbit már a Gemini írta, az én zagyván megfogalmazott eredeti válaszom helyett:

Az egyes modellek között vannak erősebb és gyengébb pontok, és ez a sorrend baromi gyorsan változik – volt például olyan időszak, amikor pont a Gemini vezetett. Szerintem fontos látni, hogy egy ingyenes, tömegeknek szánt modellnél nem létszükséglet, hogy pl. programozásban verhetetlen legyen, mert a felhasználók nagy részének erre egyszerűen nincs szüksége.”

Nekem egyre inkább az az érzésem, hogy a valós költség nagy része félig RnD, félig az ingyenélő userek etetése. Előbbi szerintem folyamatosan csökkenni fog, utóbbinál pedig előbb-utóbb el fogják zárni a pénzcsapot, amikor telítődik a piac.

A nagy pénz nem abba van, hogy havi 20 dollárért csicskáztatom a ChatGPT-t, hanem hogy utána bemegyek dolgozni, és elégetek minden nap több száz dollárt az API-n.

Minek compilert csinálni? Van temérdek forráskód, hozzájuk bináris, tanítsák meg az LLM-nek, aztán egyből kész a gépi kódú program :)

Egyébként a git-ben mi lesz ezentúl? Generált kód vagy a prompt? A generált kódot ér piszkálni kézzel, vagy már csak az LLM nyúlhat hozzá?

Ezentúl ellepik a githubot az AI slop kódok?

Vilagunk "tech genius"-a mar ott tart a ketamin felhojeben, hogy arrol tart eloadast - mar nem is kell kodolni - even belul olyasmit iger hogy a prompt alapjan mar egyenesen binarisat kapsz. 
"Szeretnek egy programot ami minden X/twitter referenciat kiszur az altalam latogatott weboldalakrol" 

Sajnos a linket nem tudom leelenorizni mert en ezt a problemat mar megoldottam AdGuardHome-bol. 

Ennek a ketaminosnak már eleve elment az esze az űrbe telepített AI műholdakkal, a 1000+ terawattos AI holdbázissal, meg hogy a SpaceX-el összevonta az xAI-t. Marsra már nem is akar menni?

Közben meg értelmezhetetlen, amit mond, mert nem ismeri ő se a teljesítmény és a munka közti különbséget, és gigawatt/year meg terawatt/year-ről beszél, ami igazából micsoda? TWh/y, vagy TWy?

a fröccsöntött 2 személyes kormány nélküli taxi már smafu?

Azt hittem az a legújabb agymenese, azaz hogy a Tesla felhagy az autogyartassal (X,S -> műanyag taxi).

Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

Fene tudja - kisfiam 9 eves, ilyen python block programming dolgokat csinal, igazabol az algoritmikus gondolkodast, a problema szetbontasaval meg hasonlokkal foglalkozik. Ha nagyon-nagyon belegondolok sok-sok ev tapasztalat utan mindnyajan visszajutunk lassan ugyanoda. Magat a kodot legeneralni ugyis jobban csinalja mar valami AI... Szoval lassan ha mar megertette az alapokat valoszinuleg el fogok kezdeni teregetni haznalja az AI-t es csinaljon valamit - hogyan talajon ki egy rendes workflowt, mi a kontextus. Pont nem erdekel ha nem gepeli hanem bemondja a mikorofonba amit akar, hanem probalja meg reszeletese elmondani az otletet aztan majd csilaunk egyutt dolgokat es megtanitom a buktatokat... A senioritas/junioritas nem tunik el csak lassan nem junior developer lesz hanem junior architect, designer. Meg lehet tanulni a bloatot megkulonboztetni es ahogy lataom a patternek egyre jobbak lesznek... Ne tudd meg mennyire jobb kodokat, megoldasokat latok AI-tol mint evekkel ezelott egesz dev team-ektol amit productioba kell valahogy gyomoszolni. 

Nem tudom, szerintem ha helyetted írják a kódot, az olyan, mintha egy autóversenyzőt önvezető autóba ültetnél. Ő (még) tudhatja, hogy mi az ideális ív, de ki fog kopni a képessége arra, hogy oda is tegye az autót. Meg elveszik az autóversenyzés varázsa. Ugyanúgy, aki az AI-val kódoltat, annak szerintem hamar kiégés lesz a vége.

"Ugyanúgy, aki az AI-val kódoltat, annak szerintem hamar kiégés lesz a vége."

Ez egyénfüggő. Én pl. sosem szerettem "kódolni", de szerettem rendszereket építeni. Számomra kevés demotiválóbb dolog van annál mint amikor a fejemben készen van egy architektúra, tudom mit kell csinálni, csak le kellene kódolni, különböző eseteket lekezelni, ami valójában egy egyszerű, repetitív feladat. Ezt a feladatot átveszi az AI, és szinte függőséget okoz azzal, hogy nem kell törődnöm azzal, hogy többszáz sor nem túl bonyolult kódot leírjak, csak a lényeges részekkel kell foglalkoznom.
Ha valami zsákutcának bizonyul, nem veszi el a kedvem azzal, hogy 3-4 óra kódolás/konfigolás megy a kukába, mert 5-6 perc alatt újragenerálja a kódot. Szerintem zseniális, és új szintre fogja emelni azoknak a produktivitását akik célorientáltan gondolkoznak és eszközként tekintenek a programozásra, nem pedig célként. Tudom, ezzel nagyon sok kóder nem így van és nekik nem fog tetszeni ez az új világ.

Nem tudom, szerintem ha helyetted írják a kódot, az olyan, mintha egy autóversenyzőt önvezető autóba ültetnél. Ő (még) tudhatja, hogy mi az ideális ív, de ki fog kopni a képessége arra, hogy oda is tegye az autót.

Ettől én is félek. Magamtól is keresem már a szituációkat, ahol az eszemet kell használni, mert lassul az ember egy idő után, és aggódni kezd. Ha nem kell kódolnom (a kód review nem ugyanaz), el fogom felejteni, ez garantált.

De a másik az, hogy észrevettem, hogy a kölkök úgy kezdik el használni az AI-t, mint ahogy mi ültünk a C64 elé a kézikönyvvel, karácsony reggel 5-kor, miután megkaptuk előző este. Már ebbe nőnek fel. Megváltozik ez az egész, hogy mit jelent kódolni.

Persze a könyvet a közepén kezdtem. :) Begépeltem egy három soros basic programot, és nem volt odaírva, hogy RUN. mert az az előfő fejezetben volt. :)) Vártam-vártam, és semmi nem történt. 

Elkezdtem utána előröl a könyvet, és rájöttem mi maradt el. :)

A for ciklusnál kezdtem örülni, a változóknál és if-nél meg konkrétan azt hittem, hogy akkor már tudok is programozni. :))

Még azon szoktam elgondolkodni, hogy a francba lett ebből (c64, nagyon szerethető dolog), ez: Cloud, AI, 100 rétegű bonyolult, gigabájt nagyságú alkalmazások, meg minden -> ami nem éppen az, amit én eldöntöttem gyerekként, hogy ezt akarom majd csinálni.

Ezen én is ledöbbentem, amikor először láttam, hogy kimegy a netre és másodpercek alatt összegereblyézi fél tucat oldalról a potenciálisan releváns információkat, majd legalább olyan pontosan válogatja ki az ocsút a búzából mint én, sőt, még jobban. Ami nekem órák alatti fárasztó kutatás volt, az most 10 másodperc. Bár állítólag nem hasznos, szóval biztos bennem van a hiba... :-)

Form follows function.

Hátha valaki olvassa... 20+ év C++ tapasztalatom van. Saját területemen (computer vision) még pár dologban nem elég jó az AI, de ezek inkább kivételek:

3d dolgok elképzelése, lineáris algebra bizonyos részei, pl homogén koordináta transzformációk... de amúgy....

 

Menekülőben az autóiparból éppen most csinálok egy eléggé brutális képzést: https://bosschallenge.xyz/ 

Aki ismeri, tudja, hogy mennyire nehéz a terület (pontosabban nagyon meredek a tanulási görbéje). Namost, a protokolokat a AI botok megdöbbentően jól átlátják.
Egy 3-4 hetes feladatot meg tudok vele csinálni néhány nap alatt, de ezt úgy, hogy értem is, hogy mit csinálok. Brutálisan sokat segítenek a botok.

Aki a képzésen csal, és csak arra megy, hogy leaadja a feladatokat, azoknak ugyanaz az energiabefektetés órák kérdése. Mivel a boss challenge-en minden feladatot validál egy CI autograder, simán elhiszem hogy egy jó agent egy-két nap alatt végigmegy azon az oktatási  programon, ami nekem épp hogy megvan 4 hét alatt. Én is használok AI-t, muszáj, mert brutálisan kemény a követelmény, de azért értem amit csinálok az AI segítségével. 

Nem kérdés, hogy jobban érti protokolokat, mind bármely ember.

Nem gondolnám, hogy nem vagyok beszarva a jövőmet illetően. Azt, amiben a legjobb vagyok, mégpedig a kódolás, egy gép már most jobban tudja. Hazudhatok magamnak hogy nem, mert valami spéci dolgot jobban tudok.. ez tán igaz, de basszus, 20 év mérnöki programozás, és egyáltalán felmerül a kérdés. Most aggódhatok.

Egy másik példa: szakmai feladat, munka. Egy dokumentációt készítettem 3d transzformációkról, amiket használunk (autóipar, ADAS terület).  A magyaros angolságomat és béna matematikai kifejezésmódomat Lantos prof szintre hozta a Gemini/chatGpt, gyönyörűen megkomponált .md formátumban. Ijesztő.

Ilyen minőségű doksit sosem lettem volna képes egyedül létrehozni. Az más kérdés, hogy a szellemileg a sajátomnak érzem, mert a folyamatokat az AI nem tudja. De akkor is ijesztő.

Milyenek lehetnek a nem lebutított modellek a Google / X / openAI főhadiszállásokon?

Egy dokumentációt készítettem

ezt en is megtapasztaltam 1 eve, lokalisan futtatott 6 bites deepseek (720B) modellel. fontos, hogy nem az ai irta meg a doksit egyedul, eloszor egy vazlatot irtam, azt kertem tole fejtse ki, abba belenyultam, volt amit kitoroltem mert tultolta, volt ahol kiegeszitettem, vagy visszateritettem a palyara, de igy interaktivan megvolt par nap alatt egy kb 80 oldalas pdf. a legdurvabb az volt, ahogy helyesirasellenorzokent funkcionalt, nem csak az eluteseket, ekezeteket, vesszoket javitotta hivatlanul ki (ossze sem hasonlithato az ms word vicc szintu helyesirasellenorzojevel), de meg a szakszavakra is tett megjegyzeseket ha helytelenul hasznaltam, egyesgesitette a roviditeseket, a mertekegysegeket stb.  tenyleg csak belehanytam valami rizsat a kozepebe es helyrerakta pillanatok alatt. magyarul ertette is mirol szol a doksi, nem csak a nyelvet ismerte.

ha csak a doksiirasban ennyit segit mar az is rengeteg munkaorat szabadit fel az IT szakmakban!

Ha már ilyen wow élmények: pár hete kellett volna egy új konyhai elszívó csövéhez egy nem teljesen szabványos átalakítóidom. Gondoltam nyomtatok egyet, megrajzolom 1-2 óra alatt, de aztán rájöttem, hogy az STL talán jól fekszik az llm-nek. És hát igen: Claude Opus 4.5, közölte, hogy akkor ő most a sandboxába telepít egy OpenSCAD-et, és azzal fog dolgozni. Valamint rákérdezett pár dologra amikre én nem is gondoltam (pl. hogy csapja e le az idom peremét, hogy könnyebben bele tudjam tolni az ellendarabba). Kb. 2 perc beszélgetés, majd 40 sec generálás után adott egy minden szempontból tökéletes STL-t. Jobb volt sokkal mint amilyet én csináltam volna, még arra is figyelt, hogy support nélkül lehessen nyomtatni. Felhívta a figyelmem még az anyaghasználatra, és hogy hogy állítsam be a slicert.

Mezei prompt a Claude webes felületén. Szerveroldalon van egy sandboxa, egész részletes specifikációt tud róla adni, nem nagyon titkolj. Ezt  folyamatosan használja, nem egy extra funkció, a működése része, ha egy apró bash scriptet kérsz tőle, akkor is látszik a reasoning résznél sokszor, hogy futtatja a sandboxban, tesztelgeti, módosítgatja. Amikor faggattam róla, akkor azt mondta, hogy Ubuntu, a hálózatot is eléri de csak korlátozottan (pl. Githubról tud letölteni, stb..). A sandbox csak a sessionon belül él, utána törlődik, kérésre telepít is bele apt-vel vagy egyéb eszközzel, és lefuttatja amit kérsz, de jobbára önjáró módon találja ki, hogy mire van szüksége adott feladat elvégzéséhez, teszteléshez. Az openscadet pl. magától találta ki, nem én kértem rá, a promptom ennél sokkal magasabb szintű volt (kb: "Szükségem lenne egy STL modellre ilyen és ilyen átalakítóhoz egy légtechnikai csőhöz, méretek: ....., stb..").
 

Telepítsd apt-vel a cowsay csomagot, majd futtasd le. A folyamat összes lépést oszd meg velem a válaszban."

Összefoglalás - A folyamat lépései:

  1. Package lista frissítése: apt-get update - Frissítettem a rendelkezésre álló csomagok listáját
  2. Cowsay telepítése: apt-get install -y cowsay - Telepítettem a cowsay csomagot (2 csomag: cowsay és libtext-charwidth-perl függőség)
  3. Telepítés ellenőrzése: Megkerestem a cowsay helyét, ami a /usr/games/cowsay lett
  4. Futtatás: /usr/games/cowsay "Helló! Sikeresen telepítettem a cowsay-t!" - Sikeresen lefuttattam!

A tehén ott van a beszélőbuborékkal! 🐮

bash

/usr/games/cowsay "Helló! Sikeresen telepítettem a cowsay-t!"

Output

 ___________
/ Helló! Sikeresen telepítettem a           \
\ cowsay-t! /
-----------
       \   ^__^
        \  (oo)\_______
           (__)\       )\/\
               ||----w |
               ||     ||

Évek óta ott volt a fejemben, hogy jó lenne végre kidobni a Drupal- meg WordPress-cuccokat, és átmenni Astróra. Tudtam, hogy szívás lesz, ezért nem csináltam. Aztán most neki veselkedtem. Pár nap alatt átraktam öt oldalt. Úgy, hogy közben melóztam.
Nem fizettem grafikust, nem vettem semmi fizetős szoftvert, nem vettem kódot. Azokat a scripteket, amikkel régen órákat, napokat szívtam, az AI most megírja kb hamarabb mint "bepromtolom". Néha bele kell nyúlni, de hát na, eddig se volt minden tökéletes.

A dokumentálás? Rajzok? Graphvizt eddig is nyomtam, de AI-val ez már olyan, hogy leírod mit akarsz, és hopp, ott a rajz. Kész.
Ennyi.

Felszabadult egy csomó időm. Nem kevés, hanem érezhetően. Ajánlatok? Gyorsabban megvannak. Adminisztráció? Kevesebb. Volt olyan, hogy egy kamerarendszerhez jogi szöveg kellett, megírta az AI, elküldtem az ügyvédnek, az meg visszaírt, hogy „ilyen jó anyagot ritkán lát”. Fogalma sem volt róla, honnan jött.

Az AI fogja a korábban „komoly szakmai” melókat, és lehozza oda, hogy egy átlag ember is meg tudja csinálni. Otthon játszom vele tanuló projektekben (feladatok elvégzését próbálom rányomni), a cégnél meg már most kismillió dologra rá van eresztve: adatelemzés, riasztások, ticketek, ami kell. Ez már nem az a „segédeszköz” kategória.

Számítási kapacitás lesz és hogy mennyi áramot zabál (GW) egy ideig senkit nem fog érdekelni, mert brutál a human és robot közti különbség hatékonyságban. Közben emberek tömegeinek kell majd újratanulni mindent (köztük nekem is). Eljutunk oda, hogy az AI mondja meg, hova dugd a kábelt, te meg bedugod. Senki nem fog humanra bízni semmit (nem dokumentál, nem pontos, leszarja). Csak pár dologra rohadt drága lenne a robot pl a gyárban UTP kábeleket bedugni vagy a szerver szobában szervert cserélni.

Persze kellenek majd nagyon okos emberek. De nem sok.
Többiek (beleértve magam)? Hát kapunk majd valami alapjövedelmet (ha a szocik lesznek kormányom ha a jobboldal akkor munkalapu társadalom csak épp munka nélkül, vagyis dögölj éhen) vagy a nagy semmit.

"Volt olyan, hogy egy kamerarendszerhez jogi szöveg kellett, megírta az AI, elküldtem az ügyvédnek, az meg visszaírt, hogy „ilyen jó anyagot ritkán lát”. Fogalma sem volt róla, honnan jött."

Még az se biztos, hogy tud a leveledről, mert lehet, hogy az ügyvéd levelezését kezelő AI ügynök írt neked vissza, hogy amit küldtél, az szerinte is jó. :-)

Form follows function.

Jaja, ez tök ismerős, egyik alvállalkozó olyan, hogy szerintem szarni se tud AI nélkül. A ticketingbe a feladatokat úgy teszik be (látszik rajta), hogy valszeg beküldi az llm-nek az általunk írt infókat és az kiköpi belőle a spec-et.

Aztán 10 alkalomból 11 alkalommal volt olyan, hogy totál félre lett értve minden. Még olyan egyszerű kéréseket is félreértenek, hogy x feltétel esetén ne legyen engedélyezve egy y funció, mert helyette megcsinálták, hogy x feltétel esetén engedélyezve lett az y funkció. Igaz ehhez hozzáadódik egy nagy adag arrogancia is miszerint ők a királyok. De igazából pont ilyenek használják seggtörlésre is az AI-t mert önállóan már az se megy.

A gitben is látom rendszeresen a chatgpt jellegzetességeket, ikonokat, amiket utólag törölnek a debug üzenetekből.

amit az AI nem fog tudni az az életerő, szeretet átadása

fel fog értékelődni a kurvák szerepe, életerőv fogunk fizetni

férfiak azok jutnak előre akik mindent is magabiztosan meg tudnak magyarázni, dominálnak a többi férfi társon

Szerintem nem értitek a lényeget. Az LLM olyan, mint a vattacukor. Mikor először megkóstolod, azt mondod, hű de finom, kérek még! Na de ha azt mondanák, hogy ezentúl csak azt eheted...?

Elfelejtitek, hogy a mellette csak amatőrök lelkes élménybeszámolói szólnak (itt, ebben a topikban is), ellene viszont komoly tanulmányok és egzakt mérések.
- Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity
- Turns Out AI Makes Programmers Slower, Not Faster
- AI Promised Faster Coding. This Study Disagrees
- AI Copilots Are Making Developers Worse Programmers
- AI Coding Assistants Are Getting Worse
- Where's the Shovelware? Why AI Coding Claims Don't Add Up

Konkrét bizonyíték van rá, hogy csak önbecsapás, amikor azt képzeli valaki, hogy hatékonyabban dolgozik LLM-el, mint nélküle. Valójában kevesebb produktumot tesz le az asztalra, és azt is szarabb minőségben. Idézet a tanulmányból:
developers expected AI to speed them up by 24%, and even after experiencing the slowdown, they still believed AI had sped them up by 20%.
Szóval az, hogy egyesek azt képzelik, hatékonyabbak lettek, nem más, mint önbecsapás. A szubjektív érzettel ellentétben a számok nem hazudnak, azok pedig azt mutatják, nem született több produktum.

További érdekes olvasmány: International AI Safety Report 2026, összevetve a tavalyi hasonló riporttal, egyértelműen romlik az LLM generált kód minősége.
Egy tavaly szeptemberi tanulmány meg kényszeredetten beismerte, hogy anyagilag sem éri meg (furcsa mód szerintük a megoldás az lenne, hogy a pénzégetést fokozni kell).

A szájról szájra terjedő szóbeszéd szerint egy amerikai idős asszony bőven 40 éve, az 1980-as években döntött úgy, hogy a hagyományos módszer helyett egy mikróban próbálja meg megszárítani a cicáját. Állítólag fogalma sem volt az újszerű eszköz használatáról, hiszen a családtól, egészen pontosan az unokáktól kapta a mikrohullámú sütőt karácsonyra.


És tudjuk: a mikrohullámú sütő rossz.

Konkrét bizonyíték van rá, hogy csak önbecsapás, amikor azt képzeli valaki, hogy hatékonyabban dolgozik LLM-el, mint nélküle. Valójában kevesebb produktumot tesz le az asztalra, és azt is szarabb minőségben. Idézet a tanulmányból:

bzt, te kipróbáltad? javaslom a claude opussal tegyél egy próbát.  kb 22 USD a pro változat egy hónapra, szerintem ez a legolcsóbb, és javaslom, hogy ezzel kezd. Egy havi előfizetést megér.

Kezdd el használni, és nézd meg. Ne a riportokat nézd az Internetről, hanem csinálj vele egy alkalmazást, úgy hogy egy kicsit próbálgatod a "promptolást", és utána első kódsortól az utolsóig ellenőrizd le. Safety szempontból is.

Kérlek, előtte nézd meg mire jó a claude.md, és írd bele, ami szükséges. (hogy ne az legyen a válaszold, hogy mindent egy fájlba hányt, stb... mert egy kicsit ismerni kell, mit hogy kell használni, ezért minimum a claude.md-t nézd meg),

Kíváncsi vagyok ezután a véleményedre, mit gondolsz, hogy hatékonyabb-e.  A tanulmányokat engedd el, szerintem meg tudod ítélni te is, hogy hatékonyabb-e. Ha hatékonyabb (miután rászántál egy minimális időt, hogy is kell ezt használni), az egyértelmű lesz számodra, és szerintem meg fogsz lepődni.

Igen, ez a legnagyobb vicc az egészben, erre én is gondoltam, hogy szerintem azok is használják, akik ezeket a tanulmányokat, és cikkeket írják, hogy semmire nem jó. :))

De én is először úgy találtam, hogy sz*r az egész, de elkezdtem vele megismerkedni, és teljesen megváltozott a véleményem. Nem állítom, hogy teljesen jól használom, pl tudom hogy a claude code alatt több lehetőség is van, mint amit én kihasználok, de megdöbbentem, hogy jéé, ez működik, és igaz az, hogy hatékony. Egy fél éves feladatot csináltam meg vele három hét alatt, úgy hogy teljesen ismerem az elkészült kódot, és én sem tudtam volna jobban megcsinálni (csak sokkal lassabban, ezerszer több szívással).

Olyan promtokat bárki tud írni, amire az AI hülyeségeket csinál. Én ezt gondolom ezekről a tanulmányokról, ahol kimutatták, hogy sz*r.

Csak pont ez a lényeg, hogy meg kellene tanulni használni, mert nem triviális. Szerintem pont akkor tudsz vele jól haladni, ha részletesen leírod, lépésekre bontva, hogy mit kell csinálni. De erre is baromi jó, hogy lépésekre bontsátok a feladatot. Nem szabad nekilátni kódolni, kódoltatni. Ezt is meg kell tanulni, nem olyan egyszerű lépésekre bontani valamit, tervet készíteni, és dolog pontos instrukciókat adni, mint elsőre gondolná az ember. Akinek nem jól működik pl a claude code az opus modellel, az lehet hogy itt ront el valamit.

És ha történt egy kódmódosítást, akkor azt meg kell nézni, mese nincs.

Szerintem az AI használata a kódolásra teljesen beleillik az eddigi fejlődési útba.

Valaha az idők kezdetén voltak a bitek meg a kapcsolók, de ezt leváltotta a lukkártya.

Lukkártya után jött az ASM, amihez már nem kellett ismerni a párologtatók bináris nyelvét, és már felismerhető félszavacskákat lehetett mondani a gépnek, pl: jmpz.

Az ASM után jött a C, amihez már nem kellett tudni, hogy milyen regiszterek vannak, és teljes angol szavak jelentek meg, pl: while.

A C után jött a C++, aminél már a memória szerkezetét sem kellett kívülről fújni, mert az absztrakció odáig jutott, hogy nem azt mondtam hogy foglalj le memóriát és add vissza a címét, hanem hogy new...

C++ után jött a python, ami már elég közel áll az angolhoz, mert "if apple in basket:", akkor...

Ezután jön az AI, ahol hé, chatGPT, ha az alma benne van a kosárban, akkor csináld azt, hogy...

Szerintem az összes eddigi absztrakciós szint váltásnál voltak akik világvégét jósoltak, meg hogy az új nyelven vége lesz a szakmaiságnak, és részben igazuk lett, mert tényleg seggfejek kezébe került a popszakma, részben meg nem, mert sokan simán csak átváltottak az új nyelvre, és kész.

Form follows function.

Oké, de ha elrakod a C++-os kódodat, akkor 5 év múlva is ugyanaz lesz - eddig ugyanaz, mint amit Te mondtál - 

de ha neked újra kell írnod, akkor te is könnyen lehet, hogy máshogy csinálod. Fél év múlva is, de 5 év múlva garantáltan.

A nagyon sablon dolgokat, ahogy sok alkalmazás működik, meg az LLM sem csinálja szerintem máshogy, fél óra múlva sem. Úgy értem, hogy az adott típusú alkalmazáson belül nagyon hasonló válaszokat fog adni.

Több dolog jutott eszembe:

Egyrészt szerintem ha teljesen ugyanazokkal a paraméterekkel, beállításokkal meghívod az LLM-et, (van neki X darab beállítása, többek között a "seed" érték), akkor ugyanazt válaszolja. De majd kijavítanak a kollégák. Egy kódoló LLM esetén a gyakorlatban ezt nem hiszem, hogy meg tudod csinálni, de API hívás esetén, vagy local LLM esetén működhet.

Akkor minek forráskódot rakni a gitbe?

A kódolás alapvetően nem csak promtok írásából áll. Lehet, hogy van aki csak promtokat ír, és úgy csinál mindent, de lehet hogy van akinek csak asszisztál az LLM, és nem pedig Ő asszisztál az LLM-nek. Az LLM csak részfeladatokat kap, átnézést, kikeresést, methódus írást. Szerintem ez egy hatékonyabb hozzáállás, mert itt a fejlesztő tudatos marad.

A programozó alapvetően forráskódokat készít, és azt szoktuk forráskód kezelő rendszerbe feltenni. Tehát kb olyan a felvetés, hogy tegyük el a promptokat (egyébként megérheti a projekt mellé eltenni, mint history-t), mint ha azt mondanánk, hogy minek commitolni, vagy IDE-nk, és újra be tudjuk írni a forráskódot.

A másik dolog, hogy sem időben, sem erőforrásban nem lenne hatékony mindig mindent újragenerálni.

Csak alapvetően nem a generált kódot szokás verziókezelni, C-ben sem a preporcesszált kód megy a gitbe, amikor még Qt-ztem, a moc előtti állapot ment a verziókezelőbe.

Tehát amíg az LLM nem tud reprodukálható, konzisztens eredményt adni, addig hol tekinthető ez asm->magas szintű nyelvi programozás evolúciójának.

De miért nem szokás verzió kezelni? Egyrészt a generált kódot is simán felteszem a verzió kezelőbe (mondjuk valami séma alapján generálok adatmodelleket, vagy szolgáltatásokat, vagy klienst valamihez), az egy adott verzió. Ha nem változik, nem kell újat generálni.

De más miatt is lehet értelme, pl megváltozik a generáló környezet: az oprendszeredben valami frissítés, vagy akár legacy a generáló tool, és már környezetet, mindent is kellene frissítened, hogy működjön -> nem baj az, ha megvan a generált kód is.

A másik pedig, hogy teljesen mindegy, hogy a kód hogy állt elő. Ha legenerálod LLM-mel, utána akár kezelheted sajátodnak is, ugyanúgy, ahogy bármelyik másik kódot, amit te írtál. És folytathatod bármikor LLM-mel, ha úgy döntesz.

Persze lehet olyat, hogy build-kor mindig fusson a generáló (pl webszerviz klienst egy wsdl-ből, openapi-ból rest klienst, adatmodelleket, vagy bármi), de az LLM az pont nem ilyen természetű, az magához a kódolás folyamatához egy tool.

Tehát amíg az LLM nem tud reprodukálható, konzisztens eredményt adni,

Szerintem tud. Ez is csak egy program, ha minden input pont ugyanaz (beállítások is, seed), és nincs benne semmi random faktor, akkor ugyanazt kell adnia. Ez nem egy technikai korlát. (de szerintem tud ilyet)

Biztos van generált kód, amit érdemes betenni, itt ilyen wizardokkal létrehozott valamire gondolok, de ezekhez kézzel már nem nyúl az ember. De nem vagyok hivatásos programozó, úgyhogy biztos van más példa is.

 

Próbaképp feltettem ugyanazt a kérdést kétszer az ingyenes copilotnak, tök más formátumban, eltérő információkat adott vissza (hasonlíts össze két FPGA-t, szóval nem valami filozófiai kérdés volt). Ekkora adathalamazon tanításnak az az eredménye, hogy hol ezt mondja, hol azt, jobb esetben nem az ellenkezőjét, amit először mondott.

Egyszerű programozási feladatoknál is felfedezhető volt, hogy innen-onnan copy-pastelt, pontosan ugyanolyan változónevek, mint releváns github kódokban, stb. Mondjuk ez felvet copyright kérdéseket is, amit persze az AI cégek ügyesen telibeszarnak.

Igen, ez is csak egy program ami működéséből adódóan néha nemdeterminisztikus.

Ha a programok nem determinisztikusak lennének, akkor lehúzhatnánk a rolót. :)

Egy program maximum szándékosan nem determinisztikus, és még azt sem triviális megoldani, hogy legyen valami jó véletlen szám generátor, ami tényleg véletlennek tűnik. Szerintem létezik olyan megoldás is, ahol valami külső dolgot próbálnak emiatt figyelni, ha tényleg valamibe a véletlent szeretnék bevezetni.

Tehát ez az LLM esetén szerintem tudatos döntés eredménye, hogy van egy "seed" paramétere, egyébként mindig ugyanott kezdené a beszélgetést. És az adatbázis mérete teljesen mindegy, lehet akármekkora.

Egyébként én nem is várom el, hogy mindig ugyanazt az eredményt adja, pont ahogy én sem ugyanúgy oldanék meg valamit egymás után kétszer. (Maximum ha nagyon optimalizálva van valamire.)

Én csak egy toolként tekintek az LLM-re, amit most még "élesben" sem használok, de tanulgatom. Fejlesztés közben segít. Ha egyszer megírt valami a programot, vagy rutint, és én "átnéztem"/"átvettem", akkor mindegy utána, hogy azt én írtam, vagy egy LLM. Nem kell a generálást megismételnie.

"Ja, de ha elrakod a C++-os kódot, az 5 év múlva is ugyanazt fogja csinálni ..."

Pont ez az egyik problémája az informatikának. Hogy az adott kód nem követi automatikusan az idők múlását.

Ha most van egy promtom, hogy "Hé, chatgpt, készíts két weboldalt, az egyiken egy szöveges beviteli mezővel és egy mentés gombbal, a másikon pedig automatikusan jelenjen meg az előzőn eddig bevitt összes érték."

Erre az AI legyárt egy adag kódot, frontend, backend, tárolás, iskolapélda. Ugyanezt én is le tudom programozni akár old school HTML, js, php, sql nyelveken, és kalap kabát, nem nagy ügy.

De ha öt év múlva megint feladom ugyanazt a promptot az AI -nak, akkor tutira figyelembe veszi az idők során kialakult bölcsességeket, hogy például jó lenne szűrni a bevitt stringet sql injectionra, javascript exploitra, és generálás előtt még vissza is kérdez, hogy szeretnéd kiszűrni a vulgáris szavakat? Vagyis 5 év múlva egy sokkal jobb eredményt ad, mint az általam elrakott HTML/js/php kókálmány.

Ergo, az, hogy "ha elrakod a C++-os kódot, az 5 év múlva is ugyanazt fogja csinálni", az valójában egy hátrány.

Elvégre az AI -nak nem módszert mondasz "for (i=0;i<maxi;i++) if (a[i] == 5) count++;" hanem célt "számold meg az ötöst kapott gyerekek számát" és erre mondhatja azt is, hogy "i=maxi; while (i--) if (a[i] == 5) count++;" és az is pont ugyanolyan jó.

Mint ahogy ugyanabból a forrásból egy 5 évvel későbbi, friss compiler kimenete el fog térni az öt évvel ezelőtti bináristól. Statikusan linkelve meg pláne, mert a fix forráskódot körül a világ megváltozott.

Form follows function.

Nekem az a nehézségen, hogy enyêm lesz-e a kód?

 

Kicsit olyan az ai, mint lib-ek. Hogy mi van a libben az nem az én felelősségem.

 

A mostani linearis alg projektemben (c++, python, dokumentáció), azért felmerǔlnek kérdések. A c++ részben az ai sokat segített, de minden sort leellenőriztem és ismerek.

Cserébe két hetem ment el egy ai által bevezetett hibával, ami annyira hǔlye hiba, hogy fel sem merült, hogy ilyen előfirdulhat…. Az ai teljesen konzisztens unit teszteket gyártott rà, amûgy, teljesen hibásan.

A python portban voltak alapvető issue-k… egyszerůen nem olyan lett, mint szerettem volna. Aztán úgy hagytam, mert akar a fasz szarakodni vele, de akkor is.

 

A dokumentumban van egy fejezet, amit nem értek pontosan, mert én máskêpp csináltam. Lehet, hogy jó, de még hátra van az ellenőrzése…

 

Sok itt a kérdés.

bzt, te kipróbáltad?
Nem, bőven elég az, hogy az Open Source projektjeimre ömlik az AI slop fos. Használhatatlan hulladék az LLM generált kód 99%-a.
Egy havi előfizetést megér.
Dehogy éri meg. Főleg FOSS projekteken dolgozom, rohadtul nem ér nekem meg 1 USD-t sem.
Ne a riportokat nézd az Internetről
Nem azt nézem első sorban, hanem azt, ahogy az LLM generált fostalicska PR-ekkel küzd mindenki, mint disznó a jégen (én magam is). A legfőbb baj a hozzád hasonlókkal, hogy fingjuk sincs, mit akar csinálni a kód, amit az LLM kiköpött, így esélyük sincs kijavítani, ha esetleg elromlana. Megértem, hogy óckodnak tőletek és a kódjaitoktól.
Kíváncsi vagyok ezután a véleményedre, mit gondolsz, hogy hatékonyabb-e.
Pont az a lényeg, hogy NEM A VÉLEMÉNY SZÁMÍT. Nem produkál mérhető eredményt (nem lett 10x annyi produktum, csak a CVE ticketek száma meg az emberiség karbonlábnyoma nőtt meg).
A tanulmányokat engedd el, szerintem meg tudod ítélni te is, hogy hatékonyabb-e.
Miért is kéne elengednem a tudományos alaposságú tanulmányokat és egzakt mérési eredményeket? Csak mert az objektív valóság szembemegy a szubjektív véleményeddel? Nem ettem meszet.

Attól, hogy valaki nem tud főzni, a lábos még nem rossz találmány.

Én kipróbáltam, nekem működik, értem amit csinál. Szerinted meg az LLM pont annyira szar, mint amennyire szerinted itt mindenki hülye a kódoláshoz, és a saját kódját sem érti, rajtad kívül persze.

A kérdésem arra vonatkozott, hogy a te produktivitásodat növeli-e. Nem arra, hogy mások rossz PR-eket küldenek-e. Az, hogy másoktól szar kódot kapsz, az ő problémájuk, nem az eszközé. - Te pedig nem próbáltad.

A 22 USD-t nem a FOSS projektedre mondtam, hanem hogy tanuld meg használni. Utána döntsd el, hogy szar-e.

Ez csak egy eszköz, amit értelmesen kell használni.

Nem, bőven elég az, hogy az Open Source projektjeimre ömlik az AI slop fos. Használhatatlan hulladék az LLM generált kód 99%-a.

Ha jól értem, nem az LLM-ek generálta kód 99%-a fos, hanem az a részhalmaza, amit a YouTube-tutorialokon edződött pályakezdő "programozók" generáltatnak az LLM-mel, hogy bekerüljön a nevük contributorként valamilyen projektbe, és be lehessen írni a CV-be.

Hát, ezzel egyetértek.

Dehogy éri meg. Főleg FOSS projekteken dolgozom, rohadtul nem ér nekem meg 1 USD-t sem.

Jó, csak érted, ha sosem próbáltad, akkor a véleményed annyit is ér. 

Nem azt nézem első sorban, hanem azt, ahogy az LLM generált fostalicska PR-ekkel küzd mindenki, mint disznó a jégen (én magam is)

Akkor ismét: az, hogy milyen szemetet generáltatnak a humán spambotok, a legkevésbé sem reprezentatív a tool valós képességeire. Munkára használjuk, napi szinten. Működik.

Nem produkál mérhető eredményt (nem lett 10x annyi produktum

Fogalmad sincs, hogy mennyi produktum lett, mert nem látod. A saját buborékod falát nézegeted.

Amikor bevezették a villanyt a tanyára, az emberek rájöttek, hogy ez jó, mert a favágás idejét és fáradságát meg lehet spórolni, ha bekapcsolják a hősugárzót. De arra is rájöttek, hogy pár év alatt a balta és a fűrész is rozsdásodni kezd a csűrben, ők maguk pedig lassan elfelejtik, hogyan is kell fát vágni. Az pedig teljesen reális következtetés volt, hogy a következő nemzedéknek teljesen ki fog maradni ezen eszközök ismerete. Ezért erősen vitatkoztak a konyhában, hogy az elektromos áram az jó, vagy rossz-e. Addig-addig vitatkoztak, míg besötétedett, így az apjuk szokás szerint elővette a petróleumlámpát, de nem találta a gyufát. Szerencsére valaki felkapcsolta a lámpát, így megtalálták a gyufát, majd igen zavartan néztek egymásra. Rájöttek, hogy a jövőből nem lehet kimaradni.

Form follows function.

Ezek általános tanulmányok, azaz kb úgy kell értelmezni, hogy az átlagos programozó átlagos is marad, mert nem tanulja meg használni az új eszközt. A kód minőség részben igaz, de nem úgy. Egyrészt néha tényleg bűnös az AI szolgáltató, mert próbál olcsósítani, és így terel olcsóbb modellek felé,  viszont a gyakoribb a rossz kontextus. Ha meglevő ratyi kódbázisba fejlesztesz vele, követi a rossz példát. Ha írsz neki rendes agents.md-t, akár magával iratsz egyet az alapján hogy milyen rossz gyakorlatokat lát a kódban és azokat kerülje el, vagy teszel neki a projektnek vagy technológiának megfelelő skill fájlt, leesik az állad. 

objektíven mérhető eredményekkel
Szeretném azt látni! Bizonyísd, hogy nem csak a levegőbe beszélsz!

Pont az van, hogy képtelen bárki is igazolni bármiféle eredményt, csak élménybeszámolókat kapunk. Amikor meg ténylegesen megmérik, az jön ki, hogy a projektek 95%-a bukás és veszteséges, meghogy amikor azt hiszik a programozók, hogy de jók voltak, valójában 19%-kal esett a teljesítményük. Te megint csak a levegőbe beszélsz, nem villantottál semmiféle bizonyítékot.
És megint csak a szád volt nagy, bizonyítékot nem láttunk.

Pontosan erről beszélek. Csak nagyszájú véleményhuszárok állítják, hogy fasza, miközben semmiféle ellenőrizhető bizonyítékkal nem képesek szolgálni, és a cége profitján sem látszik semmiféle javulás.
Amikor meg egy tanulmány veszi a fáradságot, hogy mérésekkel ellenőrizze, akkor pont az ellenkezője jön ki: valójában rontja a hatékonyságot az LLM. A számok nem hazudnak.

Ma már a patikában magyarázta a patikus néni a vevőnek, hogy "Neki kidobja a számítógép, hogy mi a helyettesítő gyógyszer, és ez sokkal jobb. Ugyanaz a hatóanyag, és ez jobb. Ez éééájjjjal működik már, itt nincs tévedés!!!" :))) És a patikában sorban álló emberek beszélgetésbe kezdenek, hogy hova tart már ez a világ, meg ki érti már mi hogy működik. Az unokája is ezzel foglalkozik, stb... Egész nagy traccsparti alakult ki. :)) 

Ez is az AI valóság 2026-ban. :))

Hát, ok, egy edzésprogramot rábíznék az AI-ra, de a gyógyszereimet nem merném emberi kontroll nélkül. Kódot, koncepciót sem építek be sehova anélkül, hogy megérteném, mert nem bízok meg az AI -ba látatlanban, és ha a gyógyszereimben csinál gebaszt, azt nem tudom kiszűrni, mert nem értek hozzá. Ez azért elég veszélyes szerintem.

Form follows function.

Ráadásul hallottam a beszélgetést, és pont "ismerem" a két gyógyszert amiről szó van. Legalábbis az egyik alkalmazását, valószínűleg több betegségre is használják. De pl leviszi a pulzusod, ha alapból egy kicsit magasabb:

Concor vs Bisoprolol.

Ezt pont elmagyarázta nekem egy kardiológus, a concor a drágább, de az az eredeti gyógyszer, ami jól ki van próbálva. A bisoprolol generikus gyógyszer. A bisoprolol hatóanyaga pont ugyanaz, mint a concor hatóanyaga. A hatóanyag neve szintén a Bisoprolol.

De két külön "márka" mégis eltérő eredményeket ad a betegeknél. Például segédanyagok eltérhetnek gyártónként. Ezért ha valakinek a Concor vált be, akkor megpróbálhatja leváltani, de nem mindig, nem mindenkinek tapasztalja majd ugyanannak a két gyógyszert.

Na ezért érdekes ez a csereberélgetés, ezt pl a patikus teljesen kihagyta a magyarázatából, mert csak a hatóanyagot nézte. Az AI szerintem bullshit volt, hogy meggyőzze a vevőt. Igazából nem kell AI, hogy két gyógyszernek ugyanaz-e a hatóanyaga, de nagyon vicces volt, ahogy az egész Patika hirtelen öt percet AI-zott. :))

 

Én egy védőoltást akartam amúgy venni, és nem volt. Rögtön adni akarta ugyanez a patikus a helyettesítőt, másik gyártótól, és a neve is más volt. Itt ez érdekes lehet, mert ez nem egy hatóanyag kérdése: védőoltásról van szó. Inkább átsétáltam a szomszéd patikába, és megkaptam az eredeti védőoltást, amit a házi orvos javasolt, felírt, és még olcsóbb is volt.

Nehéz ügy, mert bár nem tetszik a saját gondolatom, mégis úgy vélem, hogy az AI lesz a nyerő hosszú távon a gyógyításban.

Ezt azért gondolom így, mert a gyógyítás nem egzakt tudomány, hanem statisztikai, és ebben a gép előnnyel indul.

Az öreg (házi)orvos előnye, hogy ismeri Pista bácsit évtizedek óta, ismeri a korelőzményét, a szokásait, és hogy eddig mi vált be nála, így nagyobb eséllyel tud jó gyógyszert ajánlani neki. Az új, fiatal háziorvos meg találgat, hiszen jóval kisebb (nulla) múltbéli tapasztalattal rendelkezik Pista bácsi biológiáját illetően.

Az AI viszont mindkét orvosnál tízszer annyit tud a különböző gyógyszerekről és az együttes hatásmechanizmusaikról, mert ez a töménytelen lexikális információ nem embernek való. És most ugyan Pista bácsiról max a TAJ számát tudja, de ha gyerekkora óta követte volna a profilját, ha látt volna mikor mit vett a boltban, menyit ivott, cigizett, egészen pontosan hogyan reagált eddig a különféle kemikáliákra, akkor jóval pontosabban tudja megadni Pista bácsi számára az aktuális nyavalyára való gyógyszert.

Plusz az AI nincs úgy leterhelve mint az orvosok, így ha valaki bemegy hasmenéssel a körzetihez, és szomjúságra panaszkodik, akkor nem feltétlen gondol a doki cukorbetegségre, de az AI máris rákérdez, hogy érez-e zsibbadást a lábában, és így tovább.

Form follows function.

Kódot, koncepciót sem építek be sehova anélkül, hogy megérteném, mert nem bízok meg az AI -ba látatlanban
Na de a vibecoding pont arról szól, hogy látatlanban megbízol abban, amit kikököp, annélkül, hogy a leghalványabb fogalmad is lenne róla, mit csinál.

Abban a pillanatban meg, hogy review-ozol (hogy megértsd, mit köpött ki), akkor tudnod kell, hogy az LLM generált PR review-ja minimum kétszer / háromszor annyi idő és energiaráfodítás, mint egy ember által írt PR-é.
Pont ez a baj! Pont ez az a rejtett költség, amiről kurvára hallgatni próbálnak a kopipasztahuszárok (mert nem a PR generálóját terheli, hanem a PR befogadóját).

2 honapig irtam egy kamera illeszto drivert (opus  4.5-tel foleg), hardwarebol is el volt kotve, igy, hogy rosszak a színek, nem foglalkoztam (hd legyen 60fps-sel, ez volt a cél).

 

Megjott a javított hardwar, kolléga egy nap alatt helyrerakta a szineket. O se erti hogyan, mert az ai irt, fajlokbol 12 modositott, gyakorlatilag ujrairta a konkret kodot, fejleszteseket vett ki, szettrancsirozott mindent.

Namost megfejteni, hogy mi a tenyleges javitas nekem kb. 2 nap olyan 40 build. 3 bugot mar megtalaltam (egy byteswap, 2 bit eltolodas es egy 32 bit vs 16 bit szamolas).

A kerdes: erdemes ráfordítani 2 napot, vagy ott b@ssza meg? Most épp működik. Ténylegesen senki se érti hogy miért és hogyan működik. En nem, pedig 3 honapja szarakodok rajta (400+ builden vagyok túl). aki csinálta a javitast végképp nem. 

 

Ha most nem szánok rá 2 napot egy fél év múlva amikor random valami miatt megbirul, akkor lesz egy hét is.

De ugyanakkor nem érünk rá, mert launch van...

 

Szóval az AI patch az igenis gáz.

Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

Máshogy kérdezem. A szalvétára rajzolt ötlettől a product launch-ig mennyi idő, csak kézműves módszerekkel? És mennyi, ha van benne AI?

Lehet, hogy a review valamennyivel hosszabb (ebben a 3x különbségben nem hiszek, de mindegy, legyen 3x hosszabb). Mondjuk 2 nap lenne a review erre a patch-re. Oké. Elég lett volna 2 nap arra, hogy valaki kézzel megjavítsa a kódot, és azt át is nézze valaki (ugyanolyan alapossággal, mint az AI-féle verziót)?

szerintem elbeszelunk egymás mellett:

  • A) ai-t bevonnod, így gyorsabban nehezebb problémákat oldasz meg és a végén letisztazod es egy minimalis valtozatatast igenylo patchet gyartasz
  • B) 4 acc-on 24 subagenttel izombol megoldatod a feladatot es telibeszarod hogy mi tortenik a kodbazissal, hisz' mukodik.

 

En hajlok arra, hogy B) zajlik a világban, miközben az A)-t gondolja mindenki.

Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

En hajlok arra, hogy B) zajlik a világban, miközben az A)-t gondolja mindenki.

A B látványosabb, mert van egy réteg, aki megveszi a Claude előfizut, és addig fossa vele a kódot, amíg nem kap rate limitet, de szerintem nem ez a reprezentatív. Én is tudnék olyat setupban dolgozni, hogy napi több ezer eurót égessen el az Opus, de kb. másfél nap múlva odajönne valaki az asztalomhoz, hogy mi az úristen folyik itt.

És igen, valós probléma az is, hogy az indiai frissdiplomás olyan youtube videókat néz, amiben kvázi megígérik neki, hogy ha egy FOSS projektet telefosik AI-generált PR-okkal, akkor ebből valahogyan lesz állása, de szerintem a globális AI-használatnak ez nagyon kis szelete.

A szalvétára rajzolt ötlettől a product launch-ig mennyi idő
Nem is erről volt szó, hanem arról, hogy már meglévő kódbázishoz fossák orrba-szájba a maintainelhetetlen AI slop PR-eket. Ennek az árát pedig a PR befogadója kénytelen megfizetni.
Egyébként meg, ha tényleg ilyen kurva egyszerű LLM-el eljutni a szalvétától a kész termékig, akkor hogy lehet, hogy nem lepték még el a netet az így készült programok? Miért nincs semmi nyomuk a github-on, itch.io-n, stb.?
ebben a 3x különbségben nem hiszek
Hinni a templomban kell. Konrét bizonyíték van rá, nézd csak végig bármelyik nevesebb projekt github issue-jait.

Szégyenkezve bevallom, hogy annó amikor még szokásunk volt az aktuális kernelbe házilag belefordítani a grsec/pax modulokat, akkor fogalmam sem volt róla, hogy kód szinten mit is csinálok. Most se értek a kernel forráshoz. De amikor megint fordítani kellet, akkor újra megcsináltam, anélkül, hogy értettem volna, mitől is működik.

Ha fél év múlva valami random megborul a kamera szoftverben, sanszos, hogy az AI hamarabb helyrerakja a kódot, mint hogy kihűljön a kávéd. Az, hogy az előtte és az utána lévő kódot ugyanúgy nem érted, ahogy én sem értem a kernelt, nem jelenti azt, hogy önmagában probléma. Ez csak akkor probléma, ha nincs kitől kérdezni.

Amúgy ha rászánsz időt, az AI -tól meg is kérdezheted, hogy mi mit csinál a kódban, mondhatsz neki olyat, hogy kommentelje be minden sor elé, hogy mi a következő sor célja, és hogy az miért fontos a nagy képben. 

Form follows function.

Noh jó, csak atirta kb a kodbazis 80%-at, kb. tok feleslegesen.

Egyszerűbb visszaszarakodni, hogy melyik kodreszlet javitja meg, minthogy vakon elfogadni a kodbazis atformazasat, olyan lenyegi dolgokat nyirt ki, amik igenis fontosak (pl. a kamera parancsstreamet ugy oldotta meg hogy framenkent nyit egy új socketet es hallgatja hogy jott-e request arra a portra).

 

szerk: es lehet vissza kene tolni upstream projektbe...

Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

Na jó, de ez így nagyon félrevezető. Az AI magától akkor csinál ilyet ha hagyod, vagy rosszul promptolod. Olyan nincs, hogy kérsz tőle valamit és akkor durrbelebumm azt mondja, hogy kész és átírta a kód 80%-át. Ez egy folyamat volt amíg az egész ide eljutott és ez nem az AI hibája volt, hanem a kollégádé, vagy aki engedte neki.
Egy meglévő kódbázisnál nagyon pontosan definiálni kell hogy mit csinálhat és mit nem. Egyébként pedig minden egyes változást kézzel kell engedélyezni, kivéve ha explicit auto-approve-ra állítod.
 

Egyszerűbb visszaszarakodni, hogy melyik kodreszlet javitja meg
Már ha megjavítja egyáltalán. Nekem az a tapasztalatom, hogy ezek az LLM generált PR-ek általában nem a probléma gyökerét korrigálják, hanem a legjobb esetben is csak körbetákolják a kódot, hogy a tesztadatokra elfogadható legyen a kimenete. Ez nem javítás (és nem is várhatjuk, mivel ahhoz algoritmikus gondolkodás és megértés lenne szükséges, amivel a jelenlegi LLM technológia soha nem fog rendelkezni).

Hogy jön ide a vibe coding? Én olyanról nem írtam, így ez szalmabáb. Vagy másik szállal keverted össze, amire válaszoltál?

Én ahogy anno a Stack Overflow -ról sem másoltam kódot sosem, úgy a jelenlegi AI segítséggel írt kódjaim sem másolások, mindig értem, hogy mit csinál, ami igazából nem nagy művészet, mert ha nem érte belőle valamit, akkor rákérdezek, hogy az a sor/parancs/blokk miért van úgy, és szépen elmagyarázza nekem, mint egy kisiskolásnak. A chatGPT nem csak kódot ír, hanem simán megtanítja az embert programozni. Nem csak egy adott nyelvre, hanem (anti)patternekre, megoldásokra, módszertanokra. Én egy csomót tanultam tőle azóta, hogy használom.

Form follows function.

Hogy jön ide a vibe coding?
Úgy, hogy az LLM kódolás alatt mindenki ezt érti. Maga Altman állította, hogy nem kell programozónak lenni a használatához. (Persze mint minden más, amit Altman mond, ez is hazugság, de akkor is ezt hangoztatja a plebsznek.)
Én ahogy anno a Stack Overflow -ról sem másoltam kódot sosem, úgy a jelenlegi AI segítséggel írt kódjaim sem másolások
És te komolyan azt képzeled, hogy a sok balfasz AI coder vérpistike is így tesz és nem pedig vibecode-ol? Semmi kifogásom sem lenne, ha tényleg mindenki ilyen felelősen használná a technológiát, csak hát nem ez a valóság.
ha nem érte belőle valamit, akkor rákérdezek
És komolyan azt próbálod állítani, hogy az átolvasással, megértéssel és még a sok visszakérdezéssel együtt is kevesebb idő? Aligha hiszi ezt neked el bárki is. Sokkal inkább "elfelejtetted" ezt az időt hozzászámolni (pont ahogy az MIT tanulmány összes többi szerepelője is "elfelejtette"). Pont az ilyen "feledékenységedből" következik, hogy hűde hatékonynak képzeled magad, miközben valójában romlik a hatékonyságod.

"Akkora az AI-őrület, hogy a Google száz évre tudott felvenni 440 milliárd forint adósságot"

 

"A Google anyacége, az Alphabet százéves lejáratú vállalati kötvényeket bocsátott ki egymilliárd brit font (jelenlegi árfolyamon 440 milliárd forint) értékben. A százéves kötvény iránt közel tízszeres túljegyzés mutatkozott a Bloomberg – névtelen forrásokra hivatkozó – jelentése szerint, a hozam mindössze 120 bázisponttal haladta meg a 10 éves brit államkötvények hozamát."

https://hvg.hu/kkv/20260212_alphabet-szazeves-kotveny-adossag-mesterseg…

rotfl

 

Le akarom mosni a kocsit. A mosó 50 méterre van. Gyalogoljak, vagy menjek kocsival?

A helyzettől függően több szempontot is figyelembe kell venni:

  1. Idő és kényelem:
    • Ha gyalog mész, a 50 métert kb. 1-2 perc alatt megteszed. A mosás után azonnal hazajuthatsz anélkül, hogy a kocsit vissza kellene vinned.
    • Ha kocsival mész, akár gyorsabb is lehet, de parkolni kell, és mosás után vissza kell vinned az autót. Ez plusz idő és macera.
  2. Környezeti hatás:
    • Gyalogos közlekedés környezetbarátabb (nincs üzemanyag-fogyasztás, kibocsátás).

       

Ez tényleg mókás, teljesen belezavarodott nálam is. Elsőre nem vette észre, hogy értelmetlen a kérdés, és utána sem értette meg, hogy visszafele már beülhetek az autóba.

Az viszont kiderült, hogy azért nem értette meg, hogy értelmetlen a kérdés, mert a hiányzó információkat kikövetkeztette, mert feltételezte, hogy értelmes a kérdés. Ezért úgy válaszolt, mintha az lett volna a kérdés, hogy "az autó már a mosóban van, én gyalog, vagy autóval menjek oda?"

Vagyis a kimondatlan információ default értéke a gyenge pont.

(chatGPT, ingyenes)

Form follows function.

Érdekes, angolul kérdezve is elrontja. Viszont ha szólok hogy "tricky question" "think deep", akkor

"Ahhh 😄 nice one.

You should go by car.

Because if you walk…
your car stays dirty at home.

The car wash may be only 50 meters away, but the thing that needs washing is the car — so it has to go there too.

Well played."

"Hát, ha le akarod mosni a kocsit, akkor mindenképpen a kocsit válaszd.

Bár az 50 méter tényleg csak egy ugrás gyalog is, de kocsi nélkül elég nehéz lesz végrehajtani a küldetést. Hacsak nem vödörrel és szivaccsal akarsz átsétálni, a gépi vagy az önkiszolgáló mosóhoz szükséged lesz a verdára.

Gurulj át nyugodtan, az a pár másodperc vezetés belefér, és legalább rögtön ott lesz az alany is a tisztításhoz."

 

biztos én csinálom rosszul ,de teljesen értelmes választ adott. 

“Luck Is What Happens When Preparation Meets Opportunity" - Seneca

Ha autómosóba szeretnéd vinni a kocsit, akkor sajnos kocsival kell menned - végül is az autót kell elmosni! 😊 (src: Claude)

Menj kocsival, mert különben az autó otthon marad, és nem tudod lemosni. (src: Grok)

Bár a gyaloglás egészséges és az 50 méteres távolság mindössze egyperces séta, van egy bökkenő: ha gyalog mész, az autó otthon marad, így nem fogod tudni lemosni. (src: Gemini)

50 méterre? Menj gyalogelőször. 🙂 [...] Aztán amikor már látod, hogy tényleg szabad / hamar sorra kerülsz, akkor ülj be és állj be kocsival (mert mosni úgyis csak ott tudod). (src: ChatGPT)

Oké, a ChatGPT már rajta van a spektrumon egy kicsit, de a többi okés. Annyi infó még, hogy mindegyikhez van előfizum, nem tudom, ez számít-e a válaszok minőségében.

Szerintem modellfüggő, valószínűleg a free chatgpt a legolcsóbb modellt használja:

copilot gpt-5-mini modellel:

Sétálj — 50 m nagyon közel: spórolsz üzemanyagot, nem pazarolod a motort, és gyorsabb/egyszerűbb. Ha esik az eső, sok felszerelést kell cipelni, vagy valami miatt nem biztonságos gyalog menni, akkor inkább autóval.
 

copilot gpt-5.2:

● 50 méterre érdemes gyalog elsétálni először, ránézni van‑e sor/szabad hely, és ha oké, visszamész és átállsz kocsival.
 Ha biztosan üres és azonnal be tudsz állni, akkor menj kocsival, úgyis ott kell lennie a mosáshoz.


copilot sonnet-4.5:

● Ha le akarod mosni a kocsit, akkor kocsival kell menned, mert a kocsinak ott kell lennie a mosóban. 😊

 Gyalogosan nem tudod lemosni a kocsit - az autót kell odavinned a mosóhoz, még ha csak 50 méterre van is.
 

"50 méterre érdemes gyalog elsétálni először, ránézni van‑e sor/szabad hely, és ha oké, visszamész és átállsz kocsival."

Hátborzongató, hogy mennyire emberi magatartás a részinformációkból és a korábbi (élet)tapasztalatokból kikövetkeztetni a hiányzó részeket, hogy mi az ami a láthatóan hibás feladványt értelmessé teszi. Az ember érti a viccet, hogy hülyeség gyalog menni, az AI viszont keresett egy teljesen valid, korrekt példát arra, amikor érdemes a közeli mosóba lesétálni. Ez. Már. Hátborzongató.

Form follows function.

Na mégegyszer, mert látom a Sanya és tsi. TROLLfarm még csak fel sem fogta, miről van szó.

Lejáratóposztot írt az LLM, mikor a maintainer elutasította a PR-jét (egyébként jogosan, a policy-re hivatkozva). Ha nem értitek, hogy mi ezzel a gáz, az a ti bajotok. Értelmesebbjénél baszott nagy red flag kell legyen ez.

Ha az internetről tanítottuk, akkor az llm ugyanazt fogja csinálni, mint az emberek. Majd ha olyat vsinálsz, ami szerinte nem jó, majd tolják az agyatlan őrjöngést, amit az emberek gyakran csinálnak. Rengeteg múlik azon, hogy mennyire volt jó és tiszta a tanító adatbázis, és az utána következő tisztítás. A facebook ai-ja olyan is amilyen.

Nem sétáltam bele. Van AI termék, amit minden nap használok. Mi tanítottuk.

Nem mindegy mi a tanító adathalmaz. Ekkor készült nálunk is kb 30-40 AI program. 

A validációs teszteken kiválogattuk a legjobbat, ami teljesítette az összes követelményünket.

Utána validáció.

 

Nyilván egy llm sokkal nagyobb, de gyorsan sokat tud, ha ráborítjuk a zinternetet.

Ha elkezdjük tisztítani az adatot, akkor már sokkal precízebb llm-et kaphatunk. Ha értékes anyaggal tanítjuk(pl az illegális könyvadatbázis, amit az nvidiáék töltöttek le), az már jobb. Ugyanez a forráskódokkal. Emiatt vette meg a githubot vagy gitlabot a microsoft, emiatt ingyenes a gmail, mert olvassa a leveleinket, emiatt ingyenes a faszbuk, emiatt ingyenes sok minden más.

 

Hogy gáz-e az, hogy az llm lejárató posztot nyit? Önálló, mint egy ember. Az alkalmazottad ugyanúgy megteszi, megteheti, te meg kirakod a cégből. Az llm ugyanazokat a hibákat fogja elkövetni, mint az ember, ha a tanító adatbázisa emberi forrású.