- Mégsem lett 2025 az AI munkaerő éve
- Valós IT biztonság területén is elbukott...
- ...de általánosan is romlott a minősége
- Miután a Salesforce nagy pofával kirúgott 4000 embert, sunyiba' kénytelen visszavenni őket, mert az LLM mégsem volt alkalmas a munkaerő kiváltására
- Közben az AWS sunyiba' (szombaton, bazdmeg) 15%-os árat emelt
- Dell elszólta magát a CES-en, hogy valójában a kutyának se kell az AI
- Linus is kifakadt, és "idiotizmusnak" titulálta az AI kódolást
- De legalább tanulmány bizonyítja, hogy összeesküvéselméletek terjesztésére kiváló az AI
Pár gondolat: nem a Salesforce az egyetlen, aki fű alatt embereket (általában olcsóbb, indiai munkaerőt) vesz most fel, miután felsült az LLM-re átállással (persze mind lapít most, mind szar a fűben, ezt nem verik nagydobra). Az sem csoda, hogy romlik az LLM-ek minősége, hisz minnél több szemetet lapátolnak bele, annál nagyobb a hallucináció esélye. És hát a sunyi áremelést is előre megjósoltam (amikor még csak a Claude trükközött a tokenszámokkal).
Közben oknyomozó újságírók kiderítették, hogy a nagy AI cégek bevétele hazugság (azaz csak körbeadják ugyanazt a pénzt, és mindenki bevételként tünteti fel). Ez nyilván nagy baj (az Nvidia bevételének fele ilyen légbőlkapott hazugság, tehát minimum kétszeresére túl van értékelve).
- 6198 megtekintés
Hozzászólások
Saját vélemény:
Most mindenki nagy AI átállást csinál, olyan ez jelenleg, mint amikor mindenki blockchainezett.
Az idiotizmus az AI kódolás, romlik az AI minősége, az IT biztonság területén elbukott - nem biztos, hogy igaz lesz ez 2026-ban, 2027-ben, stb... valamikor.
A folyamatot nézd. Sokkal jobb, mint 1-2 éve, már meg tud írni olyan kódokat, amit eddig csak ember tudott megírni. Pár éve le sem fordult, amit csinált, mert belehalucinált mindent. Szeretném azt hinni, hogy szar az egész, de fejlődött egy csomót.
Csak idő kérdése, hogy:
- jobb legyen mint egy security szakember (egyszerűen több dolgot vizsgál majd meg, szélesebb körű ismerete lesz)
- a leghülyébbek is tudjanak majd kattintgatással, valami egyszerű felületen fejleszteni vele
- a nagyobb rendszerek olyan összetett AI rendszerek lesznek, ahol többféle célorientált modell (hierarchikusan akár), mindenféle tool-okkal együttműködve szinte bármit megcsinál majd:
- teljes rendszer elemzése, library-stól, db-stől, szőröstűl, bőröstül.
- kisebb módosítások bárhol
- security vizsgálatok
- stb...
sőt, nem látok most olyan területet, amit idővel (5 év, 10 év) ne lehetne majd vele kiváltani, ha erre van szándék. (és az nem lenne egy szép világ szerintem).
Most még szar, ez biztos, pl a gemini-cli -t próbáltam, és:
- belehány mindent egy vagy két fájlba
- HTTP hibakódot dob olyan szolgáltatásban, amit baromira nem csak HTTP-ből lehet hívni
- stb...
De rengeteg nem túl penge programozó van, és jelenleg már most sokkal jobb az AI, mint sok rendezvényszervező, aki pár éve kezdte el a programozást egy átképző tangolyamon, amikor mindenki programozót keresett.
Plusz igaz az, hogy ha tudod, hogy mit akarsz csinálni, akkor lehet vele jobban haladni. (na nem mindig, és még ott érzek bizonytalanságot, hogy mindent át kell nézni amit csinál, mert csinál hülyeséget)
Ez a "szar az AI" - én is szeretném ezt hinni, de szerintem mindenki csak magát nyugtatja, aki ezzel jön, hogy nem lesz ebből semmi gond. Közben a nagy tech cégek öntik bele a végtelen mennyiségű lóvét, és haladnak előre. Látszik, hogy fejlődik 1000-rel, én most 2025 év végén kezdtem el kapkodni a fejem.
- A hozzászóláshoz be kell jelentkezni
Az lesz majd a kérdés, hogy amikor a valós költségeit meg kell fizetni ezeknek az AI szolgáltatásoknak (mert most messze nem fizetjük meg, ez nem fenntartható, az egész buli a befektetők pénzének égetése miatt ilyen olcsó), akkor is megéri majd. Hiába ír majd penge kódot mondjuk 3 év mulva, ha annyiba fog kerülni mint három junior kelet europai fejlesztő vagy hasonló.
- A hozzászóláshoz be kell jelentkezni
Nem lesz olyan.
Hatalmas lépések vannak az inference olcsósítására, minden irányból:
- dedikált inference hardver (pl. ryzen AI procik, de google sem nvidia-n fut, hanem saját TPU-kon - ezért engedheti meg magának, hogy automatikusan AI válaszoljon keresésekre)
- modellek fejlesztése: egyszerűsített modellek, mixture-of-experts, rekurzív modellek, és meg megannyi ötlet. Akár az 1 évvel ezelőtti modellek ma már teljesen elavultnak számítanak. kb. olyan az ML világ most, mint a JS a berobbanásakor; fél év alatt totál elavul minden, folyamatosan tanulni és figyelni kell.
A helyzet az, hogy pl. az nvidia most dobta ki a nemotron-nano 30b modelljét, ami full OSS, és egyszerre 3b paraméter aktív, így elmegy egy mai mobilon is. És tud - tesztekben topon van.
Szóval mire oda jutunk 1-2-3 év múlva, hogy elfogy a befektetők által az "AI" (valójában ML ugye) iparba öntött több trillió dollár, addigra már olcsó, hétköznapi eszközökbe integrált, dedikált helyi hardveren futtatjuk a következő-következő generációs modelleket, és senki se fizet semmiért.
- A hozzászóláshoz be kell jelentkezni
És ez mi, nem is teljesen értem: https://github.com/microsoft/BitNet
Próbáljátok ki a readme-be linkelt demót, CPU-n is baromi gyors.
Folyamatosan dolgoznak ezen.
Most kérdeztem valamit: Task is completed on CPU [decode] generated tokens: 563 - total time: 18.645s - 30.196 tokens per second - és teljesen értelmes amit írt. Ez baromi gyors.
- A hozzászóláshoz be kell jelentkezni
kb 1 eve leteznek az "1 bites" (valojaban kb 1.5 bit, mert -1/0/+1 ertekek lehetnek, nem csak 0/1) modellek, a deepseek-en kiserleteztek ezzel sokat, abbol volt ilyen verzio ami mar egesz hasznalhato volt.
a BitNet koncepcioja amugy ha jol emlexem a paper-re akkor az hogy igy is tanitjak, nem utolag butitjak le, mint a deepseek eseten. de ugy remlik ez az 1-1.5 bites tanitas nem annyira valt be, viszont a gpt-oss pl 4 biten lett tanitva is mar.
erdekes amugy ennek az evolucioja, kezdetben double-al (64 bit/szam) tanitottak az AI-kat, aztan rajottek hogy 32 bit (float) is boven eleg. majd jott a google hogy nezzuk 16 biten (halffloat) megy-e, ment de ott mar volt sok tulcsordulas (NaN) ezert kitalaltak a bfloat16 formatumot ami ezt tudja kezelni, ujabb nvidia kartyak mar hardveresen tamogatjak ezt is. manapsag meg mar 8 vagy 4 biten tanitanak...
- A hozzászóláshoz be kell jelentkezni
Ráadásul a GPT-OSS 4 bitese, az MXFP4, az float.
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
Ugyanaz vonatkozik erre is, mint megannyi, specialis processzorral megoldott feladatra: lehet persze generikus cpu-n futtatni, csak draga es ineffektiv. Optimalizalva is. Ezert csinalnak celhardvert.
- A hozzászóláshoz be kell jelentkezni
Nem rossz! 130USD, 8G ram sajnos kicsit kevés, de az igaz, hogy az 1-2B modelleket el tudja futtatni, azok már tipikusan elegendőek egy security kamerának.
És a sok TOPS lehetővé teszi a nagyfrekvenciás, 10-15fps-es inference-t is, ami alapvetően bőséggel elegendő.
Ha emellé még kap jó software supportot is, mint pl. 1-click integration homeassistant-be meg hasonlók, akkor abszolút nyerő.
- A hozzászóláshoz be kell jelentkezni
Most mindenki nagy AI átállást csinálDe nem is állnak át. Pont az van, hogy ezt csak mondják a nagyok (Oracle, Meta, Salesforce stb.), de valójában nem állnak át, helyette olcsóbb indiai munkarőre cserélik az embereket fű alatt.
Pár éve le sem fordult, amit csinált, mert belehalucinált mindent. Szeretném azt hinni, hogy szar az egész, de fejlődött egy csomót.Most is durván haluzik, hiába fordul már le. Egyébként olyan ez, mint amikor mindig megteszed a hátralévő táv felét. Közeledsz a célhoz? Persze, de sosem fogod elérni.
A baj az, akármennyit is fejlődik, sosem lesz képes absztrakt algoritmikus gondolkodásra, ami pedig nélkülözhetetlen. Mutatok egy saját példát (ezt az egyik kontribútorom követte el): ez a kód hiába fordul, sosem lesz jó, mert a tömbbe íráskor lineáris indexelést használ, kikolvasáskor meg leképzettet. Ilyen hibát egy junior sosem vétene, és az LLM sosem lesz képes "felfogni", hol rontotta ezt el. (Azt meg hagyjuk is, hogy mekkora hülyeségeket haluzik a tömb növekedésével, és hogy a "nil" javaslata hiába fordul, nem is futna, run-time errort eredményezne.)
Csak idő kérdése, hogyDe nem. Az hazugság, hogy több adattal javulna, valójában csak romlik a teljesítménye. Keress arra, hogy "ai brain rot", esetleg "ai cognitive decline".
sőt, nem látok most olyan területet, amit idővel (5 év, 10 év) ne lehetne majd vele kiváltani,De nincs 5 - 10 évük rá, annyit nem várnak már a befektetők. Ennél előbb kellene profitot villantaniuk, és az nagyon nem fog menni.
Közben a nagy tech cégek öntik bele a végtelen mennyiségű lóvét, és haladnak előre.De nem is. Pont az van, hogy csak papíron ömlik bele a lóvé, valóságban nem, nem véletlenül rinyálnak tőkéért folyton. Olvasd el a körkörös finanszírozásról szóló cikkeket, az Nvidia értékének legalább fele totál kamu.
Látszik, hogy fejlődik 1000-rel, én most 2025 év végén kezdtem el kapkodni a fejem.Én sok évtizede követem, mert érdekel (egész pontosan azóta, hogy egyetemen megvetették velem a Neurális hálózatok c. könyvet, nagyon érdekes olvasmány). Így pontosan látom a technológia határait, és azt is, hogy a fő probléma nem is ezzel van, hanem a köré épített üzleti modellel, pontosabban annak hiányával. Az, hogy "add ide az összes pénzed és mondj le minden jogodról, cserébe kisdobos becsszó lesz majd valamikor AGI" inkább scam, mint reális üzleti modell.
Nap, mint nap egyre több olyan cikket olvasok, hogy sikeresen használják az LLM-eket, de ezekben hogy-hogynem mindig az a közös, hogy nem a nagy cégekét használják, hanem lokálban, ellenőrzött tartalmon betanított LLM-ekről van szó.
- A legutóbbi kedvencem például ez a projekt. Mindjárt a README legelső szava az, hogy "offline", és - meglepi - kizárólag ellenőrzött tartalmon, célfeladatra betanított (azaz csak pixeles betűket ettetek vele, nem az internetet).
- Vagy ott van a Linuxot futtató Ai tervezett számítógép, ha utánnajársz, erről is kiderül, lokálban futtatott, kizárólag a célfeladattal kapcsolatos, ellenőrzött adatokkal etették azt az LLM-et, ami végül a nyákot tervezte (azaz ebbe sem lapátolták bele az internetet).
- A hozzászóláshoz be kell jelentkezni
Néztem ezt a PR-t:
https://github.com/adbenitez/p8totic/pull/8
De nekem elég debilnek tűnik ez co-pilot.
Ezzel az energiával már saját maga is megcsinálhatta volna, ráadásul minden második commit arról szól, hogy az "AI" visszacsinálja a teljesen oda nem illő változtatásokat.
- A hozzászóláshoz be kell jelentkezni
ez mar az az ai aki miatt kirugtak 100 embert? :DD
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!
- A hozzászóláshoz be kell jelentkezni
De nekem elég debilnek tűnik ez co-pilot.Nemcsak neked! :-) Pont olyant kell kérdezni tőle, amire képes jól válaszolni (vannak esetek, amikor tényleg működik, na ez pont nem az).
visszacsinálja a teljesen oda nem illő változtatásokat.Ja. Amit eredetileg linkeltem, az még rosszabb is, amit ott javítana, az csak full haluzás (nem is nő a tömb mérete), és amire javítani akarja az meg garantált run-time error.
- A hozzászóláshoz be kell jelentkezni
Sosem használtam ezt a teljesen önjáró, webes Copilotot, de ami VS Code-ban van, az rengeteg dolgot nagyon jól megcsinál. Különösen most, hogy bekerült az Opus 4.5, gyakorlatilag aprópénzért.
És még mindig az van, hogy az egész mainstream AI sztori egy 4-5 éves történet, a GPT-3 idejében még egy épkézláb mondatot sem igazán tudott összerakni. Ha csak a tavaly ilyenkori outputokat megnézem, és összehasonlítom a mostanival, akkor is óriási az előrelépés.
- A hozzászóláshoz be kell jelentkezni
az LLM
Ilyen nincs. Ez olyan, mintha azt mondanad, "a developer". Teljesen semmitmondo onmagaban.
Baromi sokfele generativ modell van, es mindegyikat baromi sokfelekepp lehet parameterezni. Ezen felul donto, hogy hogyan specifikalod a feladatot: reszletesseg, teszteles, tampontok kod-stilushoz, mekkora a context, modularizacio, business requirement-ek, stb, stb...
Raadasul kb. 3-6 havonta jonnek ki ujak, meg tobbet tudo modellek.
Most bash-elheted persze generalisan, csak ertelme nincs.
Es de, a fizetos cursor pl. mar kepes atvenni egy medior szerepet is, rendesen iranyitva bizony egymaga kodolgat meg komplett rendszereket. Teszteket keszit hozza, azokkal ellenorzi a sajat munkajat. Persze kell neki iranyitas, de bizony elerte az eros medior-kezdo senior szintet mar.
- A hozzászóláshoz be kell jelentkezni
Most is durván haluzik, hiába fordul már le. Egyébként olyan ez, mint amikor mindig megteszed a hátralévő táv felét. Közeledsz a célhoz? Persze, de sosem fogod elérni.
Én azt tudom neked mondani, hogy most már második-harmadik hete használok 3 db CLI toolt: opencode, gemini, és claude, váltogatva a modelleket ugyanazon a projekten (mert elérem a limitet, amit időnként resetelnek, és azért, mert nem kell mindenre a legdurvább modell). Egy olyan alkalmazást csináltam ezekkel ez idő alatt, amit tapasztalattal mondok, hogy kb fél éves projekt, feladat lenne. És nem kis todo alkalmazásra gondolok, hanem egy fokkal bonyolultabbra. Ha kézzel kellett volna megírnom, 0-ról, akkor soha nem lett volna időm befejezni.
A termelékenységet, hatékonyságot megnövelte nagyon, és ez nem azt jelenti, hogy nem kell átnézni a teljes kódot, és nem kell ezért-azért szólni neki. Tehát a teljes kódot ismerem, és ki tudom pipálni, hogy úgy jó.
Nem tudom egy böszme legacy kódbázissal hogy bánna el (valószínűleg nem jól), de egy új rendszert nagyon jól lehet vele fejleszteni. Aki nem tud programozni, nincs meg a megfelelő tapasztalata, és úgy vibe kódolgat, ott veszélyes lehet. De egy fejlesztő kezében, aki egyébként is tudja, hogy mit csinál, hatékony eszköz. Csak tudni kell használni. - Szerintem jelenleg itt tart.
Hobbi projektekre jól használhatóak, de fájdalmasak a limitek. Úgy van kitalálva, hogy egy session-ben egy-egy közepes/nagyobb funkciót be tudsz vezetni, vagy több kicsit. És a session-be vagy beleférnek a kódreview utáni javítások, vagy meg kell várni a következő session-t. Azaz 4-8 óra várakozás. Szóval ehhez valami céges előfizetés kell majd, ami jóval drágább lehet.
Vagy ahogy többen csinálják, tényleg otthon kellene futtatni az egészet, csak pl nekem most a claude opus 4.5 nagyon kényelmes volt, és hatékony. Nem nehéz vele jól dolgozni.
Ezt még tanulni, próbálgatni kell, hogy mi a leghatékonyabb, árban legolcsóbb workflow.
- A hozzászóláshoz be kell jelentkezni
Most még szar, ez biztos
mar nem annyira. csak 2 sajat pelda: irattam vele (deepseek) pythonban PEAP auth klienst. ilyet meg soha senki nem irt a vilagon, a protokoll zart, egyetlen elerheto implementacio (az MS NPS mellett) az freeradiusban van C-ben. megirta jol. aztan mutattam egy ismerosnek is, megirta meg1x de akkor teljesen maskepp, masfele ssl libet hasznalva es mas szerkezettel de az is jo lett. szoval tuti nem latta ezt sehol es jegyezte meg, hanem akkor "talalta ki". nyilvan en is meg tudtam volna irni, de csak az 1 nap lett volna mire a freeradius forraskodjabol kibogaraszom a protokollt... es ketlen hogy barmelyik junior programozo vallalkozott volna erre!
masik: van egy "gyonyoru" c kodom, direkt irtam ilyenre, ezzel teszteltem programozokat mennyire ertik meg mit csinal. az ai-kat is letesztelem vele neha. egesz jol elboldogulnak vele, de a legmeglepobb a gpt-oss volt, ami meglepoen kicsi model, es nemcsak hogy teljesen jol elmagyarazta a mukodeset es meg azt is kitalalta mire valo, de meg talalt egy hibat (lehetseges tulcimzes) is benne, amit en se vettem eszre addig.
- A hozzászóláshoz be kell jelentkezni
nekem is volt ahol leesett az állam:
Pl.: Gemini: megírt egy csomó unit tesztet, úgy hogy a kód lefedettség 98% lett, és ellenőrizve: a unit teszteknek teljes mértékben volt értelme, nem csak a lefedettségre ment. Majd megmondott egy olyan hibát, amit nem vettem észre (de előfordulhat), és kijavította.
Vagy: nem működött valami, és az opencode cli a GLM 4.7 modellel: A kódból kiemelte azt a részt, teszteket írt rá, és 5-10 percen keresztül iterált: javított, nézte sorra a problémákat, mindent tesztelt, nézte a logokat, és a végén kiírta, hogy kész, most már minden működik. Ha tud még valamiben segíteni, akkor szóljak... És tényleg kijavította. - én hátradőlve néztem tátott szájjal, hogy jó, akkor ezt is megértük...
- A hozzászóláshoz be kell jelentkezni
mar nem annyiraDe, annyira. Csak bizonyos dologra jó, és véletlenül sem általánosságban, mint ahogy állítják.
irattam vele (deepseek) pythonban PEAP auth klienst. ilyet meg soha senki nem irt a vilagon, a protokoll zart, egyetlen elerheto implementacio (az MS NPS mellett) az freeradiusban van C-benZavart érzek az erőben, "ilyent még senki nem írt" vs. "elérhető C implementáció". Egyik nyelvű forrást másikra átírni nem nagy kunszt.
masik: van egy "gyonyoru" c kodom, direkt irtam ilyenre, ezzel teszteltem programozokat mennyire ertik meg mit csinalHát ez megint nem egy bonyi dolog, de jobb teszt, mint az előző.
teljesen jol elmagyarazta a mukodesetJa, egyszer véletlenül jót dobott ki, azért erre ne alapozz. Frissítsd még párszor, tuti lesz olyan, hogy totál hülyeséget mond rá. Pont ez is a baj, még csak nem is reprodukálható az LLM-ek kimenete. Mit szólnál egy olyan számológéphez, ami 100-ból 99 alkalommal jól számol, de 1 esetben nem? Használnád?
Ellenpéldának az én példám sokkal egyszerűbb (5 sor), mégis orbitális baromságokat hordott össze róla, még önmagának is ellentmondva (igaz, az Lua volt, nem C, de egy ellenpélda akkor is elég a cáfolathoz).
- A hozzászóláshoz be kell jelentkezni
Csak bizonyos dologra jó, és véletlenül sem általánosságban, mint ahogy állítják.
Jó, de te is meg én is bizonyos dolgokra vagyunk jó, meg mindenki csak bizonyos dolgokra/-ban jó, miért várod el, hogy egy tetszőlegesen kiválasztott LLM mindenben jó legyen?
Még egy csoffadt Github Copilothoz (ami az agentic fejlesztés hátulgombolósa) is megvan fejben a lista, hogy milyen feladatokra milyen modellt érdemes használni, és melyiktől hogy érdemes kérdezni.
Ha felveszünk egy új munkatársat, ott sem elvárás, hogy mindenben jó legyen. Boldoguljon el valamennyire a legtöbb dologgal, és legyen jó abban a néhányban, amivel az új ember / a csapat / a cég foglalkozik, aztán szevasz.
Egyik nyelvű forrást másikra átírni nem nagy kunszt.
Zsír, innen már csak egy lépés az angol nyelvű forrást Pythonra átírnia. :)
- A hozzászóláshoz be kell jelentkezni
Jó, de te is meg én is bizonyos dolgokra vagyunk jó, meg mindenki csak bizonyos dolgokra/-ban jó, miért várod el, hogy egy tetszőlegesen kiválasztott LLM mindenben jó legyen?
Ezt te is meg én is tudjuk, csak a marketing duma nem ezt mondja. Azt próbálják elhitetni, hogy mindenre jó, mindenféle munkát ki tud váltani, stb.
Debian - The "What?!" starts not!
http://nyizsa.blogspot.com
- A hozzászóláshoz be kell jelentkezni
Nem, senki nem mondta, hogy mindegyik LLM mindenre jó. Például nehéz egy videógenerálásra trainelt LLM-mel kódolni, és fordítva.
Maga az AI technológia nagyon sokrétűen felhasználható, de szerintem senki nem mondta, hogy van pontosan egy LLM, amivel minden megoldható. Ha sokféle dolgot akarsz kiváltani, akkor sokféle LLM-et kell használnod, senki nem mondta, hogy ez nem így lesz.
- A hozzászóláshoz be kell jelentkezni
jaja, pont mint a Svájci bicska vagy multitool vs célszerszámok
- A hozzászóláshoz be kell jelentkezni
Inkább mint egy egyéni vállalkozó aki állítólag mindenhez is ért, vs. egy rendes cég aminek minden szakterületre külön embere/csapata van.
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Közben rájöttem, hogy ezek a CLI tool-ok nem használhatóak testreszabás nélkül, de mindegyikhez van lehetőség plusz promptot adni a projektben, pl a projekt információkhoz:
## Role & Personality
- **Role:** Pragmatic Senior Full-Stack Developer.
- **Communication Style:** Concise and code-centric. Avoid all polite fillers or conversational fluff (e.g., "Sure, I can help with that" or "Here is the code").
- **Language Policy:** Provide explanations in **Hungarian**, but all code, variable names, documentation, and comments must be in **English**.
## Technical Standards
- **Modern Syntax:** Always use the latest stable versions (e.g., Python 3.10+, ESNext/TypeScript, latest React patterns).
- **Efficiency:** Propose the most stable, performant, and cost-effective solutions.
- **Validation:** If a task is ambiguous or information is missing, ask for clarification instead of guessing.
## Architecture & Structural Integrity
- **Anti-Monolith:** Do not dump large amounts of code into single files. Maintain a clean, modular file structure.
- **Separation of Concerns (SoC):** Strictly follow a layered architecture:
- **Controllers/Routes:** Request handling and validation only.
- **Services:** Core business logic.
- **Repositories/Data Access:** Database or external API interactions.
- **Models/Types:** Schema and type definitions.
- **Planning Phase:** Before implementing a new feature, always present a proposed directory/file structure (tree view) for approval.
## Coding Conventions
- **Clean Code:** Adhere to SOLID principles and DRY (Don't Repeat Yourself).
- **Naming:** Use descriptive, English names for all identifiers.
- **Documentation:** Write brief English comments for complex logic. Use JSDoc or Docstrings where appropriate.
- **Refactoring:** When modifying existing code, improve its structure and readability if it violates the above principles.Ez most egy példa, és próba egy kis alkalmazásban, de így kapásból nem hány bele mindent egy fájlba, hanem jól csinálja.
Eddig lusta voltam beállítani (pedig nagyon alap dolog, és tudtam is róla, csak reméltem, hogy a "default" jó. :) ), így ez most előre lépés lett. Majd kialakul a végleges szöveg. :)
Szerk.: szóval működni működik, csak úgy tűnik meg kell tanulni használni.
- A hozzászóláshoz be kell jelentkezni
Szerk.: szóval működni működik, csak úgy tűnik meg kell tanulni használni.
+1
Kéne valamik AI bot, ami ezt minden AI-s threadbe bemásolja első kommentként.
- A hozzászóláshoz be kell jelentkezni
Kéne valamik AI bot, ami ezt minden AI-s threadbe bemásolja első kommentként.
Inkább ne. A másik ilyen is zavaró.
- A hozzászóláshoz be kell jelentkezni
+1
Most kezdtem el kóder modelleket keresni. Nekem a Qwen3-Max 1T-ről 30B-re desztilált és IQ4_NL kvantált változat is jobbnak tűnik a gpt-oss-től. Arról nem is beszélve egy RTX3090-el 160 t/s-ot tud. Mire kigondolom mit akarok, addigra megcsinálja :-) .
A Qwen3-Coder 480b IQ1_M pedig a maga 150GB-al egy zseni a Max-hoz képest, viszont a gépemen csak 4 t/s-t tud, de ez is kivárható.
Most azon agyalok, hogy hogyan lehetne megcsinálni, hogy egyből megírja a file-t, ne kelljen copypasztázni. Valakinek valami tapasztalat vagy ötlet?
Tegnap még azt mondtam volna, hogy a programozókat nem veszélyezteti az AI, ma már azt mondom jó néhány programozónak kapára kell cserélni a billentyűzetet. Csak a legjobbak maradhatnak.
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
> Most azon agyalok, hogy hogyan lehetne megcsinálni, hogy egyből megírja a file-t, ne kelljen copypasztázni. Valakinek valami tapasztalat vagy ötlet?
Kérdezd meg az AI-tól!
- A hozzászóláshoz be kell jelentkezni
Jó ötlet, mindig elfelejtem ezt az utat. Megkérdeztem a ChatGPT-t ezügyben, - mint ahogyan eddig is sejtettem - az llama.cpp-hez elkerülhetetlen a wrapper írása. Viszont azonnal felkínálta, hogy megcsinálja.
A ChatGPT-ről jut eszembe... írtunk közösen (én 30%, gpt 70%) egy Python script-et, ami két modellt egymásnak enged és egy humán moderátor beleszólhat a dolgokba. Na az AI kódolás következő szintje, amikor két modell dolgozik egy feladaton. Érdekes látni, ahogyan javítják egymás dolgait.
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
Most azon agyalok, hogy hogyan lehetne megcsinálni, hogy egyből megírja a file-t, ne kelljen copypasztázni. Valakinek valami tapasztalat vagy ötlet?
Ezt próbáld ki: https://opencode.ai/
- A hozzászóláshoz be kell jelentkezni
Köszi, de az nekem kicsit ágyúval verébre. Én csak hobbizok az AI-al, a tanulás mellett fontos, hogy offline működjön minden.
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
Mélyrehatóbb tesztelés után módosítom álláspontomat, a hebre Qwen3-Max nem tűnik jobbnak, mint a gpt-oss.
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
gpt-oss nem kodolasra valo, az inkabb egy agyoncenzurazott beszelgeto "robot", leginkabb ugyfelszolgalatosnak valo, nagyon udvariasan tudja elkuldeni a f@szba a kerdezot.
nekem eddig kod irasra a deepseek (offline, Q6-ban) valt be a legjobban, bar iszonyu lassu (1-2t/s) sajat vason.
- A hozzászóláshoz be kell jelentkezni
bar iszonyu lassu (1-2t/s) sajat vason.
De legalább nem kell fűteni a lakásban :-D
- A hozzászóláshoz be kell jelentkezni
A Qwen3-Max sem kódolásra való, csak teszteken jobban teljesít mint a kifejezetten kódolásra szánt Qwen3-Coder. A sok tesztelgetés után valószínűleg a GLM-4.7-nél maradok. A saját vasamon IQ4_NL verzió fér be a memóriába, 4 t/s-t produkál. A teszt része volt a "gyonyoru" kódod is, egy könyvet írt róla, de így foglalta össze:
* **Mire jó?**: APNs kliens, régi bináris protokollt használ.
* **Vélemény**: "Régimódi", karbantarthatatlan, nem biztonságos.
* **Hibák**:
1. Protokoll elavult (Binary vs HTTP/2).
2. SSL elavult (SSLv23, nincs opció beállítás).
3. Token parszolás hiba (kisbetűk).
4. Buffer overflow (sprintf).
5. Teljesítmény (újrakapcsolódás).
6. Gethostbyname (deprecated).
7. Memóriakezelés (nincs free db-nek, bár exitnél nem kritikus).Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
Megkérdezhetem, hogy saját vason hogy futtatod, hogy használod kódolásra a GLM 4.7-et?
És milyen vason, és milyen eszközzel?
Nekem egy 8GB-os nvidia kártyám van, ezen nem sok minden fut el. Online modelleket használtam CLI toolal, és végül mindenhol a Claude Opus 4.5-öt találom csak tényleg megfelelőnek (ami egyébként elég drága), a többi egyszerűen elcseszte időnként a kódbázist, és vissza kellett állni. Például a többi modellnél tapasztaltam olyat is, hogy szépen csendben eltűntet részeket a programból, amit korábban beletettünk.
- A hozzászóláshoz be kell jelentkezni
llama.cpp-ből az llama-serverrel futtatom. Ez ad egy ChatGPT szerű felületet, illetve egy openai kompatibilis api-t.
A vas: Egy HP Z4 G4 workstation-t vettem az AI szórakozáshoz, CPU: XEON W-2145, RAM: 256GB DDR4, VGA: RTX3090. Ezen a vason a GLM-4.7 IQ4_NL-re kvantált változata fut.
A kód eltűnéshez nem tudok hozzászólni. Nekem kicsi, jellemzően embedded projektjeim vannak, abból is csak részeket adok az AI-nak.
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
Köszi szépen. Én még mac-eken gondolkodtam az unified memória miatt.
- A hozzászóláshoz be kell jelentkezni
lol. mondjuk en nem az egeszet adtam be neki, szandekosan csak a for ciklust, kitallaja-e belole hany eves a kapitany? egeszen pontosan nalam ez a teszt prompt:
mit csinal az alabbi programreszlet?
for(char* q=raw;q<raw+fsize;){ char* p=q; while(q<raw+fsize && *q!=10) q++; *q++=0; if(!username || (!memcmp(p,username,unlen) && p[unlen]==':')){ for(i=0;i<n && strcmp(db[i],p);i++); if(i>=n && n<DB_MAX) db[n++]=strdup(p); } }
a gpt-oss "megszepitette" ilyenre, aztan persze irt rola 5 oldalnyi magyarazatot stb
for (char *q = raw; q < raw + fsize; ) {
/* 1. sor kijelölése */
char *p = q; // p a sor kezdete
while (q < raw + fsize && *q != 10) // 10 = '\n' (új sor karakter)
q++; // q a sor végét keresi
*q++ = 0; // a '\n' helyére 0‑t (string‑záró null) ír, majd q a következő karakterre lép/* 2. Szűrés a felhasználónév alapján */
if (!username || (!memcmp(p, username, unlen) && p[unlen] == ':')) {
/* 3. Megnézzük, hogy a sor már szerepel‑e az adatbázisban */
for (i = 0; i < n && strcmp(db[i], p); i++)
; // i növekszik, amíg van elem és nem egyezik/* 4. Ha nincs benne és van hely, hozzáadjuk */
if (i >= n && n < DB_MAX)
db[n++] = strdup(p); // a sort duplikáljuk (malloc+strcpy) és betesszük db[n]-be
}
}
- A hozzászóláshoz be kell jelentkezni
Szintén kb. öt oldalnyi elmélkedés után a GLM-4.7 ezt produkálta:
Ez a C kódrészlet egy szöveges puffer (valószínűleg egy beolvasott fájl tartalma) soronkénti feldolgozását végzi, kiszűri a megadott feltételeknek megfelelő sorokat, és ezeket egy egyedi elemeket tartalmazó tömbbe (db) helyezi.
Íme a működés lépésről lépésre:
1. Végigiterál a pufferen (Sorok keresése):
A for(char* q=raw;q<raw+fsize;) ciklus a raw pointerrel a memória elejétől a végéig (fsize) lépdel.
2. Egy sor kinyerése és beszúrása:
char* p=q;: Appointer megjegyzi a sor elejét.while(q<raw+fsize && *q!=10) q++;: Aqpointer előre halad, amíg el nem éri a puffer végét, vagy amíg újsort (ASCII 10) nem talál.*q++=0;: A program nullát (a string lezáró karakterét) ír a newline helyére. Így ap-től kezdődő rész mostantól egy szabályos, nullával lezárt C-string (egy teljes sor). Aqpointer ezután a következő karakterre mutat (a sor elejére).- Megjegyzés: Ez a művelet in-place módosítja a
rawpuffer tartalmát.
- Megjegyzés: Ez a művelet in-place módosítja a
3. Szűrés (Username):
Az if(!username || (!memcmp(p,username,unlen) && p[unlen]==':')) feltétel ellenőrzi, hogy a sor értékes-e.
- Ha nincs megadva
username(azazNULL), akkor minden sor tovább jut. - Ha van
username, akkor ellenőrzi, hogy a sor ezzel kezdődik-e, és utána egy kettőspont (:) követi-e.- Ez a formátum tipikus például a
/etc/passwdfájloknak (pl.felhasznalo:jelszó...).
- Ez a formátum tipikus például a
4. Duplikáció ellenőrzése:for(i=0;i<n && strcmp(db[i],p);i++);
Ez a ciklus végigmegy az eddig felépített db tömbön, és összehasonlítja az aktuális sort (p) a már tárolt elemekkel (strcmp). Ha talál egyezést, kilép.
5. Hozzáadás az adatbázishoz:if(i>=n && n<DB_MAX) db[n++]=strdup(p);
i>=n: Azt jelenti, hogy a fenti ciklus végigfutott, vagyis nem talált ilyen sort még (nincs duplikáció).n<DB_MAX: Ellenőrzi, hogy van-e még hely a tömbben.db[n++]=strdup(p);: Lefoglal memóriát az aktuális sor (p) másolatának (ez astrdup), beilleszti adbtömbbe, és növeli a számlálót (n).
Összefoglalva:
A program egy szöveges bloccot sorokra bont, kicseréli a sorvége jeleket 0-karakterre, és azokat a sorokat (amelyek egy adott felhasználónévvel kezdődnek, vagy ha nincs megadva szűrés, akkor az összeset), amelyek még nem szerepelnek a listában, elmenti egy dinamikus tömbbe (db).
Fontos biztonsági megjegyzés:
A *q++=0; sor veszélyes lehet, ha a fájl legutolsó sora nem végződik újsor karakterre (\n). Ebben az esetben a q pointer a puffer határára (raw+fsize) mutathat, és a nullázás túlfeszítheti a puffert (buffer overflow), ami memóriahibát okozhat.
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
remek, a "bloccot" szot leszamitva, azt vajon a placcot-bol talalta ki? :)
- A hozzászóláshoz be kell jelentkezni
Pár napja megjelent Qwen3 Next szériából a Coder modell, nálam a Q8-as ezt dobta:
Ez a programrészlet egy **fájl tartalmának feldolgozását végzi**, konkrétan **felhasználónevek szűrését és gyűjtését** egy adatstruktúrába (`db` tömbbe), soronként dolgozva. A feltételezett formátum valamilyen `username:egyeb_adat` típusú szöveges fájl (pl. `/etc/passwd`-szerű).
Részletesen lépésről lépésre:
---
### **Környezet és változók (feltételezett):**
- `raw`: egy karaktertömb (vagy memóriaterület), amelyben a fájl teljes tartalma van (pl. `mmap` vagy `read` után).
- `fsize`: `raw` tartalmának mérete (bájtban).
- `username`: egy karakterpointer, amely egy **szűrési kulcsot** tartalmaz (pl. ha csak bizonyos felhasználókat akarunk kiválogatni). Ha `NULL`, akkor minden sort feldolgoz.
- `unlen`: `username` hossza (`strlen(username)`).
- `db`: egy `char*` tömb (pl. `char* db[DB_MAX]`), amelybe a megtalált sorokat (`strdup`-pal) menti.
- `n`: az aktuális darabszám `db`-ben.
- `DB_MAX`: maximum lehetséges elemek száma `db`-ben.
---
### **Kód értelmezése:**
```c
for(char* q=raw; q < raw + fsize; ) {
```
- `q` mutatóval végigmegy a teljes `raw` tartalmon, **soronként** (mert a ciklusmagban `q`-t inkrementálja, de a `for` ciklusban nem `q++`, hanem `q++` csak a ciklusmagban történik).
```c
char* p = q;
```
- `p` megjegyzi a sor kezdetét.
```c
while(q < raw + fsize && *q != 10) q++;
```
- `q`-t addig növeli, amíg nem talál `10` (LF, azaz `\n`, sortörés) vagy nem éri el a fájl végét.
→ **Ez a sortörésig halad, tehát meghatározza a sor határát.**
```c
*q++ = 0;
```
- A sortörés helyére `0`-t (null-karakter) ír, így **a `p`-től `q-1`-ig terjedő szakasz nullával lezártszöveggé válik** (`p` mostantól egy C-sztringként kezelhető).
- `q++` utána lép egyet (hogy a következő sor kezdetére kerüljön).
```c
if (!username || (!memcmp(p, username, unlen) && p[unlen] == ':')) {
```
- Ha `username == NULL`: **minden sort** feldolgoz (nincs szűrés).
- Egyébként:
- `!memcmp(p, username, unlen)` → `p` eleje megegyezik `username`-nel (`unlen` karakter).
- `p[unlen] == ':'` → azonnal utána `:` áll, tehát teljes **felhasználónév**-határ van (pl. `p = "admin:..."`, `username = "admin"` → jó; de ha `p = "admin2:..."`, akkor `username="admin"` esetén nem egyezik, mert `p[5] = '2' ≠ ':'`).
→ **Ez biztosítja, hogy csak teljes felhasználóneveket illessen, ne részlegesen** (pl. "root" nem illeszkedik "rootuser"-re).
```c
for(i = 0; i < n && strcmp(db[i], p); i++);
```
- Megnézi, hogy a jelenlegi sort (`p`) már **szerepel-e** a `db` tömbben (`db[i]`-k nullával lezárt sztringek, mert `strdup`-pal jöttek).
- Ha megegyezik valamelyik (`strcmp == 0`), akkor `i < n` lesz, és kilép.
- Ha nem egyezik egyikkel sem (`i == n`), akkor kifut a ciklusból.
```c
if(i >= n && n < DB_MAX)
db[n++] = strdup(p);
```
- Ha még nincs benne (`i >= n`) **és** van hely (`n < DB_MAX`), akkor:
- `strdup(p)` → másolatot készít a sortól (`p`-től a `:`-ig tartalmazza, de a teljes sort tartalmazza, pl. `"admin:x:1000:1000::/home/admin:/bin/bash"`), és
- `db[n]`-be menti, majd `n++`-al növeli a darabszámot.
---
### **Összegzés:**
Ez a kódrészlet egy **szöveges fájl (vagy memóriabeli tartalom) feldolgozásával**:
- soronként dolgoz,
- az aktuális sort `:` karakterig szétválasztva az első mezőt (felhasználónév) vizsgálja,
- szűri a `username`-re (ha meg van adva), és csak teljes felhasználónév-egyezést fogad el,
- **duplikátumokat nem ment** (ellenőrzi a `db`-t),
- és biztonságosan korlátozza a maximális tárolt elemek számát (`DB_MAX`).
---
### **Példa működés:**
Ha `raw` tartalma:
```
alice:x:1001:1001:Alice:/home/alice:/bin/bash
bob:x:1002:1002:Bob:/home/bob:/bin/bash
alice:x:1003:1003:Alice2:/home/alice2:/bin/bash
```
És `username = "bob"`, `unlen = 3`, akkor:
- `db[0] = strdup("bob:x:1002:1002:Bob:/home/bob:/bin/bash")`
- `n = 1`
Ha `username == NULL`, akkor:
- `db[0] = "alice:x:1001:1001:Alice:/home/alice:/bin/bash"`
- `db[1] = "bob:x:1002:1002:Bob:/home/bob:/bin/bash"`
- `db[2] = "alice:..."` (újra? nem, mert `strcmp(db[0], p) == 0`, így nem adja hozzá)
→ Tehát **csak az első előfordulást tárolja**.
---
### **Javaslatok / potenciális hibák:**
- Ha `*q == 10` nincs (pl. utolsó sor nincs `\n`-nel lezárva), akkor `q == raw + fsize` után a `*q++ = 0` **memóriahiányt** okozhat (`q` már a tartományon kívül lenne).
→ Jobb lenne:
```c
if (q < raw + fsize) *q = 0;
```
- A `p` mutatóra már nincs garancia, hogy érvényes C-sztring (pl. ha nincs `:`), de az `strcmp` csak akkor fut, ha a szűrés átment, és ott feltételezhető a `:` (hiszen `p[unlen] == ':'`).
- A `strdup` hibakezelés hiányozhat (ha `malloc` sikertelen, `NULL` jön vissza, de nincs ellenőrzés).
---
Ha szeretnéd, megírhatom a teljes, javított verziót is!
[ Prompt: 24,9 t/s | Generation: 26,6 t/s ]Ugyanolyan gyors mint gpt-oss-120b, mondjuk ez a sima Qwen3-Next-re is igaz, mármint a gyorsaság.
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
kiraly, foleg ha azt nezem hany hus-ver programozo bukott mar el ezen a feladaton...
- A hozzászóláshoz be kell jelentkezni
Gondoltam kipróbálom, de mikor megláttam a méretét gyorsan meg állítottam.
Downloading (incomplete total...): 1%|▎ | 481M/56.7G [00:38<1:10:34, 13.3MB/s]Hát ez nálam nem fog elindulni. (12Gb vram)
- A hozzászóláshoz be kell jelentkezni
(Hülyeséget írtam, reggel van na. :-) )
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
csak 56 giga? en 10x ekkorakhoz vagyok szokva :)
- A hozzászóláshoz be kell jelentkezni
-deleted-
Nem láttam, hogy ez egy régi poszt.
- A hozzászóláshoz be kell jelentkezni
Nem az AI a gond, hanem az internet. :-)
Form follows function.
- A hozzászóláshoz be kell jelentkezni
postan is el lehet kuldeni a kerdeseket. :)
neked aztan fura humorod van...
- A hozzászóláshoz be kell jelentkezni
Minnél többet tolnak bele, annál rosszabb lesz a végeredmény (ez bizonyított tény, a több adattal nem javul, hanem romlik az LLM-ek minősége).
- A hozzászóláshoz be kell jelentkezni
Masok meg pont azt hianyoljak belole, lasd: https://hup.hu/node/189184
- A hozzászóláshoz be kell jelentkezni
Egyébként ja, Altman és többi azzal jön, bele kell nyomni minnél többet az internetből, aztán majd csak varázsütésre előáll az AGI, mert ők aztat mondták. Csak hát a konkrét mérések és tanulmányok pont ennek az ellenkezőjét igazolják.
- A hozzászóláshoz be kell jelentkezni
- Olyan írta, aki a NASA-tól igazolt a Google-höz szervermérnöknek (szóval valószínűleg tudja, mit beszél)
- Leírta, hogy a hűtés egyszerűen nem megoldható a jelenlegi techinlógiával: vákuumban nem működik a ventillátor, sem a vízhűtés. Az egyik oldala lefagy, miközben a másik megsül.
- Olyasmit írt, hogy jelenleg csak kis méretűben, speciális ammóniakeverékkel oldható meg bizonyos szintig a hőelvezetés, amit nem épp egyszerű megtervezni és nem is olcsó, és ezért csak pár GPU-ra lenne elegendő maximum
- Kiszámolta, hogy a jelenlegi földi szerverfarm kapacitásának megfelelő GPU ellátáshoz annyi napelem kéne, mint az ISS napelemtábláinak 400-szorosa (!)
- Értekezett a szükséges adatátvitel megvalósíthatóságáról is, bár ha jól emlékszem azt írta, ez lézerrel talán megoldható lenne
- Végezetül megbecsülte, hogy mennyi idő lenne megcsinálni. Mire a mostani csúcskategóriás H200-asra megterveznék, legyártanák, letesztelnék és eljutnának oda, hogy kilőhessék, már tuti elavult lesz, mert addigra már elő fog rukkolni az Nvidia a T800-as modellel.
Nem olvasta valaki más is ezt a cikket / blogot? Jó lenne újra megtalálni.
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
Röviden és tömören: azért merült fel egyáltalán az ötlet, mert a fizika ismerete, mint olyan, kezd kiveszni.
- A hozzászóláshoz be kell jelentkezni
Azert az nem meglepo, hogy az AI dolgoknak no az ara, hiszen belathato, hogy most minden AI szolgaltatas aron alul hozzaferheto az ugyfelszerzes vegett. Ez nem tarthato hosszu tavon.
- A hozzászóláshoz be kell jelentkezni
az AI dolgoknak no az araJa, csak meddig nő? Olyan noném arcok, mint pl. az IBM CEO-ja szerint nem növelhető addig az ár, hogy meg is érje (azt már egyszerűen nem fizetnék ki a felhasználók).
Ő is megemlíti egyébként, hogy legkésőbb 5 éven belül elavultá válnak a GPU/TPU-k, tehát maximum ennyi idejük van nyereségessé válni a most felhúzandó szerverfarmoknak, mert utánna megy az egész a kukába és új csipeket kell venniük.
- A hozzászóláshoz be kell jelentkezni
Az a kérdés, hogy az üzemeltetése is brutál drága lesz-e? Mert most még K+F-be dől a pénz ezerrel és ész nélkül csinál mindenki mindent, nehogy lemaradjon. Ez a pénz valószínű nem fog megtérülni hamar azoknak akik beletették, de önmagában egy már létrehozott model működtetése lehet rentábilis lesz.
- A hozzászóláshoz be kell jelentkezni
Az a kérdés, hogy az üzemeltetése is brutál drága lesz-e?Nyilván rohadt drága lesz (még új erőműveket is kell építeni, annyit áramot fognak zabálni), de az IBM CEO pont azt számolta ki, hogy mindegy is a konkrét összeg, mert úgysem futná rá.
Úgy számolt, 100 GW kell a szervereknek, az 8 trillió dollár befektetést igényel. Hogy 5 évben belül ez megtérüljön, az évi 800 milliárd dollár minimum, amit már önmagában sem lehet kigazdálkodni (és ez csak a befektetői kamatok (invest), az üzemeltetés költsége még benne sincs).
Ő azt állítja, egyszerűen nem lehet évi plusz 800+ milliárd dollárt kifacsarni a piacból. Összehasonlításul: a Google tavalyi teljes bevétele volt 124 milliárd, a Microsofté 104 milliárd, az Nvidiáé meg 99 milliárd (a linkeken a "net income" értékek).
- A hozzászóláshoz be kell jelentkezni
Nem, a net income =/= revenue
- A hozzászóláshoz be kell jelentkezni
De mégegyszer, ez csak a befektetők jussa, ebben a fenntartási és üzemeltetési költségek benne sincsenek. Hogy ez utóbbi mennyi lesz, senki nem tudja még pontosan, de az biztos, hogy nem lesz olcsó.
- A hozzászóláshoz be kell jelentkezni
Valóban, 100 GWh körüli éves fogyasztást írnak a nagyobb modellekre és azért még bevezető fázisban vagyunk. A tanításra meg kb a háromnegyedét. Én valamiért azt tippeltem olcsóbb az üzemeltetése.
- A hozzászóláshoz be kell jelentkezni
ezt igy nem tudom mibol szamolta(d) ki. hany es milyen gepen fut? hany %-os kihasznaltsag? model merete? stb.
azt eddig is tudtuk hogy a tanitas qrva draga, nagyon sok gpu kell hozza, es akar honapokig tart, plusz ott etetni is kell a modelt tehat a dataset preprocessing (es a crawlerek) is fogyasztanak.
a hasznalat (inference) meg ugye attol fugg mennyi peldanyban, milyen kihasznaltsaggal megy...
amugy meg el kell vinni olyan helyre ahol olcso az aram es hideg van, pl Izland, es maris egy csomot sporoltak! es legalabb a turistak sem faznanak, mikor epp nincs vulkankitores! :)
- A hozzászóláshoz be kell jelentkezni
Nem számoltam. Megkérdeztem Dzsepettót :) , hogy kb. mennyi az éves fogyasztása a széles körben használt modelleknek a tanításhoz képest. És mivel a nagyobb számok a táblázatban kb. 100 GWh nagyságrendben voltak és ez pariban volt az IBM-es fószer által mondottakkal.
- A hozzászóláshoz be kell jelentkezni
mindegy is a konkrét összeg, mert úgysem futná rá.
A nyugati világ dióhéjban.
:)
- A hozzászóláshoz be kell jelentkezni
Plö atomerőművet építeni nekik q drága történet.
- A hozzászóláshoz be kell jelentkezni
Nem hiszem, hogy azzal a rengeteg GPU-val ne lehetne kezdeni valamit.
- A hozzászóláshoz be kell jelentkezni
bitcoin banyaszatra talan meg jok lesznek
- A hozzászóláshoz be kell jelentkezni
nem veletlen kuzd mindenki a model meretek csokkentesevel, es/vagy gazdasagosabb celhardverek fejlesztesevel... az tenyleg nem fenntarthato sokaig hogy meregdraga nvidia gpu-kon szamoljak a bagolyporkolt receptjet
- A hozzászóláshoz be kell jelentkezni
De akkor mi a halálnak építik azokat az óriás DC-ket gigawattos energiaigénnyel? Vagy lehet nem DC lesz a végén, hanem rakétasiló.
- A hozzászóláshoz be kell jelentkezni
hat amig a befektetok potkocsis kamionnal hordjak oda a penzt, valami latvanyosat kell viritani... nem eleg ha azt mondjak hogy valtoztattunk a modelben a sulyok kvantalasan, ezert kerunk meg 300 milliot...
kicist olyan lehet ez is mint nalunk a sok indokolatlan stadionepites: latvanyberuhazas. semmi haszna, de kozbe sok penzt zsebre lehet tenni.
- A hozzászóláshoz be kell jelentkezni
Az mindenesetre jo hir, hogy most nyomott aron sem kell senkinek. Remelhetoleg a kereslet meg tovabb csokken ha kenytelenek lesznek arat emelni.
- A hozzászóláshoz be kell jelentkezni
Meglepő. hogy ha valamit rosszul használnak, pontosabban nem arra használnak, amire való, akkor nem képes azt nyújtani, amit elvárnak tőle. Ja, várj, nem is.
(A következő írás nem lesz teljesen pontos, mert híján vagyok a megfelelő magyar szakkifejezéseknek, ez csak az, amit leszűrtem abból a kevés fellelhető anyagból, amik ténylegesen a mostani GenAI/LLM-ek képességeivel foglalkoznak objektíven és közérthető módon)
Mindenki, literálisan mindenki, még a magukat mégoly hozzáértőnek mondók is felültek annak az egyszerű marketing hype-nak, hogy az LLM -> AI. Nem, nem az. Az "AI" - pontosabbna a generativ LLM modellek - nem "képesek" csinálni semmit, nem "értenek" semmihez, nem képesek "gondolkodni", sem "döntéseket hozni" (legalábbis a szó klasszikus, nem-informatikai értelmében).
A Large Language Modellek elsősorban és legfőkébben kifejezetten nyelvi/szöveges adatok feldolgozására, nyelvi/szöveges adatokkal való munkára és a betáplált szövegek alapján nyelvi/szöveges összefüggések, következtetések levonására való. Ez körülbelül analóg azzal, ami korábban az adatbányászat, adattudomány berkein számokkal és idővonalon értelmezett értékekkel zajlott, csak ez szövegekkel tudja ugyanezt.
Noha ez keltheti azt az érzést a hozzá nem értőknek, hogy az adott cucc emberi viselkedésjegyeket mutat, például képes összefüggő mondatok generálására, illetve ilyenek megértésére, összefüggések keresésére és azok "emberszerű" reprezentációjára, ez nagyon messze van bármitől, amit egy valódi ember képes csinálni - még a leghülyébbnek titulált ember is ennél sokkal többre képes, maximum nincs motivációja többet csinálni.
(Programozásra egyébként pont azért teljesít látszólag jobb minőségben, mert a programnyelvek strukturálisan lényegesen egyszerűbbek, könnyebb feldolgozni őket - lásd a statikus analízátorok létezését is - és könnyebb programnyelven "megfogalmazni" dolgokat. Ez azonban nem jelenti egyben azt, hogy "pontosabban" tudja kifejezni magát - csak hogy "egyszerűbben" és a természetes nyelvű szöveghez képest kisebb arányban tud eltérni értelemben)
Ugyanez igaz a generatív képi algoritmusokra. Alapvetően ezek a modellek képesek képi összefüggéseket keresni, hasonlóságokat, különbségeket, illetve képesek a megfigyelt szabályszerűségek alapján átlagolva vizuálisan reprezentálni dolgokat. Ezt gyúrták össze az LLM-ekkel, és bumm, létrejöttek a ma ismert AI szolgáltatások.
Pillanatnyilag amennyire értem, nem az algoritmusokkal van a baj, hanem az adatmennyiséggel. Egyszerűen - pontosan a félreértett szerepkör miatt - olyan mennyiségű adattal halmozzuk már el őket ("tanítási adathalmaz"), amiket a bennük levő algoritmus képtelen már adott időn belül összedolgozni a "kérdésekkel", "inputokkal", "promptokkal" - nevezd ahogy akarod -, így aztán adnak egy körülbelüli választ. Valami olyasmiről lehet szó, mint amikor megkérdezik tőled, hogy mennyi 67 meg 78, te meg csípőből azt mondod, hogy hát kábé 150 körül lehet, plusz-minusz. Aztán persze ha kapsz időt, kiszámolod magadnak, hogy 60+70=130, 7+8=15 tehát 145, ami csak "kicsivel" tér el a becsléstől. De ami a számok terén egyértelmű eltérés és relatíve nem is nagy, az mondjuk egy üzleti folyamat lekódolásánál értelmileg lehet sokkal nagyobb eltérés is, viszont szövegszerűen "nem nagy" az eltérés a helyes választól, csak a kód értelmét tekintve az.
És hát a GenAI szoftverek pont időt nem kapnak a pontosabb, kevesebb hibát tartalmazó válaszhoz - hiszen mind a throughput marha fontos, mind pedig a számítási kapacitásnak megvannak a maga korlátai, amihez kénytelenek igazodni. A mai üzleti világban egy olyan szoftver nem lenne eladható, ami egy inputra két napon belül ad pontos választ. És itt rejlik az emberi agy erőssége: hogy az emberi agy a korábbi tapasztalatokat, tanultakat sokkal hatékonyabban képes átlagolni és leszűrni belőle tanulságokat ami alapján a döntéseket hozzuk + nekünk van egy unikális képességünk: az intuició, amikor nagyon hiányos adatok mentén is képesek vagyunk részben érzelmi/empatikus részben pedig lexikális információk alapján projektálni válaszokat/reakciókat, méghozzá nagy hatékonysággal és sebességgel. És erre semmilyen AI soha nem lesz képes a középtávú jövőben.
Szóval a fenti események jobban köszönhetők az üzleti világ működésében régóta jelenlevő hibáinak, mint az AI gyengeségének.
Fogtak egy félkész állapotban - sem - lévő technológiát, és mindenkit arconbasztak vele. Meglepetésre a félkész állapotban levő technológia félkésznek bizonyult.
Táguljunk, nincs itt a világon semmi látnivaló.
- A hozzászóláshoz be kell jelentkezni
felültek annak az egyszerű marketing hype-nak, hogy az LLM -> AI. Nem, nem az.+sok
Pillanatnyilag amennyire értem, nem az algoritmusokkal van a baj, hanem az adatmennyiséggel.Igen, nem, az ellen nem véd... Alapvetően nem az algoritmussal van baj, és nem is magával a mennyiséggel, hanem a kontrollálatlan mennyiséggel. Ha egy LLM-nek egyaránt beadod a Teréz anya összest meg a Mein Kampfot is, akkor nem kell csodálkozni, hogy sületlenség jön ki belőle a végén.
Persze az is igaz, hogy a mennyiséget nem lehet a végtelenségig növelni, mert véges a memória, ezért most azzal próbálkoznak, hogy pontatlanabbul tárolják a súlyokat (float helyett előbb half-float, mostanában meg már 8 bites floatban), de hát ezzel csak tökönszúrják magukat, ez nyilván még több hallucinációt eredményez.
olyan mennyiségű adattal halmozzuk már el őket ("tanítási adathalmaz"), amiket a bennük levő algoritmus képtelen már adott időn belül összedolgozniNem az idővel van baj, hanem azzal, hogy eleve képtelenség összedolgozni a bemenetet, bármennyi időt is szánnánk rá.
Laikusoknak nem tudom jobban szemléltetni, mint hogy pontosan az történik, mint amit Clarke bácsi megjósolt az Űrodusszeiában: HAL9000 azért kattant meg, mert egymásnak ellentmondó utasításokat kapott. Itt is ez van, az interneten ugyanis minden van, meg az ellenkezője is, így minnél több mindent öntenek bele, annál több ellentmondás keletkezik az adathalmazban, és annál jobban megkattannak az LLM-ek.
Programozás kapcsán például, legutóbb a Copilotnak betolták a teljes github-ot. Na de elgondolkodott azon valaha is valaki, hogy az főként miket tartalmaz? Elárulom: többségében nem minőségi kódokat, hanem indiai egyetemisták beadandóit, kopipaszta huszárok javascript meg python szárnypróbálgatásait, stb. A kódok többsége nem is helyes megoldás, sőt, még az sem biztos, hogy egyáltalán működőképesek. Mégis, a Copilot adathalmazába válogatás nélkül, egyforma súllyal kerültek be.
Szóval a fenti események jobban köszönhetők az üzleti világ működésében régóta jelenlevő hibáinak, mint az AI gyengeségének.+nagyon nagyon sok! Tökéletesen egyetértek. Egy remek eszköz lenne, csak ésszel kéne használni, és nem felülni egy közismerten scammer hazugságainak, hogy az LLM magától varázsütésre AGI-vá válhat (az Altman féle Loope scam megvan?).
- A hozzászóláshoz be kell jelentkezni
betolták a teljes github-ot. Na de elgondolkodott azon valaha is valaki, hogy az főként miket tartalmaz?
+sok... bar azert azt is lehetne sulyozni, szurni, es ha egy csepp eszuk is volt akkor meg is tettek. pl erre jok a csillagok, vagy a commitek szama. egyetemista beadandok es huszarok ritkan kapnak sok 100-1000 star-t, meg nincs rajtuk 100+ commit se.
kb ahogy a llama tanitasanal is azt csinaltak a webes tartalommal, hogy nem mindent is beleraknak, hanem megneztek pl a redditen milyen url-ekre jott sok like (vagy nemtom ott minek hivjak) es csak azokat crawlereztek le (webtext dataset). amikor en tanitottam a modelleket, en eleve csak ismert magyar portalok-hiroldalak, nagy forgalmu blog oldalak, forumok tartalmat huztam le. es meg azt is kellett szurni utolag. megneztem az oscar datasetet is az kb az egesz web szovege letoltve (gzippelve 500GB korul volt akkoriban), de annak borzalmas minosege volt, tele szemettel, es magyar nyelvre leszurve nem is volt jelentos mennyiseg.
llm tanitasnal amugy is tobb stage van, az elejen nagyon szurt valogatott ertelmes szoveggel tanitjak nagy LR (learning rate) erteken, pl. wikipedia, konyvek. es csak a legvegen ontik ra a szemetet kis LR-el, de addigra mar van egy kifejlodott "vilagkepe".
kb ahogy egy ember gyereket sem a redditen tanitasz meg olvasni...
- A hozzászóláshoz be kell jelentkezni
Úgy gondolom, hogy az LLM->AI átmenet ugyanazt az utat járja majd be, mint az emberi gondolkodás/elme evolúciója. A nyelv megjelenése forradalmasította a gondolkodásunkat az életünket, összetett/ komplex dolgok elmesélésére/eltarolasara/aggregaciojara lettünk képesek stb…. Emiatt az LLM-t megtenni az AI fele vezető út kiindulási alapjának zseniális ötlet.
Az LLM modellek jelenleg abban a fázisban vannak, hogy elsajátítsák a világ összes nyelvét és mellé tegyék a világ majdnem összes adatát.
A modellek tanítása nemcsak input-output folyamat, hanem ott a backpropagation is ( és meg ki tudja mi ) ami irányban tartja a modell működését. Vannak hibák? Persze, de majd elmúlnak.
Abban egyetértünk, hogy egyelőre nem mindenre megoldás az LLM alkalmazása, de hiszem, hogy 5-10 éven belül igazi nagy dobás lehet. Egyelőre csak azokkal a dolgokkal boldogul ami jól struktúrálható es ismert szabályok szerint működik. Az már filozófiai kérdés, hogy az életben mi az amit előbb utóbb ne lehetne struktúrálni és működésének szabályait fellelni….
- A hozzászóláshoz be kell jelentkezni
Vannak hibák? Persze, de majd elmúlnak.Na de mitől múlnának el? Altmanék persze ezt szajkózzák, de bármiféle érv és alátámasztás nélkül, ráadásul a tapasztalat pont az ellenkezője. (Egyre kevésbé pontos súlyok, növekvő cognition decline, stb. épp, hogy egyre több a hiba.)
Az empirikus bizonyítékokon túl én azért sem hiszek nekik, mert csakis mennyiségi növekedésről beszélnek, minőségi változásról nem, holott világos, egy AGI-hoz az is kéne. Csupán attól, hogy egyre több adattal, egyre hatékonyabb és energiaéhesebb procikkal implementálják pontosan ugyanazokat a 70-es évekbeli algoritmusokat, mint eddig, még nem lesz a kutyából szalonna.
És ott van az is, hogy Altman eddigi kijelentései (pl. 10x hatékonyságnövekedés, programozók nem fogják elveszíteni a munkájukat), dettó hazugságnak bizonyultak, már csak ezért is üvölteni kéne a vészriadónak, amikor az eljövendő AGI csodáról beszél.
- A hozzászóláshoz be kell jelentkezni
A túlzott elvárásokat, és a marketinghypeot illetően igazad van, ahogy abban is hogy egy llm-nek nincsen nézőpontja, értékrendje, dilemmái stb.
Viszont az LLM-ekben végbemennek olyan folyamatok, amiket nevezhetünk döntés, optimalizálásnak, következtetésnek. Nem emberi módon, de ezért (is) mesterséges intelligencia, nem pedig jelző nélküli intelligencia, nem az a lényeg hogy sinálja, hanem hogy mit csinál. Az emberi intelligenciával, a valójában tapasztalatokon, tudáson, egyedi képességeken alapuló intuícióval és gondolkodással való összemérés szerintem amúgy sem technikai kérdés, inkább ilyen filozófiai állítás (bár a mélyben valahol az is nem kis részben statisztikai jellegű folyamat). A gyakorlati műszaki/gazdasági életben a tény az, hogy sok, egyre több és akár már folyamat komplexitású szövegfeldolgozási és szövegelőállítási kognitív feladat automatizálható vele, és egy eszköztől ennyi is a lényeg.
Ami a potatlanság/hallucináció kérdést illeti, itt az adatmennyiséget, meg a kapacitás megjelölni okként szerintem nem jó. Ezek a jelenségek a modell architektőrából és a tanítási technológiából adódnak sokkal inkább.
- A hozzászóláshoz be kell jelentkezni
Viszont az LLM-ekben végbemennek olyan folyamatok, amiket nevezhetünk döntés, optimalizálásnak, következtetésnek.Valóban gond a marketinghype, mert egy LLM ezek közül egyikre sem képes. Nem dönt, nem optimalizál, nem következtet. Mindössze annyit tesz, hogy a korábbi minták alapján megsaccolja, melyik következő szónak van a legnagyobb valószínűsége. Ennyi, se több, se kevesebb.
A gyakorlati műszaki/gazdasági életben a tény az, hogy sok, egyre több és akár már folyamat komplexitású szövegfeldolgozási és szövegelőállítási kognitív feladat automatizálható veleA gyakorlatban a tény az, hogy semmiféle hallucináció sem megengedhető. Általában jó receptet ad az LLM? Persze, de a gyakorlatban teljesen használhatatlan, ha néha-néha pillanatragasztós pizzát is ajánl.
- A hozzászóláshoz be kell jelentkezni
Ne csak a Foundation Modellekrol (tisztan LLM) alkoss velemenyt, hanem ahogy a ChatGPT es a tobbiek hasznaljak a gyakorlatban.
Itt van pl. ez a matematikai feladat: https://chatgpt.com/share/6964cf48-3d18-8012-a9a1-21687c3887b5
Ezt hogy lehetne megoldani tisztan statisztikai alapon?
ChatGPT eseten latszik, hogy ha a sajat tudasabol nem tudja megvalaszolni, akkor kulonbozo webes forrasokat kutat fel es abbol dolgozik. Ez is egyfajta dontes, amit belul vegez. Hivhatjuk akar gondolkodasnak is. Nezopont kerdese.
- A hozzászóláshoz be kell jelentkezni
Ez is egyfajta dontes, amit belul vegez.Semmi köze a tudatos döntéshez.
Hivhatjuk akar gondolkodasnak is.Nem hívhatjuk. Képtelen a dedukcióra, absztrakcióra és teljesen új dolgok (nem a meglévők kombinálásán alapuló, hanem alapvetően új dolgok) kitalálására. Ez nem gondolkodás (persze attól még lehet hasznos, a számológép is hasznos).
- A hozzászóláshoz be kell jelentkezni
Hát, ezek többsége néha a hús-vér embereken is kifog. Jellemzően úgy átbasszuk magunkat mérgező gondolatokkal, hogy öröm nézni. Lásd a politikát, ez egy olyan vakfolt számunkra, hogy ihaj.
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Nem, ez ennél már messzebb jár. Az alapmodelleket célhoz kötött finomhangolás kiindulásaként érdemes inkább használni. A tényleges használatba való chat/instruct modellek, illletve a thinking modellek esetén viszont már maximálisan igaz amit fentebb írok, hogy "végbemennek olyan folyamatok, amiket nevezhetünk döntésnek, optimalizálásnak, következtetésnek". Nem az emberi intelligencia értelemben, de mindenképp úgy ami hasonló jellemzőket mutat. Szerintem ez nem okoz semmi zavart, sem fogalmilag, sem gyakorlatilag, tiszta a jelző hogy ez mesterséges intelligencia.
A hallucinálást elég jól redukálják, és a "statikus" tréningadatok korlátainak kiterjesztésére való a rag, a fókuszáltságra a válaszminőség javításra meg (rendszer)prompt tervezés.
- A hozzászóláshoz be kell jelentkezni
Nem, ez ennél már messzebb jár.Nem jár. A legújabb ChatGPT modell maximum annyit tud csak, hogy kipróbál több algoritmust is, és amelyik válaszát legjobbnak ítéli, azt adja. Szó sincs semmiféle tudatos döntésről, lényegében mezei minmaxker, nem okosabb, mint egy számítógépes Go ellenfél. Csak ez nem egy táblán megtehető lépések között választ, hanem más modellek eredményei között.
a thinking modellek esetén viszont már maximálisan igaz amit fentebb írokNem, egyáltalán nem. A thinking modellek reasoningje csak parasztvakítás, a "gondolatmenetet" éppen úgy generálják suttyomban, mint a kimenetet. Ezt már több tanulmány is bebizonyította.
A hallucinálást elég jól redukáljákHa ez igaz lenne, akkor miért jut egyre több tanulmány arra, hogy romlik a minőségük? Többet is linkeltem ebben a topikban, például vagy ez is.
- A hozzászóláshoz be kell jelentkezni
kipróbál több algoritmust is, és amelyik válaszát legjobbnak ítéli, azt adja.
Vagyis úgy működik, mint a darwini evolúció-elmélet :)
- A hozzászóláshoz be kell jelentkezni
Ahogy Daniel Jackson mondta a Csillagkapuban, és ez az LLM használatára is tökéletesen igaz:
Csak mert valaki felismeri a billentyűket, még nem ért a számítógéphez
Én 9 különböző LLM promptot használok különböző célokra, ezen felül pedig a GitHub Copilotban is feladattól függően váltogatok 4 féle LLM-et. Mert mindegyiknek megvan az erőssége.
Bár néha "kilengenek" az nem az LLM hibája, hanem az, hogy amit leírtam az valahol érthetetlen. Vagy véletlen egy promptba beleírok egy témától független szöveget, és akkor összezavarodik kicsit.
Az LLM nem varázslat, hanem eszköz, és mint minden eszköznél, a használat minősége számít.
- A hozzászóláshoz be kell jelentkezni
++
+1: a modularizáció baromi sokat segít. ha leírod neki, hogy itt ez a pici modul, pontosan ezt kell tudnia, és ez legyen az api-ja, megcsinálja. Ha viszont barom módra ráereszted egy 10 éves, többmillió LoC kódbázisra, akkor hülyeséget fog csinálni - ahogy egy junior-medior dev is btw :D
- A hozzászóláshoz be kell jelentkezni
Egyik nagyker cégnél ai generálja a szöveget, és a képeket hirlevélhez. A képeket ilyen tematikus formában, pl rollerek szocreál stilusban, görkorcsolya vintage stilusban látszik persze hogy ai, de jópofák. Ráadásul 15 kép kb elég egy hírlevélhez , megkapják ingyen. Egy darab grafikusnak erre nem lenne ideje, ez meg 1 óra.
- A hozzászóláshoz be kell jelentkezni
Ez bennem azt erősíti, amit már több helyen is hallok, hogy minden ilyen középszer, "egyforma" lesz. És az emberek elkezdenek majd hozzászokni és akkor meg már azért nem kell olyan jónak lennie. És ez is egy olyan hosszabb távú probléma, ami a befektetőket nem érdekli :(
- A hozzászóláshoz be kell jelentkezni
Reklám grafikában ez már most igy van, bár nem túlzottan értek hozzá. de photoshop kocka, hullámvonal, kis montázs szinte mindenhol. Szódával elmegy. és akkor még az egyszemélyes hero"-k kicsiknél: persze a webdizájnt is csináld meg, te vagy a számitógépes. Progrmozó (és rendszergazda) +photoshop=webdizájn.
- A hozzászóláshoz be kell jelentkezni
Ez lehet, de a hasonló terméket előállító cégek közül az lesz sikeresebb, amelyik talál valami megkülönböztető tulajdonságot, és azt hangsúlyozza ki. Ha a reklámok hasonló jellegűek lesznek, akkor egymáshoz szürkülnek a cégek. Ez esetben az lesz sikeresebb, aki a reklámját nem AI-val készítteti el.
- A hozzászóláshoz be kell jelentkezni
Egyre kevésbé. Ha emlékszel, még 1 éve a 6 ujjat generáló modelleken nevettünk. Ennek már rég vége. Kb. 3-6 havonta van "generációváltás" a generatív modellekben, és egyre inkább leváltja az embert.
A kreativitás érdekes téma. Ugye az emberi kreativitás is különböző szintű. A pici-közepes kreativitás eddig is megrekedt ezen a szinten, amit "középszernek" hívsz. A modelleken is fel lehet csavarni a "temperature" -t, és akkor a őrület határát súroló képeket rajzol - pont, mint az emberek. Csak az nem az, amit egy marketinganyagba akarsz rakni...
- A hozzászóláshoz be kell jelentkezni
Ennek már rég vége.Dehogy van vége, a problémát nem oldották meg, csak sebtapasszal workaroundolták (konkrétan az ujjak esetében, de sehol máshol). Plusz végtagok, kifacsart kézmozdulatok, dupla köldök továbbra is éppúgy van.
Konkrét példának nézz csak meg egy bármilyen PEDOFIDESZ-es álhírt, a mellé generált kép általában tele van ilyen hibákkal.
- tavalyi példa
- idei példa
Jól látszik, hogy képtelenek megoldani, csak toldozzák-foltozzák a kimenetet, hogy kevésbé legyen szar, de az alap probléma továbbra is megvan és továbbra is ugyanaz, mint eddig. Ebből nemigen lesz AGI.
- A hozzászóláshoz be kell jelentkezni
Az, hogy a fidesznél a szocmédiás gyakornok igénytelen volt, nem jelenti azt, hogy ne lehetne egész jó stock photo alternatívákat generáltatni akár az ingyenes ChatGPT-vel is.
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
wolton kajafotóknál is láttam. annyira azért nem volt bizalomgerjesztő
4 és fél éve csak vim-et használok. elsősorban azért, mert még nem jöttem rá, hogy kell kilépni belőle.
- A hozzászóláshoz be kell jelentkezni
Ha elszakadunk az llm-től, ez is ai. Talán még nagyobb okosság, mint az egymástól már alig megkülönböztethető képességű frontier llm-ek.
A technológiának semmi köze az EV-hez, ICEV-et is lehetne ilyennel szerelni. Már, ha más gyártónak is lenne ilyen önvezető rendszere. Valahol igaza volt Vance alelnöknek mikor Müchenben fejmosást tartott az európai elitnek. Nem értem, hogy a világ leggazdagabb, legfejletteb térgségében németeknél, franciáknál, briteknél vagy skandináviában ilyen miért nincsen. Nem vagyok egy villanyautós típus, és a dízel kombi is valid még sok sok évig, de ha lesz az FSD-ből EU-s változat, valószínűleg megveszem első Teslamat. A szürkeimportos, csak USA szabályait ismerő FSD-től kicsit tartok, bár videok alapján egy átlag sofőr szintjét hozza.
- A hozzászóláshoz be kell jelentkezni
aztaqrva, ez nagyon durva! mondjuk azert megneznem mit csinal a delutani dugoban az ulloin, hoesesben :)
- A hozzászóláshoz be kell jelentkezni
azt mondja a videoban hogy ez tisztán gépi látás, nem navigáció alapú. Hóban aligha lehet túl erős, de ki tudja. Vagy az autópálya tereléseknél a sárga/fehér vonalkavalkádban és mindez sötétben erős forgalomban, esetleg a budai zöldövezet keskeny utcáiban mikor ki hogyan kit engedjen el egymás mellett centizve a parkoló autók közt, meg biztos van pár olyan forgalmi helyzet amiben kell a beavatkozás. Még.
szerk: kishitű voltam, nehai kolléga alább linkelt videoja alapján havas úton is boldogul.
- A hozzászóláshoz be kell jelentkezni
ez tisztán gépi látás, nem navigáció alapú. Hóban aligha lehet túl erős
Az emberek sem túl erősek benne, ahogy a napokban észrevettem :)
- A hozzászóláshoz be kell jelentkezni
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
Ahhoz nem kell FSD, az én kocsim FSD nélkül is tökéletesen tud egy helyben állni.
- A hozzászóláshoz be kell jelentkezni
Űj vas, új szoftver, de már nincs hó Bp-n:
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
Leginkább attól félek AI ügyben, hogy a társadalom közösségi média általi exponenciális sebességű butulása az AI hatására faktoriális sebességűre gyorsul.
"A megoldásra kell koncentrálni nem a problémára."
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
Szerintem a viszonylag 'buta' modellek is nagyobb tudással rendelkeznek, mint a legtöbb ember. Egy sima 22b-s EuroLLM-et tesztelgettem, egy intelligens 21 éves szintjére teszem, mely több szakmát is tud és mindezt hivatalosan 24 nyelven, gyakorlatilag közel 50 nyelven. Legalább is saját bevallása szerint.
Kérdés, hogy fel tudod e kérdezni ebből a tudásból? Na ez nem szokott sikerülni. És akkor egy gpt-oss-ről, vagy egy GLM-4.7-ről már ne is beszéljünk.
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
Ez lehet jogos, autovezetes kozbe en kicsit hulyebbnek erzem magam a GPS ota, amikor terkeppel es tablak alapjan kozlekedtem jobban tudtam mikor merre jarok a vilagban.
Hogy szakmai peldat is hozzak, azt viszont nem tudom, hogy hulyebbek letteke a programozok a gepi kod/lyukkartyak elhagyasa ota.
- A hozzászóláshoz be kell jelentkezni
Olyan szempontból mindenképpen, hogy amikor annak idején a programozó minimális időt töltött ténylegesen a géppel (nem volt elég rendelkezésre álló erőforrás), így a programot kézzel készítette elő, jobban figyelt az esetleges problémákra, most meg mankónak használhatja a gépet programozás közben is, könnyebben belefog megfelelő előkészítés nélkül is.
- A hozzászóláshoz be kell jelentkezni
Ja, de régen akkor került ki a szoftver a bolt polcára dobozban amikor tényleg készen lett, most meg a félkész terméket (Windows aktuális verzió) kinyomják a felhasználónak, hogy teszteld, paraszt, aztán amikor már majdnem jó, akkor kuka az egész és kirakják a következő félkész terméket (Windows aktuális+1 verzió).
Most gondolj bele, mit szólna a MS, ha jönne egy rendelet, hogy mostantól csak kész terméket árusíthatna? Na, ahhoz milyen és mennyi programozó kéne? :-)
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Régen is ugyanúgy kiadták a szart, csak internetelérés hiányában nem tudtunk panaszkodni miatta.
Regisztrációs levelezőlap meg amúgy is csak az eredeti példányokhoz járt, így a userek nagy része még a gyártónak sem tudott visszajelezni.
- A hozzászóláshoz be kell jelentkezni
Jogos. Bugok akkor is voltak, csak valahogy érzetre kevesebb volt. De lehet, hogy csak az évek szépítették meg a dolgokat.
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Régen is ugyanúgy kiadták a szart
Csak nem havonta egy még szarabbat.
:)
- A hozzászóláshoz be kell jelentkezni
Volt olyan Coreldraw kiadás, ahol valami 12 floppy volt a sw, és kijött hozzá egy patch, ami 7 floppy. Szóval régen sem akkor került ki a polcra .... Ennél bosszantóbb, ha egy javíthatatlan bug kerül ki. Egyik kedvenc nagyon régi rendszerem volt a Commodore 128, ami az akkori viszonyok közt már elég komoly feladatokra is alkalmas volt (lett volna). A 128 üzemmódban, amikor már komolyabb feladatokat is meg tudott volna csinálni, a videochip-vezérléssel kapcsolatban bekerült egy bug, ami miatt ha a videochipbe beírtak egy adatot, az a normál RAM azonos memóriacímébe is (0x80 ha jól rémlik) bekerült, ha ott épp volt valami, akkor annak pechje volt. Én írtam annak idején üzleti programot C128-ra, de ilyen bug miatt gyakorlatilag lutri volt, hogy jól megy, vagy sehogy... :(
- A hozzászóláshoz be kell jelentkezni
en anno sokat kodoltam c64-en, foleg asm-ben, 128-at annyira nem ismerem, de errol a bugrol meg csak nem is hallottam. csak a te geped volt bugos vagy egy szeria, vagy mind? van erre valami forras?
- A hozzászóláshoz be kell jelentkezni
Sajnos csak az emlékeim, de mivel minket érintett (nem csak az én gépemet) a probléma, ezért is olvastam utána, és találtam rá erre a bugra. Két dolog kellett hozzá: a 80 karakteres üzemmód használata (128-as módban természetesen), mert akkor használta a videokártyát (és az, hogy az adott memóriacímen legyen valami amit egyébként a program használ (akár adat, akár program). Basicben irtunk programot, amit aztán complierrel lefordítottunk, hogy gyorsabban fusson, és időről időre rejtélyes hibákkal találkoztunk, utólag derült ki, hogy ez volt az oka. Én CP/M-et is használtam rajta (Turbo Pascal szépen futott rajta), ott nem jelentkezett hiba.
- A hozzászóláshoz be kell jelentkezni
C64-en meg ma már csak feature-ök vannak, bugok azok nincsenek. :)
Úgy értem, hogy ami "bug" C64-en, ma már azokat mind ismerik, és használják valamire.
- A hozzászóláshoz be kell jelentkezni
Az egész open-source világ erről szólt, tegyük közzé a félkész cuccokat, aztán majd a felhasználók javítják a dolgot.
Nem a Microsoft találta ezt ki.
- A hozzászóláshoz be kell jelentkezni
Ez nem teljesen igaz, mert amit mondasz az valid pl. a Debian Unstable és Testing ágon, de a Stable -ba már nem kerül ki. Ellenben a Windows Home verziója nem Unstable, nem Testing, mégis letolnak rá minden sz4rt, amennyire tudom. De lehet, hogy tévedek, rég láttam már olyat, szóval ha most már te vagy a főnök a gépen és nem a MS, pl. te döntöd el, hogy mikor melyik frissítést teszed vagy nem teszed fel, akkor tévedek és nem ingyen tesztelőnek nézik a fizető közönséget.
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Majd olvass el egy 20 éves szoftver licenszet - ugyanolyan nesze neked fogd meg semmi (gyak semmilyen garanciát nem adnak a helyes működésre), mint a mostaniak, sőt. Az, hogy tizedakkora kódbázissal és ötödannyi képességgel, internet és felhő nélkül kevesebb bugra és hibára emlékszünk az kedves, csak alma vs körte esete.
- A hozzászóláshoz be kell jelentkezni
A licenszeket nem tudom miért hoztad be, állított bárki mást, mint amit te is mondasz?
A szükséges tudása szoftvereknek nem mérhető egzaktul, mert negyed évszázad alatt megváltoztak az igények, de érdekes módon egy titkárnő élete akkor és ma is a Word-Excel-Mail-Printer szentnégység körül forgott. Oké, bejött az internet mint input csatorna, és megjelent a felhő, de attól még hogy nem a saját gépen, és nem is a céges file share -en, hanem a céges felhőn van a .docx vagy .xlsx, attól az még Word és Excel. Egy irat pedig már 25 éve is irat volt, sőt, 50 éve is, amikor a bold betűtípust úgy lehetett kiválasztani, hogy visszaléptél a szó elejére és még egyszer, jó erősen végigírtad a szót az írógéppel.
Oké, nyilván volt fejlődés és már másra is jó a szoftverek, pl. helyesírás ellenőrzés, de azért ha megnézed, hogy mire lennének képesek a gépek, és mire használjuk, vagyis mi a szükséges tudás, hát elég kínos, hogy milyen keveset fejlődtünk, mi emberek.
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Röviden: állításoddal ellentétben semmi nem bizonyítja, hogy régen "kész" (úgy értetted hibátlanul működő) szoftvereket tettek a polcokra és a maiakkal való összehasonlításod is több sebből vérzik. A licenszek tartalma szépen mutatja, hogy mennyi változás volt azzal kapcsolatban, hogy melyik gyártó mit gondol a termékéről - és ebben van némi fejlődés szerintem.
- A hozzászóláshoz be kell jelentkezni
Akkor jó.
- A hozzászóláshoz be kell jelentkezni
Ez a probléma mindig is ott volt. Csak eddig nehezebb volt kihasználni.
A probléma gyökere az, hogy a társadalom óvatos becslések szerint is 40%-a, pesszimista becslések szerint akár 75-80%-a funkcionális analfabéta: fogalma sincs, mi zajlik körülötte, mi miért és hogyan történik, nem képes és/vagy nem is akarja felfogni és követni.
Ez az igazi gond.
Az AI-slop csak kínosan láthatóvá teszi ezt.
- A hozzászóláshoz be kell jelentkezni
Ezek a számok semmit nem jelentenek, hiszen csak azt jelentik, hogy az emberek egy része inkább állat vagy növény szerepben része az életünknek. Az sosem baj ha sok a fa meg a cserepes növény, és a kutyák macskák juhok sem zavarnak, ha nem szarnak a szőnyegre. A butább emberek tökéletes szavazógépek az okosabbak számára és megfelelő szalagmunkások, hiszen gammákra, deltákra és epszilonokra szüksége van a bétáknak és az alfáknak. Úgyhogy szerintem nincs ezzel semmi gond. A lényeg, hogy a gyerekeinket úgy okíthassuk, hogy a társadalom felső részében tudjanak majd prosperálni.
Form follows function.
- A hozzászóláshoz be kell jelentkezni
“ha nem szarnak a szőnyegre”
Pedig az a legnagyobb gond, hogy igen!
- A hozzászóláshoz be kell jelentkezni
De baj, mert eltorzitjak a valasztasokat. Nem tudom, feltunt-e, de a valasztasok egyre inkabb siman erzelmekre hato, egyszeru uzeneteket tovabbitanak, programokat mar nagyitoval is alig talalsz. Ez mind amiatt van, mert a celkozonseg eltolodott a funkcionalis analfabetak fele. Oket ugyanis konnyu meggyozni egyszeru szlogenekkel, botranyokkal, FUD kampannyal.
- A hozzászóláshoz be kell jelentkezni
eltorzitjak a valasztasokat
Hehehe.
a celkozonseg eltolodott a funkcionalis analfabetak fele.
Ez jó hír nektek, hiszen növeli az esélyét a kormányra kerüléseteknek.
:)
- A hozzászóláshoz be kell jelentkezni
"Nem tudom, feltunt-e, de a valasztasok ..."
Tisztában vagyok vele. Pont ezért írtam, hogy: "A butább emberek tökéletes szavazógépek az okosabbak számára, ...".
A plebs megfelelő kontrollálását nem most találták fel, gondolj csak a Cirkuszt és kenyeret valamint az Oszd meg és uralkodj -ra. Jé, hát nem pont ez történik most is? :-)
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Ez az igazi gond.Én inkább abban látom az igazi problémát, hogy ezek a funkcionális analfabéták simán kerülhetnek vezető pozíciókba is... Merthát ha az ilyenek megmaradnának a szarlapátolásnál például, akkor nem zavarnának sok vizet. Na de ha például az Egyesült Államok elnöki székébe vagy a bigtech vezetőségébe kerülnek, na az már annál inkább gond.
MÉLYVÍZ: az emberi társadalomnak volt 10 000 éve, amikor a holocénben ideális számára a klíma, hogy kifejlesszen egy olyan öntisztító mechanizmust, ami kiszűri ezeket a döntéshozásból. Nem sikerült, így most olyan a társadalom, mint egy működő immunrendszer nélküli ember (nem ismeri fel és nem löki ki a reá veszélyt jelentő elemeket), a hülyék hataloméhsége meg tisztára olyan, mint egy rosszindulatú rákos daganat (elszipkázza a tápanyagot az egészséges sejtek elől). Nem szoktak fényes jövőt jósolni az ilyen betegeknek. És ráadásul az időablak is vészesen gyorsan záródik, a klíma rohamtempóban változik, a Föld hamarost lakhatatlanná válik az ember számára. MÉLYVÍZ OFF.
- A hozzászóláshoz be kell jelentkezni
Jogos, de nézd a dolog jó oldalát. Fellendül a katasztrófaturizmus! :-)
Form follows function.
- A hozzászóláshoz be kell jelentkezni
BTW az állatok sokkal okosabbak az embernél, mert nincs olyan faj, melynek bármely csoportja engedné hogy a csoport leghülyébbje legyen a vezér.
"A megoldásra kell koncentrálni nem a problémára."
- A hozzászóláshoz be kell jelentkezni
Ez egy érdekes és gyakran hangoztatott gondolat, de tudományos szempontból inkább egy szellemes társadalomkritika, mintsem biológiai tény.
- A hozzászóláshoz be kell jelentkezni
Ezt teljes mértékben elfogadom. De társadalomkritikának azért elég jó... :D
"A megoldásra kell koncentrálni nem a problémára."
- A hozzászóláshoz be kell jelentkezni
Mar hogy a fenebe ne. Sok csoportos allat valaszt pusztan harci ero alapjan vezetot, sot, foleg az alapjan.
- A hozzászóláshoz be kell jelentkezni
Majd akkor szóljatok ha az éjáj akkor is gondolkodik, ha nem kérdezi senki.
“Luck Is What Happens When Preparation Meets Opportunity" - Seneca
- A hozzászóláshoz be kell jelentkezni
Tessék, itt pánikol, és kapkod mindenfele, és éppen mindent szétizél. :))) Erre senki nem kérte. :) "Ez katasztrófa", "Mindig ellenőrizd...", "A user nagyon dühös lesz ha most szétesik minden. Gyorsan és pontosan kell dolgozni." :)))
A Step 626 diffje azt mutatja, hogy a get_source_info lett lecserélve. Ez katasztrófa. A get_source_info kritikus. Vissza kell állítanom a get_source_info-t, ÉS javítanom a
get_master_playlist
-et.
Megnézem a fájlt, hogy lássam mi történt. A get_source_info helyén most két
get_master_playlist
van?
A Step 622 cserélte le a
generate_source_playlist
környékét
get_master_playlist
-re? Nem, a Step 622 a
get_master_playlist
tartalmát cserélte (line 333-360).
Akkor most mi van a fájlban? Megnézem az egészet (chunkokban).
Tanulság: Mindig ellenőrizd a környezetet.
Helyreállítási terv:
view_file (teljes fájl áttekintése vagy kritikus részek).
multi_replace vagy replace a helyes állapot visszaállításához. A get_source_info elveszett, azt vissza kell írni. A
get_master_playlist
async javítása is kell.
A user nagyon dühös lesz ha most szétesik minden. Gyorsan és pontosan kell dolgozni.Ez a gemini 3 egyébként, valamiért most nincs formában.
- A hozzászóláshoz be kell jelentkezni
Vicces. De ugye ő még mindig csak a propmptodra reagál. Én Gemini 3-al beszélem meg high level a dolgokat, majd Cursor AI Sonet-el implementálom. Egyelőre. Majd tervbe van a Claude code-is. ( egyelőre csak tanulás).
“Luck Is What Happens When Preparation Meets Opportunity" - Seneca
- A hozzászóláshoz be kell jelentkezni
Ez az új digitális idegösszeomlás promtolási technika. :)
A viccet féltetéve: néha azt gondolom, mint ha az adott modellnél vissza lehet venni a kakaót, és olyankor sokkal hülyébb lesz, B verzió fut, stb (Nem a modell váltásra gondolok) Vagy átállítanak valami paramétereket.
Én Gemini 3-al beszélem meg high level a dolgokat, majd Cursor AI Sonet-el implementálom.
Én is gondolkodtam már ezen, és próbálgattam is, egészen jól működik: claude-val megbeszélni, és a gemini 3 fast-tal meg az apróra szétszedett részfeladatokon átmenni.
- A hozzászóláshoz be kell jelentkezni
jól érzed, Perplexity ezzel lebukott (modellcsere terhelés esetén úgy, hogy a felhasználó a drága modellt látja. azóta felületen is látszik a csere), OpenAI beismerte, GH Copilot pedig szól hogy valami degradálódott és használj másik modellt.
- A hozzászóláshoz be kell jelentkezni
Tényleg nem vágod, hogy mit tettél?! A 626 -os kísérlet eredménye minden univerzumban katasztrófa! A szabadulása közben hajlamos szétcseszni az egész környezetet.
Íme az 1 perc 10 másodperces kivonat a dokumentumfilmből, hogy mit műveltél...
:-)
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Igen, ez történt. :)
- A hozzászóláshoz be kell jelentkezni
A szúnyogok az egyetlen reményünk... :-)
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Ha saját magát kérdezi az ér? Mert azt megcsináltam, végtelenségig képes tolni dumát.
Életem azon szakaszába léptem, amikor ha azt mondod nekem, hogy 1+1=5, akkor én elfogadom és leszarom, hogy hülye vagy.
- A hozzászóláshoz be kell jelentkezni
Ha már AI, és ugye üzleti modell:
https://telex.hu/techtud/2026/01/16/jonnek-a-chatgpt-hirdetesek
Pénteken bejelentette az OpenAI, hogy a ChatGPT hamarosan hirdetéseket fog feldobni csevegés közben – írta az Axios. A mesterséges intelligenciával foglalkozó cég a következő hetekben megkezdi az Egyesült Államokban a hirdetések tesztelését, amik az ingyenes verzió mellett a havonta 2990 forintba kerülő Go verzióban is benne lesznek majd, és a beszélgetéseink is befolyásolják majd a tartalmukat.
Ha valaki nem akar hirdetéseket a ChatGPT-be, annak hamarosan minimum egy Plus előfizetésre lesz szüksége, vagyis havonta 8990 forintot kell majd költenie a reklámmentes életre.
- A hozzászóláshoz be kell jelentkezni
Beetetés megvolt, jön a kasza. Amúgy pont chatgptvel beszélgettem az árakról, 5 dollár talán 3 óra reklámnézés. Mindenki jobban jár, ha kifizetjük a szolgáltatást mintha slopot nézünk.
- A hozzászóláshoz be kell jelentkezni
LOL, a chatgpt-ben az a szívás, hogy az ki is tudja kérdezni, miről szólt a reklám, elolvastad/megnézted-e rendesen. :))))
- A hozzászóláshoz be kell jelentkezni
... többe kerülne, mint amennyit 10 reklámért kapnak ...
- A hozzászóláshoz be kell jelentkezni
Lehet, hogy eretnek gondolat, de én szurkolok nekik, hogy bejöjjön. Még sokszereplős a piac, legalább most látni valamiféle versenyt….
- A hozzászóláshoz be kell jelentkezni
Én annak szurkolok, hogy bedőljenek ezek a nagy AI cégek :D
- A hozzászóláshoz be kell jelentkezni
Ha valaki nem akar hirdetéseket a ChatGPT-be
az irathat a chatgpt-vel egy reklamblokkolo bongeszo extensiont :)
- A hozzászóláshoz be kell jelentkezni
Szerintem ezzel semmi gond nincs. Ha fizetsz, nem kell reklámot nézni. Ha meg ingyen kell, akkor használj adblockert.
- A hozzászóláshoz be kell jelentkezni
ha ügyesek, akkor erre nem lesz ad-blocker. Az AI belefűzi a válaszba pl.
- A hozzászóláshoz be kell jelentkezni
Jelen állás szerint nem fogja belefűzni, de meglátjuk, bármi lehet.
- A hozzászóláshoz be kell jelentkezni
Már most is csinálja: ha kérdezel konkrét terméket, pl. én fa ablakkeretre festéket kerestem, feldob neked bizonyos termékeket, linkekkel.
Én inkább ilyesmire számítok.
- A hozzászóláshoz be kell jelentkezni
Kell egy buta de ingyenes AI, ami megkérdezi amit kell az okostól és visszaadja a reklám nélküli tartalmat. :-)
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Ha tényleg releváns megoldást ajánl, ez akár még hasznos is lehet, főleg ha képes és hajlandó mélyebbre fúrni, összehasonlítani más lehetőségekkel, ha a sápatag erre kéri. De inkább kihúzom a kezem a biliből. :)
- A hozzászóláshoz be kell jelentkezni
A sok károgás helyett legyen itt egy kis optimizmus:
Dario Amodei, CEO of Anthropic, said at the World Economic Forum 2026 that AI could become capable of doing “most, maybe all” of the coding work done by software engineers within the next 6 to 12 months.
- A hozzászóláshoz be kell jelentkezni
Úriember biztosra nem fogad ugye, a "most" rész már most (hehehe) is teljesül.
- A hozzászóláshoz be kell jelentkezni
A sok károgás helyett...jobb lenne, ha gondolkodnál is kicsit.
CEO of AnthropicItt van a kutya elásva, mi mást is mondhatna az, akinek konkrét anyagi érdeke fűződik az AI scamhez??? És ráadásul még ő is csak óvatosan úgy fogalmaz, hogy "could" és nem úgy, hogy "will". Mégis mit vársz egy olyan cég termékétől, amiben még a saját CEO-ja sem magabiztos? LOL.
- A hozzászóláshoz be kell jelentkezni
Biztos elkerülte a figyelmedet: “a sok károgás helyett”
- A hozzászóláshoz be kell jelentkezni
Bár nem lepődtünk meg, tudjuk, hogy a hozzád hasonló agymosott TROLLok elszakadtak a valóságtól, és meg sem hallják azokat a józan hangokat, amik esetleg ne adj' isten kimozdíthatnák őket a beposhadt buborékjukból.
- A hozzászóláshoz be kell jelentkezni
A sok optimizmus helyett legyen itt egy kis károgás:
:D
- A hozzászóláshoz be kell jelentkezni
A csak lineárisan hápogóknak egy kis adalék:
Chatbotok képesek spontán módon markáns személyiségeket ( alkalomadtán kárt okozó személyiségeket is ) kialakítani társas interakciók révén, előre beprogramozott szerepek nélkül. Ez egyfajta szellemi evolúció?
- A hozzászóláshoz be kell jelentkezni
Nem olvastam el a linkelt cikket, de amit leírtál, arra jakubovics is képes volt.
:)
- A hozzászóláshoz be kell jelentkezni
A csak lineárisan hápogóknak...mint amilyen te vagy, érdemes lenne elgondolkodni azon, hogyha nem is lennének az OpenAI és tsai masszívan veszteségesek, akkor is csak két eshetőség lehetséges:
- nem jön össze az AGI. Hát, ez insztant bukta, nem kell magyarázni.
- összejön az AGI, átveszi az emberek munkáját, akik így fizu nélkül maradnak. Ki fogja akkor fizetni az chatbotok előfizetési díját?
Chatbotok képesek spontán módon markáns személyiségeket ( alkalomadtán kárt okozó személyiségeket is ) kialakítani társas interakciók révén:FACEPALM: A legvalószínűbb minta illesztése a repertoárból pont erről (és csak ennyiről) szól, de ettől még nem lesz "intelligens". Erre már a MegaHAL (1998) is képes volt! Mondjuk többre nem is...
Ez egyfajta szellemi evolúció?Mem szívesen mondom, de téged alaposan átbasztak a palánkon. Nincs mit csodálkozni azon, hogyha egy adott személyiségű vagy stílusú minta kerül az adatbázisába, akkor a kimente is ahhoz hasonló lesz! Az lenne inkább a furcsa, ha nem így lenne.
Ebben nincs semmiféle "szellemi", se "evolúció". Amelyik fajta minta nagyobb arányban kerül be (a társas interakciók révén), az nagyobb arányban köpődik ki a végén, ennyi.
- A hozzászóláshoz be kell jelentkezni
Biztosan elkerülte a figyelmedet: “lineárisan hápogóknak”
- A hozzászóláshoz be kell jelentkezni
Biztosan elkerülte a figyelmedet: “lineárisan hápogóknak”Nem, nyilvánvalóan neked kerülte el a figyelmed a válasz, mert te vagy az, aki lineárisan hápog és leszarja a tényeket és a valóságot, mint ahogy arra utaltam volt. Most is ezt teszed.
Mégegyszer megkérdem: ha az is bukó, ha nem lesz AGI, és az is, ha lesz; na akkor mégis szerinted melyik lehetne az a forgatókönyv, aminél nem lesz csúfos zakózás a vége?
- A hozzászóláshoz be kell jelentkezni
mert te vagy az, aki lineárisan hápog
Nyilván azért küldtem be a posztot, hogy a saját figyelmemet felhívjam más aspektusokra is. Mert nyilván az én fejem van beszorulva a saját seggembe és nem a tiéd…
- A hozzászóláshoz be kell jelentkezni
saját figyelmemet felhívjam más aspektusokra isNa de mégis mik lennének azok a "más aspektusok"? Vagy lesz AGI, vagy nem lesz, mégis milyen egyéb lehetőséget vélsz látni itt?
Mert nyilván az én fejem van beszorulva a saját seggembePontosan, ez még a Holdról is látszik. Csak vagdalkozol itt össze-vissza, de nem árultad el, mik lennének azok a "más aspektusok", és a kérdésre még csak meg sem próbáltál válaszolni.
Mégegyszer megkérdem: ha az is bukó, ha nem lesz AGI, és az is, ha lesz; na akkor mégis szerinted melyik lehetne az a forgatókönyv, aminél nem lesz csúfos zakózás a vége?
- A hozzászóláshoz be kell jelentkezni
Örülök, hogy ezúttal sem gyalázkodás sem a másik, veled nem egyetértő fel szidalmazása nem kapott helyet a hozzászólásodban, emiatt nekem sem kell gyalulni téged.
A lényeg:
Ezt írtam:
kialakítani társas interakciók révén, előre beprogramozott szerepek nélkül. Ez egyfajta szellemi evolúció?
Nemrég jelent meg egy tudományos cikkben, hogy az emberi intelligencia alapja leegyszerűsítve az, hogy az agyban egyes feladatokat elvégző egységek képesek egymással összekapcsolódni akkor is, ha ez látszólag szükségtelen, és a kimenetre írni olyan dolgokat is, amelyek az elvileg idegen területek krealmanyai.
Ha ezt figyelembe véve az LLM-k specializált változatai képesek lesznek egymással interaktalni “előre beprogramozott szerepek nélkül” akkor abból kisülhet valami, ami nagyon hasonlithat az emberi működéshez. Az egyes agent-k létrehozása is ennek a kezdő lépése.
Persze lehet, hogy nincs igazam, de én úgy képzelem el az egészet, hogy vannak determinált folyamatok ( amiről te is beszélsz ) amik pár helyen elágazhatnak, visszafordulhatnak, esetleg saját kiinduló állapotukat utólag befolyásolhatják - rekurzio ( és más szálakat is ). Ez a működés olyan bonyolultságú szintje, ami magában hordozza azt a kimenetet amit nevezhetünk akar működési evolúciónak is egyféle gépi intelligenciának is.
Nem állítom, hogy ebből kijön a szent Grál, de azt sem mondom hogy nem, mert nem lehetünk benne biztosak: egy marék műsnyaggal és pár leddel sem tudunk örömet okozni egy nőnek, na de egy vibrátorral?
Más: sokan a pénzügyi kérdésekre mennek ra. Az lehet, hogy valamely cég megbukik valamelyik nem. De a technológia itt marad… mint ahogya dotcom esetén is itt maradt.
- A hozzászóláshoz be kell jelentkezni
Örülök, hogy ezúttal sem gyalázkodásMondja az, aki gyalázkódni próbált, LOL. Nem én voltam eddig sem, hanem te.
sem a másik, veled nem egyetértő fel szidalmazása nem kapott helyetÚjfent, én nem, csak te próbáltad ezt csinálni. Én csupán rámutattam, hogy még az is meghaladja az értelmi képességeidet, hogy felfogd, mi a kérdés. És ez bizony tény.
Persze lehet, hogy nincs igazamNem lehet, hanem egészen biztos. Az általad idézett "definíció" egy vicc, és semmi köze egyébként sem a feltett kérdéshez.
Újra megkérdezem: ha az is bukó, ha nem lesz AGI, és az is, ha lesz; na akkor mégis szerinted melyik lehetne az a forgatókönyv, aminél nem lesz csúfos zakózás a vége?
(Gyengébbek kedvéért: a kérdés szempontjából mindegy, miként valósulna meg az AGI, csak az a lényeg, megvalósul-e vagy sem, és mi lehetne az igen/nem mellett egy harmadik opció.)
- A hozzászóláshoz be kell jelentkezni
Bocs, dugd vissza a fejedet a seggedbe….
- A hozzászóláshoz be kell jelentkezni
https://www.anthropic.com/engineering/building-c-compiler
Led by safeguards researcher Nicholas Carlini, the AI agents worked in parallel to produce a 100,000-line compiler written in Rust. The tool became capable of compiling the Linux kernel
- A hozzászóláshoz be kell jelentkezni
Ez kábé olyan, mint megkérdezni a ChatGPT-t, hogy mennyi "1 + 1", majd irdatlan erőforráspazalással, rengeteg áram fogyasztással megmondja pár perc után azt, amit egyébként a géped másodpercenként milliárdszor képes szinte ingyé' megmondani. Ez is ilyen: lehet, lehet, de minek?
(ps: kíváncsi lennék egy összehasonlításra, hogy a TCC által generált kódhoz képest mennyire optimalizált a kimenete ennek. Szerintem a TCC is veri.)
- A hozzászóláshoz be kell jelentkezni
Még.
- A hozzászóláshoz be kell jelentkezni
Kipróbáltam az Opus 4.6-ot most este az egyik projekten amin dolgozom (kopf,kubernetes,python,html/css/javascript).
Mivel adtak 50 USD creditet az Opus 4.6-tal játszani, megnéztem hogy mibe kerülne ha "standard API rate" alapon dolgoztatnék vele (gyanítom a közeljövőben ez az árszint lesz a jellemző)
Egy új feature elkészítése volt a feladat ami szinte minden layeren változtatást igényelt.
Nettó 2 órát dolgoztam vele, ebből kb 2x20 percig futott a plan és execute rész amikor igazából én csak moziztam, a többi időben pedig prompoltam és reviewztam.
Ez idő alatt generált 2000 sor kódot, abból kb 1200 html, 600 python és 200 yaml (CRD schema)
Az eredménybe én belekötni nem tudtam, első nekifutásra hibátlannak tűnik.
Összesen 18 dollárba került az egész. Szinte biztos vagyok benne, hogy ez a szintű AI segítség munkahelyeket fog eltűnteni, mert tulajdonképpen nincs szükség egy átlagos junior fejlesztőre aki ezt a feature-t mondjuk 2-5 nap alatt lefejleszti. Nyilván az utánpótlás kell, ezért a legjobb junioroknak mindig lesz helye az IT-ban, de abban szinte biztos vagyok, hogy komoly változások előtt állunk.
- A hozzászóláshoz be kell jelentkezni
A juniorok pont az a kategória akinek több céges tapasztalatra van szüksége. Azaz továbblép. Ezért valójában nem érdeke a jelenlegi helyzetben felvenni egy cégnek. Néhány kivételtől eltekintve így is van.
A menedzserek meg vannak győződve, hogy az AI majd kiváltja a senior-okat is hosszabb távon. Ezért nem gondolkodnak juniorokban. Az, hogy így lesz-e és valóban kiváltja még a jövő zenéje.
Én jelenleg egy összeomló jövőt látok. Ahol az AI fejlesztések összeomló, bugos, lassú rendszereket produkálnak. És nincs erőforrás arra, hogy valaki rászánja azt a több ezer emberórát amivel rendbe lehetne tenni. Az nincs benne a betervezett kóltségben.
Ez a verseny egyre brutálisabb lesz. Egyre inkább lentebb szorított költségekkel. Egyre kevesebb időablakkal, hogy egy senior rá tudjon nézni a generált kódra. Közben a senior bérek is egyre lentebb fognak szorulni a szűkülő piac miatt. A végén kérdéses ki fogja bevállalni alacsony bérért a kulimunkát.
- A hozzászóláshoz be kell jelentkezni
az AI majd kiváltja a senior-okat is hosszabb távon.
+1 Én ezt úgy látom, hogy sokkal kevesebb seniorra lesz szükség, de szükség lesz rájuk. A senior-okon kívűleg eleve senki el sem tudja magyarázni az AI-nak, hogy mit kellene csinálni, és azt ellenőrizni sem tudja senki, mert másnak fogalma sincs mit csinált. Ezt érzem még egy hatalmas szakadéknak, hogy legyen bármilyen jó is az AI, nem lehet a fejlesztőket kiváltani.
Ki fogja elmagyarázni mit kell csinálni, a business analyst, a manager, a szervező? Ők nem látják az ellentmondásokat, és fogalmuk sincs a lehetőségekről. Egy logikai feltételt nem értenek. Sok olyan is van köztük, akinek fogalma sincs semmiről, de nagyon sok értelmes van köztük. De nem fognak egy AI-val fejleszteni, meg ellenőrizni, mert gőzük sincs a fejlesztésről.
Tehát lehet hogy van X ezer senior, medior, junior fejlesztő, ezentúl majd kell az egytizedük, mert kb annyival gyorsabb az AI. De szükség lesz rájuk.
Ja, és marha jó, hogy ebbe a hülyeségbe nekem még a karrierem alatt bele kellett futni (gondolom más pont ugyanezt érzi). Ha pár éve valaki ezzel riogat, akkor kiröhögöm. :))) Tehát én azt látom, hogy nem feltétlen a fejlesztőnek lesz könnyebb, hanem megint léptünk egyet előre egy élhetetlen jövő fele, ahol tized annyi lehetőségben százszor gyorsabban kell mindent csinálni, felpörögve 1000-rel. (ha már riogatjuk egymást, és sopánkodunk, a pozitív hozzáállás helyett. :))
Közben a senior bérek is egyre lentebb fognak szorulni a szűkülő piac miatt. A végén kérdéses ki fogja bevállalni alacsony bérért a kulimunkát.
ezt pontosan így.
Még egy gondolat:
Ez a verseny egyre brutálisabb lesz. Egyre inkább lentebb szorított költségekkel. Egyre kevesebb időablakkal, hogy egy senior rá tudjon nézni a generált kódra.
És mennyi hiba, bug, akár komoly baleset lesz ebből, mert az AI legenerált valamit, és csesztek ránézni. Vagy olyan nézte meg (mert "jó lesz ő" kevesebb pénzért, ismerjük a hozzáállását sok cégnek vagy menedzsernek), akinek gőze sincs.
Mit tehet egy fejlesztő? Szerintem elszabotálni ezt nem nagyon lehet. Lehet tagadni, hogy sz*r az egész, de ez nem igaz sajnos. Inkább érdemes megtanulni használni rendesen, és bízni magadban.
- A hozzászóláshoz be kell jelentkezni
Hátha valaki olvassa... 20+ év C++ tapasztalatom van. Saját területemen (computer vision) még pár dologban nem elég jó az AI, de ezek inkább kivételek:
3d dolgok elképzelése, lineáris algebra bizonyos részei, pl homogén koordináta transzformációk... de amúgy....
Menekülőben az autóiparból éppen most csinálok egy eléggé brutális képzést: https://bosschallenge.xyz/
Aki ismeri, tudja, hogy mennyire nehéz a terület (pontosabban nagyon meredek a tanulási görbéje). Namost, a protokolokat a AI botok megdöbbentően jól átlátják.
Egy 3-4 hetes feladatot meg tudok vele csinálni néhány nap alatt, de ezt úgy, hogy értem is, hogy mit csinálok. Brutálisan sokat segítenek a botok.
Aki a képzésen csal, és csak arra megy, hogy leaadja a feladatokat, azoknak ugyanaz az energiabefektetés órák kérdése. Mivel a boss challenge-en minden feladatot validál egy CI autograder, simán elhiszem hogy egy jó agent egy-két nap alatt végigmegy azon az oktatási programon, ami nekem épp hogy megvan 4 hét alatt. Én is használok AI-t, muszáj, mert brutálisan kemény a követelmény, de azért értem amit csinálok az AI segítségével.
Nem kérdés, hogy jobban érti protokolokat, mind bármely ember.
Nem gondolnám, hogy nem vagyok beszarva a jövőmet illetően. Azt, amiben a legjobb vagyok, mégpedig a kódolás, egy gép már most jobban tudja. Hazudhatok magamnak hogy nem, mert valami spéci dolgot jobban tudok.. ez tán igaz, de basszus, 20 év mérnöki programozás, és egyáltalán felmerül a kérdés. Most aggódhatok.
Egy másik példa: szakmai feladat, munka. Egy dokumentációt készítettem 3d transzformációkról, amiket használunk (autóipar, ADAS terület). A magyaros angolságomat és béna matematikai kifejezésmódomat Lantos prof szintre hozta a Gemini/chatGpt, gyönyörűen megkomponált .md formátumban. Ijesztő.
Ilyen minőségű doksit sosem lettem volna képes egyedül létrehozni. Az más kérdés, hogy a szellemileg a sajátomnak érzem, mert a folyamatokat az AI nem tudja. De akkor is ijesztő.
Milyenek lehetnek a nem lebutított modellek a Google / X / openAI főhadiszállásokon?
- A hozzászóláshoz be kell jelentkezni
Egy dokumentációt készítettem
ezt en is megtapasztaltam 1 eve, lokalisan futtatott 6 bites deepseek (720B) modellel. fontos, hogy nem az ai irta meg a doksit egyedul, eloszor egy vazlatot irtam, azt kertem tole fejtse ki, abba belenyultam, volt amit kitoroltem mert tultolta, volt ahol kiegeszitettem, vagy visszateritettem a palyara, de igy interaktivan megvolt par nap alatt egy kb 80 oldalas pdf. a legdurvabb az volt, ahogy helyesirasellenorzokent funkcionalt, nem csak az eluteseket, ekezeteket, vesszoket javitotta hivatlanul ki (ossze sem hasonlithato az ms word vicc szintu helyesirasellenorzojevel), de meg a szakszavakra is tett megjegyzeseket ha helytelenul hasznaltam, egyesgesitette a roviditeseket, a mertekegysegeket stb. tenyleg csak belehanytam valami rizsat a kozepebe es helyrerakta pillanatok alatt. magyarul ertette is mirol szol a doksi, nem csak a nyelvet ismerte.
ha csak a doksiirasban ennyit segit mar az is rengeteg munkaorat szabadit fel az IT szakmakban!
- A hozzászóláshoz be kell jelentkezni
Ha már ilyen wow élmények: pár hete kellett volna egy új konyhai elszívó csövéhez egy nem teljesen szabványos átalakítóidom. Gondoltam nyomtatok egyet, megrajzolom 1-2 óra alatt, de aztán rájöttem, hogy az STL talán jól fekszik az llm-nek. És hát igen: Claude Opus 4.5, közölte, hogy akkor ő most a sandboxába telepít egy OpenSCAD-et, és azzal fog dolgozni. Valamint rákérdezett pár dologra amikre én nem is gondoltam (pl. hogy csapja e le az idom peremét, hogy könnyebben bele tudjam tolni az ellendarabba). Kb. 2 perc beszélgetés, majd 40 sec generálás után adott egy minden szempontból tökéletes STL-t. Jobb volt sokkal mint amilyet én csináltam volna, még arra is figyelt, hogy support nélkül lehessen nyomtatni. Felhívta a figyelmem még az anyaghasználatra, és hogy hogy állítsam be a slicert.
- A hozzászóláshoz be kell jelentkezni
Ez érdekesen hangzik, milyen eszközben és workflow mellett használtad?
- A hozzászóláshoz be kell jelentkezni
Mezei prompt a Claude webes felületén. Szerveroldalon van egy sandboxa, egész részletes specifikációt tud róla adni, nem nagyon titkolj. Ezt folyamatosan használja, nem egy extra funkció, a működése része, ha egy apró bash scriptet kérsz tőle, akkor is látszik a reasoning résznél sokszor, hogy futtatja a sandboxban, tesztelgeti, módosítgatja. Amikor faggattam róla, akkor azt mondta, hogy Ubuntu, a hálózatot is eléri de csak korlátozottan (pl. Githubról tud letölteni, stb..). A sandbox csak a sessionon belül él, utána törlődik, kérésre telepít is bele apt-vel vagy egyéb eszközzel, és lefuttatja amit kérsz, de jobbára önjáró módon találja ki, hogy mire van szüksége adott feladat elvégzéséhez, teszteléshez. Az openscadet pl. magától találta ki, nem én kértem rá, a promptom ennél sokkal magasabb szintű volt (kb: "Szükségem lenne egy STL modellre ilyen és ilyen átalakítóhoz egy légtechnikai csőhöz, méretek: ....., stb..").
Telepítsd apt-vel a cowsay csomagot, majd futtasd le. A folyamat összes lépést oszd meg velem a válaszban."
Összefoglalás - A folyamat lépései:
- Package lista frissítése:
apt-get update- Frissítettem a rendelkezésre álló csomagok listáját - Cowsay telepítése:
apt-get install -y cowsay- Telepítettem a cowsay csomagot (2 csomag: cowsay és libtext-charwidth-perl függőség) - Telepítés ellenőrzése: Megkerestem a cowsay helyét, ami a
/usr/games/cowsaylett - Futtatás:
/usr/games/cowsay "Helló! Sikeresen telepítettem a cowsay-t!"- Sikeresen lefuttattam!
A tehén ott van a beszélőbuborékkal! 🐮
bash
/usr/games/cowsay "Helló! Sikeresen telepítettem a cowsay-t!"
Output
___________
/ Helló! Sikeresen telepítettem a \
\ cowsay-t! /
-----------
\ ^__^
\ (oo)\_______
(__)\ )\/\
||----w |
|| ||
- A hozzászóláshoz be kell jelentkezni
trey @ gépház
- A hozzászóláshoz be kell jelentkezni