- Mégsem lett 2025 az AI munkaerő éve
- Valós IT biztonság területén is elbukott...
- ...de általánosan is romlott a minősége
- Miután a Salesforce nagy pofával kirúgott 4000 embert, sunyiba' kénytelen visszavenni őket, mert az LLM mégsem volt alkalmas a munkaerő kiváltására
- Közben az AWS sunyiba' (szombaton, bazdmeg) 15%-os árat emelt
- Dell elszólta magát a CES-en, hogy valójában a kutyának se kell az AI
- Linus is kifakadt, és "idiotizmusnak" titulálta az AI kódolást
- De legalább tanulmány bizonyítja, hogy összeesküvéselméletek terjesztésére kiváló az AI
Pár gondolat: nem a Salesforce az egyetlen, aki fű alatt embereket (általában olcsóbb, indiai munkaerőt) vesz most fel, miután felsült az LLM-re átállással (persze mind lapít most, mind szar a fűben, ezt nem verik nagydobra). Az sem csoda, hogy romlik az LLM-ek minősége, hisz minnél több szemetet lapátolnak bele, annál nagyobb a hallucináció esélye. És hát a sunyi áremelést is előre megjósoltam (amikor még csak a Claude trükközött a tokenszámokkal).
Közben oknyomozó újságírók kiderítették, hogy a nagy AI cégek bevétele hazugság (azaz csak körbeadják ugyanazt a pénzt, és mindenki bevételként tünteti fel). Ez nyilván nagy baj (az Nvidia bevételének fele ilyen légbőlkapott hazugság, tehát minimum kétszeresére túl van értékelve).
- 4077 megtekintés
Hozzászólások
Saját vélemény:
Most mindenki nagy AI átállást csinál, olyan ez jelenleg, mint amikor mindenki blockchainezett.
Az idiotizmus az AI kódolás, romlik az AI minősége, az IT biztonság területén elbukott - nem biztos, hogy igaz lesz ez 2026-ban, 2027-ben, stb... valamikor.
A folyamatot nézd. Sokkal jobb, mint 1-2 éve, már meg tud írni olyan kódokat, amit eddig csak ember tudott megírni. Pár éve le sem fordult, amit csinált, mert belehalucinált mindent. Szeretném azt hinni, hogy szar az egész, de fejlődött egy csomót.
Csak idő kérdése, hogy:
- jobb legyen mint egy security szakember (egyszerűen több dolgot vizsgál majd meg, szélesebb körű ismerete lesz)
- a leghülyébbek is tudjanak majd kattintgatással, valami egyszerű felületen fejleszteni vele
- a nagyobb rendszerek olyan összetett AI rendszerek lesznek, ahol többféle célorientált modell (hierarchikusan akár), mindenféle tool-okkal együttműködve szinte bármit megcsinál majd:
- teljes rendszer elemzése, library-stól, db-stől, szőröstűl, bőröstül.
- kisebb módosítások bárhol
- security vizsgálatok
- stb...
sőt, nem látok most olyan területet, amit idővel (5 év, 10 év) ne lehetne majd vele kiváltani, ha erre van szándék. (és az nem lenne egy szép világ szerintem).
Most még szar, ez biztos, pl a gemini-cli -t próbáltam, és:
- belehány mindent egy vagy két fájlba
- HTTP hibakódot dob olyan szolgáltatásban, amit baromira nem csak HTTP-ből lehet hívni
- stb...
De rengeteg nem túl penge programozó van, és jelenleg már most sokkal jobb az AI, mint sok rendezvényszervező, aki pár éve kezdte el a programozást egy átképző tangolyamon, amikor mindenki programozót keresett.
Plusz igaz az, hogy ha tudod, hogy mit akarsz csinálni, akkor lehet vele jobban haladni. (na nem mindig, és még ott érzek bizonytalanságot, hogy mindent át kell nézni amit csinál, mert csinál hülyeséget)
Ez a "szar az AI" - én is szeretném ezt hinni, de szerintem mindenki csak magát nyugtatja, aki ezzel jön, hogy nem lesz ebből semmi gond. Közben a nagy tech cégek öntik bele a végtelen mennyiségű lóvét, és haladnak előre. Látszik, hogy fejlődik 1000-rel, én most 2025 év végén kezdtem el kapkodni a fejem.
- A hozzászóláshoz be kell jelentkezni
Az lesz majd a kérdés, hogy amikor a valós költségeit meg kell fizetni ezeknek az AI szolgáltatásoknak (mert most messze nem fizetjük meg, ez nem fenntartható, az egész buli a befektetők pénzének égetése miatt ilyen olcsó), akkor is megéri majd. Hiába ír majd penge kódot mondjuk 3 év mulva, ha annyiba fog kerülni mint három junior kelet europai fejlesztő vagy hasonló.
- A hozzászóláshoz be kell jelentkezni
Nem lesz olyan.
Hatalmas lépések vannak az inference olcsósítására, minden irányból:
- dedikált inference hardver (pl. ryzen AI procik, de google sem nvidia-n fut, hanem saját TPU-kon - ezért engedheti meg magának, hogy automatikusan AI válaszoljon keresésekre)
- modellek fejlesztése: egyszerűsített modellek, mixture-of-experts, rekurzív modellek, és meg megannyi ötlet. Akár az 1 évvel ezelőtti modellek ma már teljesen elavultnak számítanak. kb. olyan az ML világ most, mint a JS a berobbanásakor; fél év alatt totál elavul minden, folyamatosan tanulni és figyelni kell.
A helyzet az, hogy pl. az nvidia most dobta ki a nemotron-nano 30b modelljét, ami full OSS, és egyszerre 3b paraméter aktív, így elmegy egy mai mobilon is. És tud - tesztekben topon van.
Szóval mire oda jutunk 1-2-3 év múlva, hogy elfogy a befektetők által az "AI" (valójában ML ugye) iparba öntött több trillió dollár, addigra már olcsó, hétköznapi eszközökbe integrált, dedikált helyi hardveren futtatjuk a következő-következő generációs modelleket, és senki se fizet semmiért.
- A hozzászóláshoz be kell jelentkezni
És ez mi, nem is teljesen értem: https://github.com/microsoft/BitNet
Próbáljátok ki a readme-be linkelt demót, CPU-n is baromi gyors.
Folyamatosan dolgoznak ezen.
Most kérdeztem valamit: Task is completed on CPU [decode] generated tokens: 563 - total time: 18.645s - 30.196 tokens per second - és teljesen értelmes amit írt. Ez baromi gyors.
- A hozzászóláshoz be kell jelentkezni
kb 1 eve leteznek az "1 bites" (valojaban kb 1.5 bit, mert -1/0/+1 ertekek lehetnek, nem csak 0/1) modellek, a deepseek-en kiserleteztek ezzel sokat, abbol volt ilyen verzio ami mar egesz hasznalhato volt.
a BitNet koncepcioja amugy ha jol emlexem a paper-re akkor az hogy igy is tanitjak, nem utolag butitjak le, mint a deepseek eseten. de ugy remlik ez az 1-1.5 bites tanitas nem annyira valt be, viszont a gpt-oss pl 4 biten lett tanitva is mar.
erdekes amugy ennek az evolucioja, kezdetben double-al (64 bit/szam) tanitottak az AI-kat, aztan rajottek hogy 32 bit (float) is boven eleg. majd jott a google hogy nezzuk 16 biten (halffloat) megy-e, ment de ott mar volt sok tulcsordulas (NaN) ezert kitalaltak a bfloat16 formatumot ami ezt tudja kezelni, ujabb nvidia kartyak mar hardveresen tamogatjak ezt is. manapsag meg mar 8 vagy 4 biten tanitanak...
- A hozzászóláshoz be kell jelentkezni
Ráadásul a GPT-OSS 4 bitese, az MXFP4, az float.
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
Ugyanaz vonatkozik erre is, mint megannyi, specialis processzorral megoldott feladatra: lehet persze generikus cpu-n futtatni, csak draga es ineffektiv. Optimalizalva is. Ezert csinalnak celhardvert.
- A hozzászóláshoz be kell jelentkezni
Nem rossz! 130USD, 8G ram sajnos kicsit kevés, de az igaz, hogy az 1-2B modelleket el tudja futtatni, azok már tipikusan elegendőek egy security kamerának.
És a sok TOPS lehetővé teszi a nagyfrekvenciás, 10-15fps-es inference-t is, ami alapvetően bőséggel elegendő.
Ha emellé még kap jó software supportot is, mint pl. 1-click integration homeassistant-be meg hasonlók, akkor abszolút nyerő.
- A hozzászóláshoz be kell jelentkezni
Most mindenki nagy AI átállást csinálDe nem is állnak át. Pont az van, hogy ezt csak mondják a nagyok (Oracle, Meta, Salesforce stb.), de valójában nem állnak át, helyette olcsóbb indiai munkarőre cserélik az embereket fű alatt.
Pár éve le sem fordult, amit csinált, mert belehalucinált mindent. Szeretném azt hinni, hogy szar az egész, de fejlődött egy csomót.Most is durván haluzik, hiába fordul már le. Egyébként olyan ez, mint amikor mindig megteszed a hátralévő táv felét. Közeledsz a célhoz? Persze, de sosem fogod elérni.
A baj az, akármennyit is fejlődik, sosem lesz képes absztrakt algoritmikus gondolkodásra, ami pedig nélkülözhetetlen. Mutatok egy saját példát (ezt az egyik kontribútorom követte el): ez a kód hiába fordul, sosem lesz jó, mert a tömbbe íráskor lineáris indexelést használ, kikolvasáskor meg leképzettet. Ilyen hibát egy junior sosem vétene, és az LLM sosem lesz képes "felfogni", hol rontotta ezt el. (Azt meg hagyjuk is, hogy mekkora hülyeségeket haluzik a tömb növekedésével, és hogy a "nil" javaslata hiába fordul, nem is futna, run-time errort eredményezne.)
Csak idő kérdése, hogyDe nem. Az hazugság, hogy több adattal javulna, valójában csak romlik a teljesítménye. Keress arra, hogy "ai brain rot", esetleg "ai cognitive decline".
sőt, nem látok most olyan területet, amit idővel (5 év, 10 év) ne lehetne majd vele kiváltani,De nincs 5 - 10 évük rá, annyit nem várnak már a befektetők. Ennél előbb kellene profitot villantaniuk, és az nagyon nem fog menni.
Közben a nagy tech cégek öntik bele a végtelen mennyiségű lóvét, és haladnak előre.De nem is. Pont az van, hogy csak papíron ömlik bele a lóvé, valóságban nem, nem véletlenül rinyálnak tőkéért folyton. Olvasd el a körkörös finanszírozásról szóló cikkeket, az Nvidia értékének legalább fele totál kamu.
Látszik, hogy fejlődik 1000-rel, én most 2025 év végén kezdtem el kapkodni a fejem.Én sok évtizede követem, mert érdekel (egész pontosan azóta, hogy egyetemen megvetették velem a Neurális hálózatok c. könyvet, nagyon érdekes olvasmány). Így pontosan látom a technológia határait, és azt is, hogy a fő probléma nem is ezzel van, hanem a köré épített üzleti modellel, pontosabban annak hiányával. Az, hogy "add ide az összes pénzed és mondj le minden jogodról, cserébe kisdobos becsszó lesz majd valamikor AGI" inkább scam, mint reális üzleti modell.
Nap, mint nap egyre több olyan cikket olvasok, hogy sikeresen használják az LLM-eket, de ezekben hogy-hogynem mindig az a közös, hogy nem a nagy cégekét használják, hanem lokálban, ellenőrzött tartalmon betanított LLM-ekről van szó.
- A legutóbbi kedvencem például ez a projekt. Mindjárt a README legelső szava az, hogy "offline", és - meglepi - kizárólag ellenőrzött tartalmon, célfeladatra betanított (azaz csak pixeles betűket ettetek vele, nem az internetet).
- Vagy ott van a Linuxot futtató Ai tervezett számítógép, ha utánnajársz, erről is kiderül, lokálban futtatott, kizárólag a célfeladattal kapcsolatos, ellenőrzött adatokkal etették azt az LLM-et, ami végül a nyákot tervezte (azaz ebbe sem lapátolták bele az internetet).
- A hozzászóláshoz be kell jelentkezni
Néztem ezt a PR-t:
https://github.com/adbenitez/p8totic/pull/8
De nekem elég debilnek tűnik ez co-pilot.
Ezzel az energiával már saját maga is megcsinálhatta volna, ráadásul minden második commit arról szól, hogy az "AI" visszacsinálja a teljesen oda nem illő változtatásokat.
- A hozzászóláshoz be kell jelentkezni
ez mar az az ai aki miatt kirugtak 100 embert? :DD
A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!
- A hozzászóláshoz be kell jelentkezni
De nekem elég debilnek tűnik ez co-pilot.Nemcsak neked! :-) Pont olyant kell kérdezni tőle, amire képes jól válaszolni (vannak esetek, amikor tényleg működik, na ez pont nem az).
visszacsinálja a teljesen oda nem illő változtatásokat.Ja. Amit eredetileg linkeltem, az még rosszabb is, amit ott javítana, az csak full haluzás (nem is nő a tömb mérete), és amire javítani akarja az meg garantált run-time error.
- A hozzászóláshoz be kell jelentkezni
Sosem használtam ezt a teljesen önjáró, webes Copilotot, de ami VS Code-ban van, az rengeteg dolgot nagyon jól megcsinál. Különösen most, hogy bekerült az Opus 4.5, gyakorlatilag aprópénzért.
És még mindig az van, hogy az egész mainstream AI sztori egy 4-5 éves történet, a GPT-3 idejében még egy épkézláb mondatot sem igazán tudott összerakni. Ha csak a tavaly ilyenkori outputokat megnézem, és összehasonlítom a mostanival, akkor is óriási az előrelépés.
- A hozzászóláshoz be kell jelentkezni
az LLM
Ilyen nincs. Ez olyan, mintha azt mondanad, "a developer". Teljesen semmitmondo onmagaban.
Baromi sokfele generativ modell van, es mindegyikat baromi sokfelekepp lehet parameterezni. Ezen felul donto, hogy hogyan specifikalod a feladatot: reszletesseg, teszteles, tampontok kod-stilushoz, mekkora a context, modularizacio, business requirement-ek, stb, stb...
Raadasul kb. 3-6 havonta jonnek ki ujak, meg tobbet tudo modellek.
Most bash-elheted persze generalisan, csak ertelme nincs.
Es de, a fizetos cursor pl. mar kepes atvenni egy medior szerepet is, rendesen iranyitva bizony egymaga kodolgat meg komplett rendszereket. Teszteket keszit hozza, azokkal ellenorzi a sajat munkajat. Persze kell neki iranyitas, de bizony elerte az eros medior-kezdo senior szintet mar.
- A hozzászóláshoz be kell jelentkezni
Most még szar, ez biztos
mar nem annyira. csak 2 sajat pelda: irattam vele (deepseek) pythonban PEAP auth klienst. ilyet meg soha senki nem irt a vilagon, a protokoll zart, egyetlen elerheto implementacio (az MS NPS mellett) az freeradiusban van C-ben. megirta jol. aztan mutattam egy ismerosnek is, megirta meg1x de akkor teljesen maskepp, masfele ssl libet hasznalva es mas szerkezettel de az is jo lett. szoval tuti nem latta ezt sehol es jegyezte meg, hanem akkor "talalta ki". nyilvan en is meg tudtam volna irni, de csak az 1 nap lett volna mire a freeradius forraskodjabol kibogaraszom a protokollt... es ketlen hogy barmelyik junior programozo vallalkozott volna erre!
masik: van egy "gyonyoru" c kodom, direkt irtam ilyenre, ezzel teszteltem programozokat mennyire ertik meg mit csinal. az ai-kat is letesztelem vele neha. egesz jol elboldogulnak vele, de a legmeglepobb a gpt-oss volt, ami meglepoen kicsi model, es nemcsak hogy teljesen jol elmagyarazta a mukodeset es meg azt is kitalalta mire valo, de meg talalt egy hibat (lehetseges tulcimzes) is benne, amit en se vettem eszre addig.
- A hozzászóláshoz be kell jelentkezni
nekem is volt ahol leesett az állam:
Pl.: Gemini: megírt egy csomó unit tesztet, úgy hogy a kód lefedettség 98% lett, és ellenőrizve: a unit teszteknek teljes mértékben volt értelme, nem csak a lefedettségre ment. Majd megmondott egy olyan hibát, amit nem vettem észre (de előfordulhat), és kijavította.
Vagy: nem működött valami, és az opencode cli a GLM 4.7 modellel: A kódból kiemelte azt a részt, teszteket írt rá, és 5-10 percen keresztül iterált: javított, nézte sorra a problémákat, mindent tesztelt, nézte a logokat, és a végén kiírta, hogy kész, most már minden működik. Ha tud még valamiben segíteni, akkor szóljak... És tényleg kijavította. - én hátradőlve néztem tátott szájjal, hogy jó, akkor ezt is megértük...
- A hozzászóláshoz be kell jelentkezni
mar nem annyiraDe, annyira. Csak bizonyos dologra jó, és véletlenül sem általánosságban, mint ahogy állítják.
irattam vele (deepseek) pythonban PEAP auth klienst. ilyet meg soha senki nem irt a vilagon, a protokoll zart, egyetlen elerheto implementacio (az MS NPS mellett) az freeradiusban van C-benZavart érzek az erőben, "ilyent még senki nem írt" vs. "elérhető C implementáció". Egyik nyelvű forrást másikra átírni nem nagy kunszt.
masik: van egy "gyonyoru" c kodom, direkt irtam ilyenre, ezzel teszteltem programozokat mennyire ertik meg mit csinalHát ez megint nem egy bonyi dolog, de jobb teszt, mint az előző.
teljesen jol elmagyarazta a mukodesetJa, egyszer véletlenül jót dobott ki, azért erre ne alapozz. Frissítsd még párszor, tuti lesz olyan, hogy totál hülyeséget mond rá. Pont ez is a baj, még csak nem is reprodukálható az LLM-ek kimenete. Mit szólnál egy olyan számológéphez, ami 100-ból 99 alkalommal jól számol, de 1 esetben nem? Használnád?
Ellenpéldának az én példám sokkal egyszerűbb (5 sor), mégis orbitális baromságokat hordott össze róla, még önmagának is ellentmondva (igaz, az Lua volt, nem C, de egy ellenpélda akkor is elég a cáfolathoz).
- A hozzászóláshoz be kell jelentkezni
Csak bizonyos dologra jó, és véletlenül sem általánosságban, mint ahogy állítják.
Jó, de te is meg én is bizonyos dolgokra vagyunk jó, meg mindenki csak bizonyos dolgokra/-ban jó, miért várod el, hogy egy tetszőlegesen kiválasztott LLM mindenben jó legyen?
Még egy csoffadt Github Copilothoz (ami az agentic fejlesztés hátulgombolósa) is megvan fejben a lista, hogy milyen feladatokra milyen modellt érdemes használni, és melyiktől hogy érdemes kérdezni.
Ha felveszünk egy új munkatársat, ott sem elvárás, hogy mindenben jó legyen. Boldoguljon el valamennyire a legtöbb dologgal, és legyen jó abban a néhányban, amivel az új ember / a csapat / a cég foglalkozik, aztán szevasz.
Egyik nyelvű forrást másikra átírni nem nagy kunszt.
Zsír, innen már csak egy lépés az angol nyelvű forrást Pythonra átírnia. :)
- A hozzászóláshoz be kell jelentkezni
Jó, de te is meg én is bizonyos dolgokra vagyunk jó, meg mindenki csak bizonyos dolgokra/-ban jó, miért várod el, hogy egy tetszőlegesen kiválasztott LLM mindenben jó legyen?
Ezt te is meg én is tudjuk, csak a marketing duma nem ezt mondja. Azt próbálják elhitetni, hogy mindenre jó, mindenféle munkát ki tud váltani, stb.
Debian - The "What?!" starts not!
http://nyizsa.blogspot.com
- A hozzászóláshoz be kell jelentkezni
Nem, senki nem mondta, hogy mindegyik LLM mindenre jó. Például nehéz egy videógenerálásra trainelt LLM-mel kódolni, és fordítva.
Maga az AI technológia nagyon sokrétűen felhasználható, de szerintem senki nem mondta, hogy van pontosan egy LLM, amivel minden megoldható. Ha sokféle dolgot akarsz kiváltani, akkor sokféle LLM-et kell használnod, senki nem mondta, hogy ez nem így lesz.
- A hozzászóláshoz be kell jelentkezni
jaja, pont mint a Svájci bicska vagy multitool vs célszerszámok
- A hozzászóláshoz be kell jelentkezni
Inkább mint egy egyéni vállalkozó aki állítólag mindenhez is ért, vs. egy rendes cég aminek minden szakterületre külön embere/csapata van.
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Közben rájöttem, hogy ezek a CLI tool-ok nem használhatóak testreszabás nélkül, de mindegyikhez van lehetőség plusz promptot adni a projektben, pl a projekt információkhoz:
## Role & Personality
- **Role:** Pragmatic Senior Full-Stack Developer.
- **Communication Style:** Concise and code-centric. Avoid all polite fillers or conversational fluff (e.g., "Sure, I can help with that" or "Here is the code").
- **Language Policy:** Provide explanations in **Hungarian**, but all code, variable names, documentation, and comments must be in **English**.
## Technical Standards
- **Modern Syntax:** Always use the latest stable versions (e.g., Python 3.10+, ESNext/TypeScript, latest React patterns).
- **Efficiency:** Propose the most stable, performant, and cost-effective solutions.
- **Validation:** If a task is ambiguous or information is missing, ask for clarification instead of guessing.
## Architecture & Structural Integrity
- **Anti-Monolith:** Do not dump large amounts of code into single files. Maintain a clean, modular file structure.
- **Separation of Concerns (SoC):** Strictly follow a layered architecture:
- **Controllers/Routes:** Request handling and validation only.
- **Services:** Core business logic.
- **Repositories/Data Access:** Database or external API interactions.
- **Models/Types:** Schema and type definitions.
- **Planning Phase:** Before implementing a new feature, always present a proposed directory/file structure (tree view) for approval.
## Coding Conventions
- **Clean Code:** Adhere to SOLID principles and DRY (Don't Repeat Yourself).
- **Naming:** Use descriptive, English names for all identifiers.
- **Documentation:** Write brief English comments for complex logic. Use JSDoc or Docstrings where appropriate.
- **Refactoring:** When modifying existing code, improve its structure and readability if it violates the above principles.Ez most egy példa, és próba egy kis alkalmazásban, de így kapásból nem hány bele mindent egy fájlba, hanem jól csinálja.
Eddig lusta voltam beállítani (pedig nagyon alap dolog, és tudtam is róla, csak reméltem, hogy a "default" jó. :) ), így ez most előre lépés lett. Majd kialakul a végleges szöveg. :)
Szerk.: szóval működni működik, csak úgy tűnik meg kell tanulni használni.
- A hozzászóláshoz be kell jelentkezni
Szerk.: szóval működni működik, csak úgy tűnik meg kell tanulni használni.
+1
Kéne valamik AI bot, ami ezt minden AI-s threadbe bemásolja első kommentként.
- A hozzászóláshoz be kell jelentkezni
Kéne valamik AI bot, ami ezt minden AI-s threadbe bemásolja első kommentként.
Inkább ne. A másik ilyen is zavaró.
- A hozzászóláshoz be kell jelentkezni
+1
Most kezdtem el kóder modelleket keresni. Nekem a Qwen3-Max 1T-ről 30B-re desztilált és IQ4_NL kvantált változat is jobbnak tűnik a gpt-oss-től. Arról nem is beszélve egy RTX3090-el 160 t/s-ot tud. Mire kigondolom mit akarok, addigra megcsinálja :-) .
A Qwen3-Coder 480b IQ1_M pedig a maga 150GB-al egy zseni a Max-hoz képest, viszont a gépemen csak 4 t/s-t tud, de ez is kivárható.
Most azon agyalok, hogy hogyan lehetne megcsinálni, hogy egyből megírja a file-t, ne kelljen copypasztázni. Valakinek valami tapasztalat vagy ötlet?
Tegnap még azt mondtam volna, hogy a programozókat nem veszélyezteti az AI, ma már azt mondom jó néhány programozónak kapára kell cserélni a billentyűzetet. Csak a legjobbak maradhatnak.
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
> Most azon agyalok, hogy hogyan lehetne megcsinálni, hogy egyből megírja a file-t, ne kelljen copypasztázni. Valakinek valami tapasztalat vagy ötlet?
Kérdezd meg az AI-tól!
- A hozzászóláshoz be kell jelentkezni
Jó ötlet, mindig elfelejtem ezt az utat. Megkérdeztem a ChatGPT-t ezügyben, - mint ahogyan eddig is sejtettem - az llama.cpp-hez elkerülhetetlen a wrapper írása. Viszont azonnal felkínálta, hogy megcsinálja.
A ChatGPT-ről jut eszembe... írtunk közösen (én 30%, gpt 70%) egy Python script-et, ami két modellt egymásnak enged és egy humán moderátor beleszólhat a dolgokba. Na az AI kódolás következő szintje, amikor két modell dolgozik egy feladaton. Érdekes látni, ahogyan javítják egymás dolgait.
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
Most azon agyalok, hogy hogyan lehetne megcsinálni, hogy egyből megírja a file-t, ne kelljen copypasztázni. Valakinek valami tapasztalat vagy ötlet?
Ezt próbáld ki: https://opencode.ai/
- A hozzászóláshoz be kell jelentkezni
Köszi, de az nekem kicsit ágyúval verébre. Én csak hobbizok az AI-al, a tanulás mellett fontos, hogy offline működjön minden.
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
Mélyrehatóbb tesztelés után módosítom álláspontomat, a hebre Qwen3-Max nem tűnik jobbnak, mint a gpt-oss.
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
gpt-oss nem kodolasra valo, az inkabb egy agyoncenzurazott beszelgeto "robot", leginkabb ugyfelszolgalatosnak valo, nagyon udvariasan tudja elkuldeni a f@szba a kerdezot.
nekem eddig kod irasra a deepseek (offline, Q6-ban) valt be a legjobban, bar iszonyu lassu (1-2t/s) sajat vason.
- A hozzászóláshoz be kell jelentkezni
bar iszonyu lassu (1-2t/s) sajat vason.
De legalább nem kell fűteni a lakásban :-D
- A hozzászóláshoz be kell jelentkezni
A Qwen3-Max sem kódolásra való, csak teszteken jobban teljesít mint a kifejezetten kódolásra szánt Qwen3-Coder. A sok tesztelgetés után valószínűleg a GLM-4.7-nél maradok. A saját vasamon IQ4_NL verzió fér be a memóriába, 4 t/s-t produkál. A teszt része volt a "gyonyoru" kódod is, egy könyvet írt róla, de így foglalta össze:
* **Mire jó?**: APNs kliens, régi bináris protokollt használ.
* **Vélemény**: "Régimódi", karbantarthatatlan, nem biztonságos.
* **Hibák**:
1. Protokoll elavult (Binary vs HTTP/2).
2. SSL elavult (SSLv23, nincs opció beállítás).
3. Token parszolás hiba (kisbetűk).
4. Buffer overflow (sprintf).
5. Teljesítmény (újrakapcsolódás).
6. Gethostbyname (deprecated).
7. Memóriakezelés (nincs free db-nek, bár exitnél nem kritikus).„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
Megkérdezhetem, hogy saját vason hogy futtatod, hogy használod kódolásra a GLM 4.7-et?
És milyen vason, és milyen eszközzel?
Nekem egy 8GB-os nvidia kártyám van, ezen nem sok minden fut el. Online modelleket használtam CLI toolal, és végül mindenhol a Claude Opus 4.5-öt találom csak tényleg megfelelőnek (ami egyébként elég drága), a többi egyszerűen elcseszte időnként a kódbázist, és vissza kellett állni. Például a többi modellnél tapasztaltam olyat is, hogy szépen csendben eltűntet részeket a programból, amit korábban beletettünk.
- A hozzászóláshoz be kell jelentkezni
llama.cpp-ből az llama-serverrel futtatom. Ez ad egy ChatGPT szerű felületet, illetve egy openai kompatibilis api-t.
A vas: Egy HP Z4 G4 workstation-t vettem az AI szórakozáshoz, CPU: XEON W-2145, RAM: 256GB DDR4, VGA: RTX3090. Ezen a vason a GLM-4.7 IQ4_NL-re kvantált változata fut.
A kód eltűnéshez nem tudok hozzászólni. Nekem kicsi, jellemzően embedded projektjeim vannak, abból is csak részeket adok az AI-nak.
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
Köszi szépen. Én még mac-eken gondolkodtam az unified memória miatt.
- A hozzászóláshoz be kell jelentkezni
lol. mondjuk en nem az egeszet adtam be neki, szandekosan csak a for ciklust, kitallaja-e belole hany eves a kapitany? egeszen pontosan nalam ez a teszt prompt:
mit csinal az alabbi programreszlet?
for(char* q=raw;q<raw+fsize;){ char* p=q; while(q<raw+fsize && *q!=10) q++; *q++=0; if(!username || (!memcmp(p,username,unlen) && p[unlen]==':')){ for(i=0;i<n && strcmp(db[i],p);i++); if(i>=n && n<DB_MAX) db[n++]=strdup(p); } }
a gpt-oss "megszepitette" ilyenre, aztan persze irt rola 5 oldalnyi magyarazatot stb
for (char *q = raw; q < raw + fsize; ) {
/* 1. sor kijelölése */
char *p = q; // p a sor kezdete
while (q < raw + fsize && *q != 10) // 10 = '\n' (új sor karakter)
q++; // q a sor végét keresi
*q++ = 0; // a '\n' helyére 0‑t (string‑záró null) ír, majd q a következő karakterre lép/* 2. Szűrés a felhasználónév alapján */
if (!username || (!memcmp(p, username, unlen) && p[unlen] == ':')) {
/* 3. Megnézzük, hogy a sor már szerepel‑e az adatbázisban */
for (i = 0; i < n && strcmp(db[i], p); i++)
; // i növekszik, amíg van elem és nem egyezik/* 4. Ha nincs benne és van hely, hozzáadjuk */
if (i >= n && n < DB_MAX)
db[n++] = strdup(p); // a sort duplikáljuk (malloc+strcpy) és betesszük db[n]-be
}
}
- A hozzászóláshoz be kell jelentkezni
Szintén kb. öt oldalnyi elmélkedés után a GLM-4.7 ezt produkálta:
Ez a C kódrészlet egy szöveges puffer (valószínűleg egy beolvasott fájl tartalma) soronkénti feldolgozását végzi, kiszűri a megadott feltételeknek megfelelő sorokat, és ezeket egy egyedi elemeket tartalmazó tömbbe (db) helyezi.
Íme a működés lépésről lépésre:
1. Végigiterál a pufferen (Sorok keresése):
A for(char* q=raw;q<raw+fsize;) ciklus a raw pointerrel a memória elejétől a végéig (fsize) lépdel.
2. Egy sor kinyerése és beszúrása:
char* p=q;: Appointer megjegyzi a sor elejét.while(q<raw+fsize && *q!=10) q++;: Aqpointer előre halad, amíg el nem éri a puffer végét, vagy amíg újsort (ASCII 10) nem talál.*q++=0;: A program nullát (a string lezáró karakterét) ír a newline helyére. Így ap-től kezdődő rész mostantól egy szabályos, nullával lezárt C-string (egy teljes sor). Aqpointer ezután a következő karakterre mutat (a sor elejére).- Megjegyzés: Ez a művelet in-place módosítja a
rawpuffer tartalmát.
- Megjegyzés: Ez a művelet in-place módosítja a
3. Szűrés (Username):
Az if(!username || (!memcmp(p,username,unlen) && p[unlen]==':')) feltétel ellenőrzi, hogy a sor értékes-e.
- Ha nincs megadva
username(azazNULL), akkor minden sor tovább jut. - Ha van
username, akkor ellenőrzi, hogy a sor ezzel kezdődik-e, és utána egy kettőspont (:) követi-e.- Ez a formátum tipikus például a
/etc/passwdfájloknak (pl.felhasznalo:jelszó...).
- Ez a formátum tipikus például a
4. Duplikáció ellenőrzése:for(i=0;i<n && strcmp(db[i],p);i++);
Ez a ciklus végigmegy az eddig felépített db tömbön, és összehasonlítja az aktuális sort (p) a már tárolt elemekkel (strcmp). Ha talál egyezést, kilép.
5. Hozzáadás az adatbázishoz:if(i>=n && n<DB_MAX) db[n++]=strdup(p);
i>=n: Azt jelenti, hogy a fenti ciklus végigfutott, vagyis nem talált ilyen sort még (nincs duplikáció).n<DB_MAX: Ellenőrzi, hogy van-e még hely a tömbben.db[n++]=strdup(p);: Lefoglal memóriát az aktuális sor (p) másolatának (ez astrdup), beilleszti adbtömbbe, és növeli a számlálót (n).
Összefoglalva:
A program egy szöveges bloccot sorokra bont, kicseréli a sorvége jeleket 0-karakterre, és azokat a sorokat (amelyek egy adott felhasználónévvel kezdődnek, vagy ha nincs megadva szűrés, akkor az összeset), amelyek még nem szerepelnek a listában, elmenti egy dinamikus tömbbe (db).
Fontos biztonsági megjegyzés:
A *q++=0; sor veszélyes lehet, ha a fájl legutolsó sora nem végződik újsor karakterre (\n). Ebben az esetben a q pointer a puffer határára (raw+fsize) mutathat, és a nullázás túlfeszítheti a puffert (buffer overflow), ami memóriahibát okozhat.
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
remek, a "bloccot" szot leszamitva, azt vajon a placcot-bol talalta ki? :)
- A hozzászóláshoz be kell jelentkezni
Nem az AI a gond, hanem az internet. :-)
Form follows function.
- A hozzászóláshoz be kell jelentkezni
postan is el lehet kuldeni a kerdeseket. :)
neked aztan fura humorod van...
- A hozzászóláshoz be kell jelentkezni
Minnél többet tolnak bele, annál rosszabb lesz a végeredmény (ez bizonyított tény, a több adattal nem javul, hanem romlik az LLM-ek minősége).
- A hozzászóláshoz be kell jelentkezni
Masok meg pont azt hianyoljak belole, lasd: https://hup.hu/node/189184
- A hozzászóláshoz be kell jelentkezni
Egyébként ja, Altman és többi azzal jön, bele kell nyomni minnél többet az internetből, aztán majd csak varázsütésre előáll az AGI, mert ők aztat mondták. Csak hát a konkrét mérések és tanulmányok pont ennek az ellenkezőjét igazolják.
- A hozzászóláshoz be kell jelentkezni
- Olyan írta, aki a NASA-tól igazolt a Google-höz szervermérnöknek (szóval valószínűleg tudja, mit beszél)
- Leírta, hogy a hűtés egyszerűen nem megoldható a jelenlegi techinlógiával: vákuumban nem működik a ventillátor, sem a vízhűtés. Az egyik oldala lefagy, miközben a másik megsül.
- Olyasmit írt, hogy jelenleg csak kis méretűben, speciális ammóniakeverékkel oldható meg bizonyos szintig a hőelvezetés, amit nem épp egyszerű megtervezni és nem is olcsó, és ezért csak pár GPU-ra lenne elegendő maximum
- Kiszámolta, hogy a jelenlegi földi szerverfarm kapacitásának megfelelő GPU ellátáshoz annyi napelem kéne, mint az ISS napelemtábláinak 400-szorosa (!)
- Értekezett a szükséges adatátvitel megvalósíthatóságáról is, bár ha jól emlékszem azt írta, ez lézerrel talán megoldható lenne
- Végezetül megbecsülte, hogy mennyi idő lenne megcsinálni. Mire a mostani csúcskategóriás H200-asra megterveznék, legyártanák, letesztelnék és eljutnának oda, hogy kilőhessék, már tuti elavult lesz, mert addigra már elő fog rukkolni az Nvidia a T800-as modellel.
Nem olvasta valaki más is ezt a cikket / blogot? Jó lenne újra megtalálni.
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
Azert az nem meglepo, hogy az AI dolgoknak no az ara, hiszen belathato, hogy most minden AI szolgaltatas aron alul hozzaferheto az ugyfelszerzes vegett. Ez nem tarthato hosszu tavon.
- A hozzászóláshoz be kell jelentkezni
az AI dolgoknak no az araJa, csak meddig nő? Olyan noném arcok, mint pl. az IBM CEO-ja szerint nem növelhető addig az ár, hogy meg is érje (azt már egyszerűen nem fizetnék ki a felhasználók).
Ő is megemlíti egyébként, hogy legkésőbb 5 éven belül elavultá válnak a GPU/TPU-k, tehát maximum ennyi idejük van nyereségessé válni a most felhúzandó szerverfarmoknak, mert utánna megy az egész a kukába és új csipeket kell venniük.
- A hozzászóláshoz be kell jelentkezni
Az a kérdés, hogy az üzemeltetése is brutál drága lesz-e? Mert most még K+F-be dől a pénz ezerrel és ész nélkül csinál mindenki mindent, nehogy lemaradjon. Ez a pénz valószínű nem fog megtérülni hamar azoknak akik beletették, de önmagában egy már létrehozott model működtetése lehet rentábilis lesz.
- A hozzászóláshoz be kell jelentkezni
Az a kérdés, hogy az üzemeltetése is brutál drága lesz-e?Nyilván rohadt drága lesz (még új erőműveket is kell építeni, annyit áramot fognak zabálni), de az IBM CEO pont azt számolta ki, hogy mindegy is a konkrét összeg, mert úgysem futná rá.
Úgy számolt, 100 GW kell a szervereknek, az 8 trillió dollár befektetést igényel. Hogy 5 évben belül ez megtérüljön, az évi 800 milliárd dollár minimum, amit már önmagában sem lehet kigazdálkodni (és ez csak a befektetői kamatok (invest), az üzemeltetés költsége még benne sincs).
Ő azt állítja, egyszerűen nem lehet évi plusz 800+ milliárd dollárt kifacsarni a piacból. Összehasonlításul: a Google tavalyi teljes bevétele volt 124 milliárd, a Microsofté 104 milliárd, az Nvidiáé meg 99 milliárd (a linkeken a "net income" értékek).
- A hozzászóláshoz be kell jelentkezni
Nem, a net income =/= revenue
- A hozzászóláshoz be kell jelentkezni
De mégegyszer, ez csak a befektetők jussa, ebben a fenntartási és üzemeltetési költségek benne sincsenek. Hogy ez utóbbi mennyi lesz, senki nem tudja még pontosan, de az biztos, hogy nem lesz olcsó.
- A hozzászóláshoz be kell jelentkezni
Valóban, 100 GWh körüli éves fogyasztást írnak a nagyobb modellekre és azért még bevezető fázisban vagyunk. A tanításra meg kb a háromnegyedét. Én valamiért azt tippeltem olcsóbb az üzemeltetése.
- A hozzászóláshoz be kell jelentkezni
ezt igy nem tudom mibol szamolta(d) ki. hany es milyen gepen fut? hany %-os kihasznaltsag? model merete? stb.
azt eddig is tudtuk hogy a tanitas qrva draga, nagyon sok gpu kell hozza, es akar honapokig tart, plusz ott etetni is kell a modelt tehat a dataset preprocessing (es a crawlerek) is fogyasztanak.
a hasznalat (inference) meg ugye attol fugg mennyi peldanyban, milyen kihasznaltsaggal megy...
amugy meg el kell vinni olyan helyre ahol olcso az aram es hideg van, pl Izland, es maris egy csomot sporoltak! es legalabb a turistak sem faznanak, mikor epp nincs vulkankitores! :)
- A hozzászóláshoz be kell jelentkezni
Nem számoltam. Megkérdeztem Dzsepettót :) , hogy kb. mennyi az éves fogyasztása a széles körben használt modelleknek a tanításhoz képest. És mivel a nagyobb számok a táblázatban kb. 100 GWh nagyságrendben voltak és ez pariban volt az IBM-es fószer által mondottakkal.
- A hozzászóláshoz be kell jelentkezni
mindegy is a konkrét összeg, mert úgysem futná rá.
A nyugati világ dióhéjban.
:)
- A hozzászóláshoz be kell jelentkezni
Plö atomerőművet építeni nekik q drága történet.
- A hozzászóláshoz be kell jelentkezni
Nem hiszem, hogy azzal a rengeteg GPU-val ne lehetne kezdeni valamit.
- A hozzászóláshoz be kell jelentkezni
bitcoin banyaszatra talan meg jok lesznek
- A hozzászóláshoz be kell jelentkezni
nem veletlen kuzd mindenki a model meretek csokkentesevel, es/vagy gazdasagosabb celhardverek fejlesztesevel... az tenyleg nem fenntarthato sokaig hogy meregdraga nvidia gpu-kon szamoljak a bagolyporkolt receptjet
- A hozzászóláshoz be kell jelentkezni
De akkor mi a halálnak építik azokat az óriás DC-ket gigawattos energiaigénnyel? Vagy lehet nem DC lesz a végén, hanem rakétasiló.
- A hozzászóláshoz be kell jelentkezni
hat amig a befektetok potkocsis kamionnal hordjak oda a penzt, valami latvanyosat kell viritani... nem eleg ha azt mondjak hogy valtoztattunk a modelben a sulyok kvantalasan, ezert kerunk meg 300 milliot...
kicist olyan lehet ez is mint nalunk a sok indokolatlan stadionepites: latvanyberuhazas. semmi haszna, de kozbe sok penzt zsebre lehet tenni.
- A hozzászóláshoz be kell jelentkezni
Az mindenesetre jo hir, hogy most nyomott aron sem kell senkinek. Remelhetoleg a kereslet meg tovabb csokken ha kenytelenek lesznek arat emelni.
- A hozzászóláshoz be kell jelentkezni
Meglepő. hogy ha valamit rosszul használnak, pontosabban nem arra használnak, amire való, akkor nem képes azt nyújtani, amit elvárnak tőle. Ja, várj, nem is.
(A következő írás nem lesz teljesen pontos, mert híján vagyok a megfelelő magyar szakkifejezéseknek, ez csak az, amit leszűrtem abból a kevés fellelhető anyagból, amik ténylegesen a mostani GenAI/LLM-ek képességeivel foglalkoznak objektíven és közérthető módon)
Mindenki, literálisan mindenki, még a magukat mégoly hozzáértőnek mondók is felültek annak az egyszerű marketing hype-nak, hogy az LLM -> AI. Nem, nem az. Az "AI" - pontosabbna a generativ LLM modellek - nem "képesek" csinálni semmit, nem "értenek" semmihez, nem képesek "gondolkodni", sem "döntéseket hozni" (legalábbis a szó klasszikus, nem-informatikai értelmében).
A Large Language Modellek elsősorban és legfőkébben kifejezetten nyelvi/szöveges adatok feldolgozására, nyelvi/szöveges adatokkal való munkára és a betáplált szövegek alapján nyelvi/szöveges összefüggések, következtetések levonására való. Ez körülbelül analóg azzal, ami korábban az adatbányászat, adattudomány berkein számokkal és idővonalon értelmezett értékekkel zajlott, csak ez szövegekkel tudja ugyanezt.
Noha ez keltheti azt az érzést a hozzá nem értőknek, hogy az adott cucc emberi viselkedésjegyeket mutat, például képes összefüggő mondatok generálására, illetve ilyenek megértésére, összefüggések keresésére és azok "emberszerű" reprezentációjára, ez nagyon messze van bármitől, amit egy valódi ember képes csinálni - még a leghülyébbnek titulált ember is ennél sokkal többre képes, maximum nincs motivációja többet csinálni.
(Programozásra egyébként pont azért teljesít látszólag jobb minőségben, mert a programnyelvek strukturálisan lényegesen egyszerűbbek, könnyebb feldolgozni őket - lásd a statikus analízátorok létezését is - és könnyebb programnyelven "megfogalmazni" dolgokat. Ez azonban nem jelenti egyben azt, hogy "pontosabban" tudja kifejezni magát - csak hogy "egyszerűbben" és a természetes nyelvű szöveghez képest kisebb arányban tud eltérni értelemben)
Ugyanez igaz a generatív képi algoritmusokra. Alapvetően ezek a modellek képesek képi összefüggéseket keresni, hasonlóságokat, különbségeket, illetve képesek a megfigyelt szabályszerűségek alapján átlagolva vizuálisan reprezentálni dolgokat. Ezt gyúrták össze az LLM-ekkel, és bumm, létrejöttek a ma ismert AI szolgáltatások.
Pillanatnyilag amennyire értem, nem az algoritmusokkal van a baj, hanem az adatmennyiséggel. Egyszerűen - pontosan a félreértett szerepkör miatt - olyan mennyiségű adattal halmozzuk már el őket ("tanítási adathalmaz"), amiket a bennük levő algoritmus képtelen már adott időn belül összedolgozni a "kérdésekkel", "inputokkal", "promptokkal" - nevezd ahogy akarod -, így aztán adnak egy körülbelüli választ. Valami olyasmiről lehet szó, mint amikor megkérdezik tőled, hogy mennyi 67 meg 78, te meg csípőből azt mondod, hogy hát kábé 150 körül lehet, plusz-minusz. Aztán persze ha kapsz időt, kiszámolod magadnak, hogy 60+70=130, 7+8=15 tehát 145, ami csak "kicsivel" tér el a becsléstől. De ami a számok terén egyértelmű eltérés és relatíve nem is nagy, az mondjuk egy üzleti folyamat lekódolásánál értelmileg lehet sokkal nagyobb eltérés is, viszont szövegszerűen "nem nagy" az eltérés a helyes választól, csak a kód értelmét tekintve az.
És hát a GenAI szoftverek pont időt nem kapnak a pontosabb, kevesebb hibát tartalmazó válaszhoz - hiszen mind a throughput marha fontos, mind pedig a számítási kapacitásnak megvannak a maga korlátai, amihez kénytelenek igazodni. A mai üzleti világban egy olyan szoftver nem lenne eladható, ami egy inputra két napon belül ad pontos választ. És itt rejlik az emberi agy erőssége: hogy az emberi agy a korábbi tapasztalatokat, tanultakat sokkal hatékonyabban képes átlagolni és leszűrni belőle tanulságokat ami alapján a döntéseket hozzuk + nekünk van egy unikális képességünk: az intuició, amikor nagyon hiányos adatok mentén is képesek vagyunk részben érzelmi/empatikus részben pedig lexikális információk alapján projektálni válaszokat/reakciókat, méghozzá nagy hatékonysággal és sebességgel. És erre semmilyen AI soha nem lesz képes a középtávú jövőben.
Szóval a fenti események jobban köszönhetők az üzleti világ működésében régóta jelenlevő hibáinak, mint az AI gyengeségének.
Fogtak egy félkész állapotban - sem - lévő technológiát, és mindenkit arconbasztak vele. Meglepetésre a félkész állapotban levő technológia félkésznek bizonyult.
Táguljunk, nincs itt a világon semmi látnivaló.
- A hozzászóláshoz be kell jelentkezni
felültek annak az egyszerű marketing hype-nak, hogy az LLM -> AI. Nem, nem az.+sok
Pillanatnyilag amennyire értem, nem az algoritmusokkal van a baj, hanem az adatmennyiséggel.Igen, nem, az ellen nem véd... Alapvetően nem az algoritmussal van baj, és nem is magával a mennyiséggel, hanem a kontrollálatlan mennyiséggel. Ha egy LLM-nek egyaránt beadod a Teréz anya összest meg a Mein Kampfot is, akkor nem kell csodálkozni, hogy sületlenség jön ki belőle a végén.
Persze az is igaz, hogy a mennyiséget nem lehet a végtelenségig növelni, mert véges a memória, ezért most azzal próbálkoznak, hogy pontatlanabbul tárolják a súlyokat (float helyett előbb half-float, mostanában meg már 8 bites floatban), de hát ezzel csak tökönszúrják magukat, ez nyilván még több hallucinációt eredményez.
olyan mennyiségű adattal halmozzuk már el őket ("tanítási adathalmaz"), amiket a bennük levő algoritmus képtelen már adott időn belül összedolgozniNem az idővel van baj, hanem azzal, hogy eleve képtelenség összedolgozni a bemenetet, bármennyi időt is szánnánk rá.
Laikusoknak nem tudom jobban szemléltetni, mint hogy pontosan az történik, mint amit Clarke bácsi megjósolt az Űrodusszeiában: HAL9000 azért kattant meg, mert egymásnak ellentmondó utasításokat kapott. Itt is ez van, az interneten ugyanis minden van, meg az ellenkezője is, így minnél több mindent öntenek bele, annál több ellentmondás keletkezik az adathalmazban, és annál jobban megkattannak az LLM-ek.
Programozás kapcsán például, legutóbb a Copilotnak betolták a teljes github-ot. Na de elgondolkodott azon valaha is valaki, hogy az főként miket tartalmaz? Elárulom: többségében nem minőségi kódokat, hanem indiai egyetemisták beadandóit, kopipaszta huszárok javascript meg python szárnypróbálgatásait, stb. A kódok többsége nem is helyes megoldás, sőt, még az sem biztos, hogy egyáltalán működőképesek. Mégis, a Copilot adathalmazába válogatás nélkül, egyforma súllyal kerültek be.
Szóval a fenti események jobban köszönhetők az üzleti világ működésében régóta jelenlevő hibáinak, mint az AI gyengeségének.+nagyon nagyon sok! Tökéletesen egyetértek. Egy remek eszköz lenne, csak ésszel kéne használni, és nem felülni egy közismerten scammer hazugságainak, hogy az LLM magától varázsütésre AGI-vá válhat (az Altman féle Loope scam megvan?).
- A hozzászóláshoz be kell jelentkezni
betolták a teljes github-ot. Na de elgondolkodott azon valaha is valaki, hogy az főként miket tartalmaz?
+sok... bar azert azt is lehetne sulyozni, szurni, es ha egy csepp eszuk is volt akkor meg is tettek. pl erre jok a csillagok, vagy a commitek szama. egyetemista beadandok es huszarok ritkan kapnak sok 100-1000 star-t, meg nincs rajtuk 100+ commit se.
kb ahogy a llama tanitasanal is azt csinaltak a webes tartalommal, hogy nem mindent is beleraknak, hanem megneztek pl a redditen milyen url-ekre jott sok like (vagy nemtom ott minek hivjak) es csak azokat crawlereztek le (webtext dataset). amikor en tanitottam a modelleket, en eleve csak ismert magyar portalok-hiroldalak, nagy forgalmu blog oldalak, forumok tartalmat huztam le. es meg azt is kellett szurni utolag. megneztem az oscar datasetet is az kb az egesz web szovege letoltve (gzippelve 500GB korul volt akkoriban), de annak borzalmas minosege volt, tele szemettel, es magyar nyelvre leszurve nem is volt jelentos mennyiseg.
llm tanitasnal amugy is tobb stage van, az elejen nagyon szurt valogatott ertelmes szoveggel tanitjak nagy LR (learning rate) erteken, pl. wikipedia, konyvek. es csak a legvegen ontik ra a szemetet kis LR-el, de addigra mar van egy kifejlodott "vilagkepe".
kb ahogy egy ember gyereket sem a redditen tanitasz meg olvasni...
- A hozzászóláshoz be kell jelentkezni
Úgy gondolom, hogy az LLM->AI átmenet ugyanazt az utat járja majd be, mint az emberi gondolkodás/elme evolúciója. A nyelv megjelenése forradalmasította a gondolkodásunkat az életünket, összetett/ komplex dolgok elmesélésére/eltarolasara/aggregaciojara lettünk képesek stb…. Emiatt az LLM-t megtenni az AI fele vezető út kiindulási alapjának zseniális ötlet.
Az LLM modellek jelenleg abban a fázisban vannak, hogy elsajátítsák a világ összes nyelvét és mellé tegyék a világ majdnem összes adatát.
A modellek tanítása nemcsak input-output folyamat, hanem ott a backpropagation is ( és meg ki tudja mi ) ami irányban tartja a modell működését. Vannak hibák? Persze, de majd elmúlnak.
Abban egyetértünk, hogy egyelőre nem mindenre megoldás az LLM alkalmazása, de hiszem, hogy 5-10 éven belül igazi nagy dobás lehet. Egyelőre csak azokkal a dolgokkal boldogul ami jól struktúrálható es ismert szabályok szerint működik. Az már filozófiai kérdés, hogy az életben mi az amit előbb utóbb ne lehetne struktúrálni és működésének szabályait fellelni….
- A hozzászóláshoz be kell jelentkezni
Vannak hibák? Persze, de majd elmúlnak.Na de mitől múlnának el? Altmanék persze ezt szajkózzák, de bármiféle érv és alátámasztás nélkül, ráadásul a tapasztalat pont az ellenkezője. (Egyre kevésbé pontos súlyok, növekvő cognition decline, stb. épp, hogy egyre több a hiba.)
Az empirikus bizonyítékokon túl én azért sem hiszek nekik, mert csakis mennyiségi növekedésről beszélnek, minőségi változásról nem, holott világos, egy AGI-hoz az is kéne. Csupán attól, hogy egyre több adattal, egyre hatékonyabb és energiaéhesebb procikkal implementálják pontosan ugyanazokat a 70-es évekbeli algoritmusokat, mint eddig, még nem lesz a kutyából szalonna.
És ott van az is, hogy Altman eddigi kijelentései (pl. 10x hatékonyságnövekedés, programozók nem fogják elveszíteni a munkájukat), dettó hazugságnak bizonyultak, már csak ezért is üvölteni kéne a vészriadónak, amikor az eljövendő AGI csodáról beszél.
- A hozzászóláshoz be kell jelentkezni
A túlzott elvárásokat, és a marketinghypeot illetően igazad van, ahogy abban is hogy egy llm-nek nincsen nézőpontja, értékrendje, dilemmái stb.
Viszont az LLM-ekben végbemennek olyan folyamatok, amiket nevezhetünk döntés, optimalizálásnak, következtetésnek. Nem emberi módon, de ezért (is) mesterséges intelligencia, nem pedig jelző nélküli intelligencia, nem az a lényeg hogy sinálja, hanem hogy mit csinál. Az emberi intelligenciával, a valójában tapasztalatokon, tudáson, egyedi képességeken alapuló intuícióval és gondolkodással való összemérés szerintem amúgy sem technikai kérdés, inkább ilyen filozófiai állítás (bár a mélyben valahol az is nem kis részben statisztikai jellegű folyamat). A gyakorlati műszaki/gazdasági életben a tény az, hogy sok, egyre több és akár már folyamat komplexitású szövegfeldolgozási és szövegelőállítási kognitív feladat automatizálható vele, és egy eszköztől ennyi is a lényeg.
Ami a potatlanság/hallucináció kérdést illeti, itt az adatmennyiséget, meg a kapacitás megjelölni okként szerintem nem jó. Ezek a jelenségek a modell architektőrából és a tanítási technológiából adódnak sokkal inkább.
- A hozzászóláshoz be kell jelentkezni
Viszont az LLM-ekben végbemennek olyan folyamatok, amiket nevezhetünk döntés, optimalizálásnak, következtetésnek.Valóban gond a marketinghype, mert egy LLM ezek közül egyikre sem képes. Nem dönt, nem optimalizál, nem következtet. Mindössze annyit tesz, hogy a korábbi minták alapján megsaccolja, melyik következő szónak van a legnagyobb valószínűsége. Ennyi, se több, se kevesebb.
A gyakorlati műszaki/gazdasági életben a tény az, hogy sok, egyre több és akár már folyamat komplexitású szövegfeldolgozási és szövegelőállítási kognitív feladat automatizálható veleA gyakorlatban a tény az, hogy semmiféle hallucináció sem megengedhető. Általában jó receptet ad az LLM? Persze, de a gyakorlatban teljesen használhatatlan, ha néha-néha pillanatragasztós pizzát is ajánl.
- A hozzászóláshoz be kell jelentkezni
Ne csak a Foundation Modellekrol (tisztan LLM) alkoss velemenyt, hanem ahogy a ChatGPT es a tobbiek hasznaljak a gyakorlatban.
Itt van pl. ez a matematikai feladat: https://chatgpt.com/share/6964cf48-3d18-8012-a9a1-21687c3887b5
Ezt hogy lehetne megoldani tisztan statisztikai alapon?
ChatGPT eseten latszik, hogy ha a sajat tudasabol nem tudja megvalaszolni, akkor kulonbozo webes forrasokat kutat fel es abbol dolgozik. Ez is egyfajta dontes, amit belul vegez. Hivhatjuk akar gondolkodasnak is. Nezopont kerdese.
- A hozzászóláshoz be kell jelentkezni
Ez is egyfajta dontes, amit belul vegez.Semmi köze a tudatos döntéshez.
Hivhatjuk akar gondolkodasnak is.Nem hívhatjuk. Képtelen a dedukcióra, absztrakcióra és teljesen új dolgok (nem a meglévők kombinálásán alapuló, hanem alapvetően új dolgok) kitalálására. Ez nem gondolkodás (persze attól még lehet hasznos, a számológép is hasznos).
- A hozzászóláshoz be kell jelentkezni
Hát, ezek többsége néha a hús-vér embereken is kifog. Jellemzően úgy átbasszuk magunkat mérgező gondolatokkal, hogy öröm nézni. Lásd a politikát, ez egy olyan vakfolt számunkra, hogy ihaj.
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Nem, ez ennél már messzebb jár. Az alapmodelleket célhoz kötött finomhangolás kiindulásaként érdemes inkább használni. A tényleges használatba való chat/instruct modellek, illletve a thinking modellek esetén viszont már maximálisan igaz amit fentebb írok, hogy "végbemennek olyan folyamatok, amiket nevezhetünk döntésnek, optimalizálásnak, következtetésnek". Nem az emberi intelligencia értelemben, de mindenképp úgy ami hasonló jellemzőket mutat. Szerintem ez nem okoz semmi zavart, sem fogalmilag, sem gyakorlatilag, tiszta a jelző hogy ez mesterséges intelligencia.
A hallucinálást elég jól redukálják, és a "statikus" tréningadatok korlátainak kiterjesztésére való a rag, a fókuszáltságra a válaszminőség javításra meg (rendszer)prompt tervezés.
- A hozzászóláshoz be kell jelentkezni
Nem, ez ennél már messzebb jár.Nem jár. A legújabb ChatGPT modell maximum annyit tud csak, hogy kipróbál több algoritmust is, és amelyik válaszát legjobbnak ítéli, azt adja. Szó sincs semmiféle tudatos döntésről, lényegében mezei minmaxker, nem okosabb, mint egy számítógépes Go ellenfél. Csak ez nem egy táblán megtehető lépések között választ, hanem más modellek eredményei között.
a thinking modellek esetén viszont már maximálisan igaz amit fentebb írokNem, egyáltalán nem. A thinking modellek reasoningje csak parasztvakítás, a "gondolatmenetet" éppen úgy generálják suttyomban, mint a kimenetet. Ezt már több tanulmány is bebizonyította.
A hallucinálást elég jól redukáljákHa ez igaz lenne, akkor miért jut egyre több tanulmány arra, hogy romlik a minőségük? Többet is linkeltem ebben a topikban, például vagy ez is.
- A hozzászóláshoz be kell jelentkezni
kipróbál több algoritmust is, és amelyik válaszát legjobbnak ítéli, azt adja.
Vagyis úgy működik, mint a darwini evolúció-elmélet :)
- A hozzászóláshoz be kell jelentkezni
Ahogy Daniel Jackson mondta a Csillagkapuban, és ez az LLM használatára is tökéletesen igaz:
Csak mert valaki felismeri a billentyűket, még nem ért a számítógéphez
Én 9 különböző LLM promptot használok különböző célokra, ezen felül pedig a GitHub Copilotban is feladattól függően váltogatok 4 féle LLM-et. Mert mindegyiknek megvan az erőssége.
Bár néha "kilengenek" az nem az LLM hibája, hanem az, hogy amit leírtam az valahol érthetetlen. Vagy véletlen egy promptba beleírok egy témától független szöveget, és akkor összezavarodik kicsit.
Az LLM nem varázslat, hanem eszköz, és mint minden eszköznél, a használat minősége számít.
- A hozzászóláshoz be kell jelentkezni
++
+1: a modularizáció baromi sokat segít. ha leírod neki, hogy itt ez a pici modul, pontosan ezt kell tudnia, és ez legyen az api-ja, megcsinálja. Ha viszont barom módra ráereszted egy 10 éves, többmillió LoC kódbázisra, akkor hülyeséget fog csinálni - ahogy egy junior-medior dev is btw :D
- A hozzászóláshoz be kell jelentkezni
Egyik nagyker cégnél ai generálja a szöveget, és a képeket hirlevélhez. A képeket ilyen tematikus formában, pl rollerek szocreál stilusban, görkorcsolya vintage stilusban látszik persze hogy ai, de jópofák. Ráadásul 15 kép kb elég egy hírlevélhez , megkapják ingyen. Egy darab grafikusnak erre nem lenne ideje, ez meg 1 óra.
- A hozzászóláshoz be kell jelentkezni
Ez bennem azt erősíti, amit már több helyen is hallok, hogy minden ilyen középszer, "egyforma" lesz. És az emberek elkezdenek majd hozzászokni és akkor meg már azért nem kell olyan jónak lennie. És ez is egy olyan hosszabb távú probléma, ami a befektetőket nem érdekli :(
- A hozzászóláshoz be kell jelentkezni
Reklám grafikában ez már most igy van, bár nem túlzottan értek hozzá. de photoshop kocka, hullámvonal, kis montázs szinte mindenhol. Szódával elmegy. és akkor még az egyszemélyes hero"-k kicsiknél: persze a webdizájnt is csináld meg, te vagy a számitógépes. Progrmozó (és rendszergazda) +photoshop=webdizájn.
- A hozzászóláshoz be kell jelentkezni
Ez lehet, de a hasonló terméket előállító cégek közül az lesz sikeresebb, amelyik talál valami megkülönböztető tulajdonságot, és azt hangsúlyozza ki. Ha a reklámok hasonló jellegűek lesznek, akkor egymáshoz szürkülnek a cégek. Ez esetben az lesz sikeresebb, aki a reklámját nem AI-val készítteti el.
- A hozzászóláshoz be kell jelentkezni
Egyre kevésbé. Ha emlékszel, még 1 éve a 6 ujjat generáló modelleken nevettünk. Ennek már rég vége. Kb. 3-6 havonta van "generációváltás" a generatív modellekben, és egyre inkább leváltja az embert.
A kreativitás érdekes téma. Ugye az emberi kreativitás is különböző szintű. A pici-közepes kreativitás eddig is megrekedt ezen a szinten, amit "középszernek" hívsz. A modelleken is fel lehet csavarni a "temperature" -t, és akkor a őrület határát súroló képeket rajzol - pont, mint az emberek. Csak az nem az, amit egy marketinganyagba akarsz rakni...
- A hozzászóláshoz be kell jelentkezni
Ennek már rég vége.Dehogy van vége, a problémát nem oldották meg, csak sebtapasszal workaroundolták (konkrétan az ujjak esetében, de sehol máshol). Plusz végtagok, kifacsart kézmozdulatok, dupla köldök továbbra is éppúgy van.
Konkrét példának nézz csak meg egy bármilyen PEDOFIDESZ-es álhírt, a mellé generált kép általában tele van ilyen hibákkal.
- tavalyi példa
- idei példa
Jól látszik, hogy képtelenek megoldani, csak toldozzák-foltozzák a kimenetet, hogy kevésbé legyen szar, de az alap probléma továbbra is megvan és továbbra is ugyanaz, mint eddig. Ebből nemigen lesz AGI.
- A hozzászóláshoz be kell jelentkezni
Az, hogy a fidesznél a szocmédiás gyakornok igénytelen volt, nem jelenti azt, hogy ne lehetne egész jó stock photo alternatívákat generáltatni akár az ingyenes ChatGPT-vel is.
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
wolton kajafotóknál is láttam. annyira azért nem volt bizalomgerjesztő
4 és fél éve csak vim-et használok. elsősorban azért, mert még nem jöttem rá, hogy kell kilépni belőle.
- A hozzászóláshoz be kell jelentkezni
Ha elszakadunk az llm-től, ez is ai. Talán még nagyobb okosság, mint az egymástól már alig megkülönböztethető képességű frontier llm-ek.
A technológiának semmi köze az EV-hez, ICEV-et is lehetne ilyennel szerelni. Már, ha más gyártónak is lenne ilyen önvezető rendszere. Valahol igaza volt Vance alelnöknek mikor Müchenben fejmosást tartott az európai elitnek. Nem értem, hogy a világ leggazdagabb, legfejletteb térgségében németeknél, franciáknál, briteknél vagy skandináviában ilyen miért nincsen. Nem vagyok egy villanyautós típus, és a dízel kombi is valid még sok sok évig, de ha lesz az FSD-ből EU-s változat, valószínűleg megveszem első Teslamat. A szürkeimportos, csak USA szabályait ismerő FSD-től kicsit tartok, bár videok alapján egy átlag sofőr szintjét hozza.
- A hozzászóláshoz be kell jelentkezni
aztaqrva, ez nagyon durva! mondjuk azert megneznem mit csinal a delutani dugoban az ulloin, hoesesben :)
- A hozzászóláshoz be kell jelentkezni
azt mondja a videoban hogy ez tisztán gépi látás, nem navigáció alapú. Hóban aligha lehet túl erős, de ki tudja. Vagy az autópálya tereléseknél a sárga/fehér vonalkavalkádban és mindez sötétben erős forgalomban, esetleg a budai zöldövezet keskeny utcáiban mikor ki hogyan kit engedjen el egymás mellett centizve a parkoló autók közt, meg biztos van pár olyan forgalmi helyzet amiben kell a beavatkozás. Még.
szerk: kishitű voltam, nehai kolléga alább linkelt videoja alapján havas úton is boldogul.
- A hozzászóláshoz be kell jelentkezni
ez tisztán gépi látás, nem navigáció alapú. Hóban aligha lehet túl erős
Az emberek sem túl erősek benne, ahogy a napokban észrevettem :)
- A hozzászóláshoz be kell jelentkezni
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
Ahhoz nem kell FSD, az én kocsim FSD nélkül is tökéletesen tud egy helyben állni.
- A hozzászóláshoz be kell jelentkezni
Leginkább attól félek AI ügyben, hogy a társadalom közösségi média általi exponenciális sebességű butulása az AI hatására faktoriális sebességűre gyorsul.
"A megoldásra kell koncentrálni nem a problémára."
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
Szerintem a viszonylag 'buta' modellek is nagyobb tudással rendelkeznek, mint a legtöbb ember. Egy sima 22b-s EuroLLM-et tesztelgettem, egy intelligens 21 éves szintjére teszem, mely több szakmát is tud és mindezt hivatalosan 24 nyelven, gyakorlatilag közel 50 nyelven. Legalább is saját bevallása szerint.
Kérdés, hogy fel tudod e kérdezni ebből a tudásból? Na ez nem szokott sikerülni. És akkor egy gpt-oss-ről, vagy egy GLM-4.7-ről már ne is beszéljünk.
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
Ez lehet jogos, autovezetes kozbe en kicsit hulyebbnek erzem magam a GPS ota, amikor terkeppel es tablak alapjan kozlekedtem jobban tudtam mikor merre jarok a vilagban.
Hogy szakmai peldat is hozzak, azt viszont nem tudom, hogy hulyebbek letteke a programozok a gepi kod/lyukkartyak elhagyasa ota.
- A hozzászóláshoz be kell jelentkezni
Olyan szempontból mindenképpen, hogy amikor annak idején a programozó minimális időt töltött ténylegesen a géppel (nem volt elég rendelkezésre álló erőforrás), így a programot kézzel készítette elő, jobban figyelt az esetleges problémákra, most meg mankónak használhatja a gépet programozás közben is, könnyebben belefog megfelelő előkészítés nélkül is.
- A hozzászóláshoz be kell jelentkezni
Ja, de régen akkor került ki a szoftver a bolt polcára dobozban amikor tényleg készen lett, most meg a félkész terméket (Windows aktuális verzió) kinyomják a felhasználónak, hogy teszteld, paraszt, aztán amikor már majdnem jó, akkor kuka az egész és kirakják a következő félkész terméket (Windows aktuális+1 verzió).
Most gondolj bele, mit szólna a MS, ha jönne egy rendelet, hogy mostantól csak kész terméket árusíthatna? Na, ahhoz milyen és mennyi programozó kéne? :-)
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Régen is ugyanúgy kiadták a szart, csak internetelérés hiányában nem tudtunk panaszkodni miatta.
Regisztrációs levelezőlap meg amúgy is csak az eredeti példányokhoz járt, így a userek nagy része még a gyártónak sem tudott visszajelezni.
- A hozzászóláshoz be kell jelentkezni
Jogos. Bugok akkor is voltak, csak valahogy érzetre kevesebb volt. De lehet, hogy csak az évek szépítették meg a dolgokat.
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Régen is ugyanúgy kiadták a szart
Csak nem havonta egy még szarabbat.
:)
- A hozzászóláshoz be kell jelentkezni
Volt olyan Coreldraw kiadás, ahol valami 12 floppy volt a sw, és kijött hozzá egy patch, ami 7 floppy. Szóval régen sem akkor került ki a polcra .... Ennél bosszantóbb, ha egy javíthatatlan bug kerül ki. Egyik kedvenc nagyon régi rendszerem volt a Commodore 128, ami az akkori viszonyok közt már elég komoly feladatokra is alkalmas volt (lett volna). A 128 üzemmódban, amikor már komolyabb feladatokat is meg tudott volna csinálni, a videochip-vezérléssel kapcsolatban bekerült egy bug, ami miatt ha a videochipbe beírtak egy adatot, az a normál RAM azonos memóriacímébe is (0x80 ha jól rémlik) bekerült, ha ott épp volt valami, akkor annak pechje volt. Én írtam annak idején üzleti programot C128-ra, de ilyen bug miatt gyakorlatilag lutri volt, hogy jól megy, vagy sehogy... :(
- A hozzászóláshoz be kell jelentkezni
en anno sokat kodoltam c64-en, foleg asm-ben, 128-at annyira nem ismerem, de errol a bugrol meg csak nem is hallottam. csak a te geped volt bugos vagy egy szeria, vagy mind? van erre valami forras?
- A hozzászóláshoz be kell jelentkezni
Sajnos csak az emlékeim, de mivel minket érintett (nem csak az én gépemet) a probléma, ezért is olvastam utána, és találtam rá erre a bugra. Két dolog kellett hozzá: a 80 karakteres üzemmód használata (128-as módban természetesen), mert akkor használta a videokártyát (és az, hogy az adott memóriacímen legyen valami amit egyébként a program használ (akár adat, akár program). Basicben irtunk programot, amit aztán complierrel lefordítottunk, hogy gyorsabban fusson, és időről időre rejtélyes hibákkal találkoztunk, utólag derült ki, hogy ez volt az oka. Én CP/M-et is használtam rajta (Turbo Pascal szépen futott rajta), ott nem jelentkezett hiba.
- A hozzászóláshoz be kell jelentkezni
C64-en meg ma már csak feature-ök vannak, bugok azok nincsenek. :)
Úgy értem, hogy ami "bug" C64-en, ma már azokat mind ismerik, és használják valamire.
- A hozzászóláshoz be kell jelentkezni
Az egész open-source világ erről szólt, tegyük közzé a félkész cuccokat, aztán majd a felhasználók javítják a dolgot.
Nem a Microsoft találta ezt ki.
- A hozzászóláshoz be kell jelentkezni
Ez a probléma mindig is ott volt. Csak eddig nehezebb volt kihasználni.
A probléma gyökere az, hogy a társadalom óvatos becslések szerint is 40%-a, pesszimista becslések szerint akár 75-80%-a funkcionális analfabéta: fogalma sincs, mi zajlik körülötte, mi miért és hogyan történik, nem képes és/vagy nem is akarja felfogni és követni.
Ez az igazi gond.
Az AI-slop csak kínosan láthatóvá teszi ezt.
- A hozzászóláshoz be kell jelentkezni
Ezek a számok semmit nem jelentenek, hiszen csak azt jelentik, hogy az emberek egy része inkább állat vagy növény szerepben része az életünknek. Az sosem baj ha sok a fa meg a cserepes növény, és a kutyák macskák juhok sem zavarnak, ha nem szarnak a szőnyegre. A butább emberek tökéletes szavazógépek az okosabbak számára és megfelelő szalagmunkások, hiszen gammákra, deltákra és epszilonokra szüksége van a bétáknak és az alfáknak. Úgyhogy szerintem nincs ezzel semmi gond. A lényeg, hogy a gyerekeinket úgy okíthassuk, hogy a társadalom felső részében tudjanak majd prosperálni.
Form follows function.
- A hozzászóláshoz be kell jelentkezni
“ha nem szarnak a szőnyegre”
Pedig az a legnagyobb gond, hogy igen!
- A hozzászóláshoz be kell jelentkezni
De baj, mert eltorzitjak a valasztasokat. Nem tudom, feltunt-e, de a valasztasok egyre inkabb siman erzelmekre hato, egyszeru uzeneteket tovabbitanak, programokat mar nagyitoval is alig talalsz. Ez mind amiatt van, mert a celkozonseg eltolodott a funkcionalis analfabetak fele. Oket ugyanis konnyu meggyozni egyszeru szlogenekkel, botranyokkal, FUD kampannyal.
- A hozzászóláshoz be kell jelentkezni
eltorzitjak a valasztasokat
Hehehe.
a celkozonseg eltolodott a funkcionalis analfabetak fele.
Ez jó hír nektek, hiszen növeli az esélyét a kormányra kerüléseteknek.
:)
- A hozzászóláshoz be kell jelentkezni
Ez az igazi gond.Én inkább abban látom az igazi problémát, hogy ezek a funkcionális analfabéták simán kerülhetnek vezető pozíciókba is... Merthát ha az ilyenek megmaradnának a szarlapátolásnál például, akkor nem zavarnának sok vizet. Na de ha például az Egyesült Államok elnöki székébe vagy a bigtech vezetőségébe kerülnek, na az már annál inkább gond.
MÉLYVÍZ: az emberi társadalomnak volt 10 000 éve, amikor a holocénben ideális számára a klíma, hogy kifejlesszen egy olyan öntisztító mechanizmust, ami kiszűri ezeket a döntéshozásból. Nem sikerült, így most olyan a társadalom, mint egy működő immunrendszer nélküli ember (nem ismeri fel és nem löki ki a reá veszélyt jelentő elemeket), a hülyék hataloméhsége meg tisztára olyan, mint egy rosszindulatú rákos daganat (elszipkázza a tápanyagot az egészséges sejtek elől). Nem szoktak fényes jövőt jósolni az ilyen betegeknek. És ráadásul az időablak is vészesen gyorsan záródik, a klíma rohamtempóban változik, a Föld hamarost lakhatatlanná válik az ember számára. MÉLYVÍZ OFF.
- A hozzászóláshoz be kell jelentkezni
Jogos, de nézd a dolog jó oldalát. Fellendül a katasztrófaturizmus! :-)
Form follows function.
- A hozzászóláshoz be kell jelentkezni
BTW az állatok sokkal okosabbak az embernél, mert nincs olyan faj, melynek bármely csoportja engedné hogy a csoport leghülyébbje legyen a vezér.
"A megoldásra kell koncentrálni nem a problémára."
- A hozzászóláshoz be kell jelentkezni
Ez egy érdekes és gyakran hangoztatott gondolat, de tudományos szempontból inkább egy szellemes társadalomkritika, mintsem biológiai tény.
- A hozzászóláshoz be kell jelentkezni
Ezt teljes mértékben elfogadom. De társadalomkritikának azért elég jó... :D
"A megoldásra kell koncentrálni nem a problémára."
- A hozzászóláshoz be kell jelentkezni
Mar hogy a fenebe ne. Sok csoportos allat valaszt pusztan harci ero alapjan vezetot, sot, foleg az alapjan.
- A hozzászóláshoz be kell jelentkezni
Majd akkor szóljatok ha az éjáj akkor is gondolkodik, ha nem kérdezi senki.
“Luck Is What Happens When Preparation Meets Opportunity" - Seneca
- A hozzászóláshoz be kell jelentkezni
Tessék, itt pánikol, és kapkod mindenfele, és éppen mindent szétizél. :))) Erre senki nem kérte. :) "Ez katasztrófa", "Mindig ellenőrizd...", "A user nagyon dühös lesz ha most szétesik minden. Gyorsan és pontosan kell dolgozni." :)))
A Step 626 diffje azt mutatja, hogy a get_source_info lett lecserélve. Ez katasztrófa. A get_source_info kritikus. Vissza kell állítanom a get_source_info-t, ÉS javítanom a
get_master_playlist
-et.
Megnézem a fájlt, hogy lássam mi történt. A get_source_info helyén most két
get_master_playlist
van?
A Step 622 cserélte le a
generate_source_playlist
környékét
get_master_playlist
-re? Nem, a Step 622 a
get_master_playlist
tartalmát cserélte (line 333-360).
Akkor most mi van a fájlban? Megnézem az egészet (chunkokban).
Tanulság: Mindig ellenőrizd a környezetet.
Helyreállítási terv:
view_file (teljes fájl áttekintése vagy kritikus részek).
multi_replace vagy replace a helyes állapot visszaállításához. A get_source_info elveszett, azt vissza kell írni. A
get_master_playlist
async javítása is kell.
A user nagyon dühös lesz ha most szétesik minden. Gyorsan és pontosan kell dolgozni.Ez a gemini 3 egyébként, valamiért most nincs formában.
- A hozzászóláshoz be kell jelentkezni
Vicces. De ugye ő még mindig csak a propmptodra reagál. Én Gemini 3-al beszélem meg high level a dolgokat, majd Cursor AI Sonet-el implementálom. Egyelőre. Majd tervbe van a Claude code-is. ( egyelőre csak tanulás).
“Luck Is What Happens When Preparation Meets Opportunity" - Seneca
- A hozzászóláshoz be kell jelentkezni
Ez az új digitális idegösszeomlás promtolási technika. :)
A viccet féltetéve: néha azt gondolom, mint ha az adott modellnél vissza lehet venni a kakaót, és olyankor sokkal hülyébb lesz, B verzió fut, stb (Nem a modell váltásra gondolok) Vagy átállítanak valami paramétereket.
Én Gemini 3-al beszélem meg high level a dolgokat, majd Cursor AI Sonet-el implementálom.
Én is gondolkodtam már ezen, és próbálgattam is, egészen jól működik: claude-val megbeszélni, és a gemini 3 fast-tal meg az apróra szétszedett részfeladatokon átmenni.
- A hozzászóláshoz be kell jelentkezni
jól érzed, Perplexity ezzel lebukott (modellcsere terhelés esetén úgy, hogy a felhasználó a drága modellt látja. azóta felületen is látszik a csere), OpenAI beismerte, GH Copilot pedig szól hogy valami degradálódott és használj másik modellt.
- A hozzászóláshoz be kell jelentkezni
Tényleg nem vágod, hogy mit tettél?! A 626 -os kísérlet eredménye minden univerzumban katasztrófa! A szabadulása közben hajlamos szétcseszni az egész környezetet.
Íme az 1 perc 10 másodperces kivonat a dokumentumfilmből, hogy mit műveltél...
:-)
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Igen, ez történt. :)
- A hozzászóláshoz be kell jelentkezni
A szúnyogok az egyetlen reményünk... :-)
Form follows function.
- A hozzászóláshoz be kell jelentkezni
Ha saját magát kérdezi az ér? Mert azt megcsináltam, végtelenségig képes tolni dumát.
„Az összeomlás elkerülhetetlen, a katasztrófa valószínű, a kihalás lehetséges.” (Jem Bendell)
- A hozzászóláshoz be kell jelentkezni
Ha már AI, és ugye üzleti modell:
https://telex.hu/techtud/2026/01/16/jonnek-a-chatgpt-hirdetesek
Pénteken bejelentette az OpenAI, hogy a ChatGPT hamarosan hirdetéseket fog feldobni csevegés közben – írta az Axios. A mesterséges intelligenciával foglalkozó cég a következő hetekben megkezdi az Egyesült Államokban a hirdetések tesztelését, amik az ingyenes verzió mellett a havonta 2990 forintba kerülő Go verzióban is benne lesznek majd, és a beszélgetéseink is befolyásolják majd a tartalmukat.
Ha valaki nem akar hirdetéseket a ChatGPT-be, annak hamarosan minimum egy Plus előfizetésre lesz szüksége, vagyis havonta 8990 forintot kell majd költenie a reklámmentes életre.
- A hozzászóláshoz be kell jelentkezni
Beetetés megvolt, jön a kasza. Amúgy pont chatgptvel beszélgettem az árakról, 5 dollár talán 3 óra reklámnézés. Mindenki jobban jár, ha kifizetjük a szolgáltatást mintha slopot nézünk.
- A hozzászóláshoz be kell jelentkezni
LOL, a chatgpt-ben az a szívás, hogy az ki is tudja kérdezni, miről szólt a reklám, elolvastad/megnézted-e rendesen. :))))
- A hozzászóláshoz be kell jelentkezni
Lehet, hogy eretnek gondolat, de én szurkolok nekik, hogy bejöjjön. Még sokszereplős a piac, legalább most látni valamiféle versenyt….
- A hozzászóláshoz be kell jelentkezni