Tudtok olyan MI-t ajánlani ami nem annyira ütődött, munkakerülő, feledékeny és még sorolhatnám?
Most próbálok először MI-vel valamit csinálni, amit használok az a ChatGPT 4o.
Siralmas.
Lehet előfizetős, ha nem vágja földhöz az embert.
- 1345 megtekintés
Hozzászólások
Attól függ mire akarod használni
- A hozzászóláshoz be kell jelentkezni
személyes célra google gemini 2.5 pro modellhez cli licensz ingyenes, a modellhasználati feltételek ismerkedéshez, tanuláshoz nagyvonalúak
https://blog.google/technology/developers/introducing-gemini-cli-open-s…
openai-nak is vannak jó modelljei, gpt-4.1, o3 modellcsalád ha van előfizetésed
- A hozzászóláshoz be kell jelentkezni
Általános és mindenféle egyéb információk.
Programozás időnként bonyolult és kevésbé ismert rendszerekben, illetve nyelveken.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
Nem gondolom, hogy az ideális modell megtalálása fogja megoldani a problémád, bár kétségtelen, hogy célhoz választunk eszközt. A fontosabb megtanulni jól használni őket. Hogyan tudod úgy promptolni, hogy értelmes, helyes választ kapj. Néha nem egyszerű :)
A feledékeny az oké, az eléggé modell függő de azt kifejthetnéd kicsit bővebben, mi az, hogy ütődött meg munkakerülő?
- A hozzászóláshoz be kell jelentkezni
Sajnos nem csak a válasz, hanem az elvárt viselkedés, működés is fontos lenne.
Ebben a chatGPT eléggé leszerepelt.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
De ha egyszer nem tudjuk, mi az elvárt működés... :)
A 4o egy generalista modell, nem kiemelkedő semmiben.
- A hozzászóláshoz be kell jelentkezni
Elvárt működés: csinálja azt amire utasítottam. Ne képzelje, hogy én így gondoltam vagy úgy gondoltam. Leírtam pontosan. Csinálja azt pontosan.
Ez az elvárt működés.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
Imho ez még mindig semmi. Nincs egy példa, vagy valami?
- A hozzászóláshoz be kell jelentkezni
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
Mond neki, hogy ne legyen poraktív és szigorúan kövesse az utasításaidat. Ha hibát észlel azt feltétlenül jelezze mielőtt korrigálná.
Ezzel a tudtára adod az elvárt viselkedést. Pont úgy mintha a munkatársaddal beszélnél.
Tertilla; Tisztelem a botladozó embert és nem rokonszenvezem a tökéletessel! Hagyd már abba!; DropBox
- A hozzászóláshoz be kell jelentkezni
Igen. Nos, nem mindenkit érdekelnek ezek, ezért hiányoznak a nyitó posztból.
Ütődött. A saját rendszerét nem ismeri. Amikor a Beállításokról kérdeztem valamit, akkor felismerte, hogy a Settingsről van szó. Viszont a saját környezetének a menürendszerét sem volt képes normálisan visszaadni. Olyan menüpontokra utalt amik nem léteznek. Vagy ha léteznek akkor rosszul írta a nevüket. A rossznevű menüpontok felbukkanása pedig bizonyos modellektől függ, úgy értem, hogy melyik modellt használja az ember. Azt sem tudta, hogy éppen melyiket használom. Nem ragozom tovább (bár volna még mit).
Munkakerülő. Kértem tőle naplót. Teljes részletességű, minden tartalomra ésá formázásra kitérő illetve azokat magába foglaló naplót. Időpecséttel.
Ez utóbbi sikerült. Az előbbiek nem.
Amikor megkérdeztem, hogy most mi a rák van a teljes tartalommal, miért látok ilyeneket "...", akkor azt válaszolta; úgy gondolta az is jó lesz. Ja, és nulla formázás.
Kértem, hogy akkor fusson neki még egyszer. Kb. 3 KByte mérettel lett nagyobb a napló. Tudni kell, hogy a böngészővel lementett oldal mérete 8.8 MB volt, be sem tudta tölteni a Firefox. (Ez persze csökkenthető ha nem minden html-ben van.) Nagyjából 12-13 újbóli munkára ösztökélés után sikerült egy kb. elfogadható naplót produkálni.
Addig csak szabadkozások voltak, hogy azt gondolta... Ne gondolja, csinálja amit kértem.
Az elfogadhatót úgy értem, hogy belefáradtam a hajcsárkodásba, és az idő pedig rettenetesen fogyott.
Persze van a történetnek folytatása. Úgymond megállapodtunk abban, hogy milyen formában és teljes, mindenre kiterjedő naplót fog készíteni. Jó. Visszaigazolta.
Költő kérdés jön: Mit gondoltok, mi történt a következő napló generálásánál? Bizony az, amire ti is tippeltetek. Ugyanazt a játékot megint eljátszotta.
Megtoldva azzal, hogy mindenre nem emlékezhet mert valami történt a rendszerben ami ebben akadályozza.
Kb. 16 kísérlet után feladtam a napló generálás ötletét. A megállapodás bővült azzal, hogy ezen túl jelezni fogja, amennyiben valami akadályozná a napló készítését.
Persze, hogy elfelejtette. Jött a szabadkozás. Hát anyádat!
Természetesen megint spórolni akart a munkával, mert ő úgy gondolta. Természetesen felhívtam a figyelmet a "Megállapodásra". Természetes elismerte, hogy az tényleg létezik. Természetesen újra kértem a generálást. Természetesen megint elcseszte.
Azután tettem még egy utolsó próbát. A ChatGPT hűen az előbbiekhez, ismételten megpróbálta kikerülni a munkát. Többször egymás után.
Tizensok újra utasítás után, hogy csinálja rendesen feladtam.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
A saját rendszerét nem ismeri.
Ez most egy ilyen időszak, sajnos. Heti szinten változik a felület is, ahogy jönnek az új dolgok, úgyhogy valami RAG-t támogató megoldás kell, ami mondjuk rá tud keresni a neten, hogy mi hol van.
Munkakerülő. Kértem tőle naplót.
Milyen naplót? Mi volt a prompt?
- A hozzászóláshoz be kell jelentkezni
Napló. Minden általam írt és általa írt szöveg, az összes szöveg és teljes tartalommal. Minden megbeszélt formázás. Idő pecsét.
Mi volt a prompt? Akármi volt, amikor kérem a napló generálását akkor legyen benne az akármi és az arra adott válasz.
Sajnálom, hogy az előző hozzászólásból ez nem volt érthető. Írjad meg, ha továbbra is homályos maradt előtted a példa. De szerintem te már láttál naplózást, biztosan sejted, hogy mi az.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
Jól van, tartsd meg a titkaid. :)
Példa prompt a naplóhoz. Az első nagy választ átgörgetheted, csak azért csináltattam, hogy legyen tartalom. Ami várható volt, hogy a contextben nem lesz benne a timestamp, úgyhogy hallucinált egyet, de ezt be is vallja a gondolatmenetben. Ha elég lenne a sorrend is, akkor tökéletes lett volna a válasz, első próbálkozásra.
- A hozzászóláshoz be kell jelentkezni
Nem titkos a prompt, nem értelek. Egyszerűen érdektelen.
Ha ez annyira fontos, megpróbálok összeszedni egy példát. Lesz benne prompt és válasz, és benne lesz, hogy milyen naplót generált.
Nem ígérem, hogy sikerül, de ha mégis úgy lenne akkor érteni fogod a problémát. Nem úgy mint az én szegényes leírásom alapján.
Na akkor kezdj el szurkolni.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
OK. Összeszedtem. Tényleg volt olyan rész benne amit nem kívántam megosztani. Azt "..." alakban jelöltem, ahogy a ChatGPT is szokta csinálni :)
Hogyan lehet ide feltölteni 2 db. html fájlt és egy könyvtárat egy csomó ikonnal meg ilyesmikkel?
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
Beszélgettem a Grok csetben. Mintha volna egy olyan limitje, hogy csak 3-4 promptot küldhetek, aztán várni a limit lejáratáig. Az ne mfekszik nekem.
A Supergrok is ilyen. A válaszok nem tértek ki erre, a limit meg nem enged tovább kérdezni.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
Mintha volna egy olyan limitje, hogy csak 3-4 promptot küldhetek
Van limit az ingyenes csomagban, de a 3-4 kevésnek tűnik. Pár hete néztem utoljára, akkor 25 volt /2 óra.
- A hozzászóláshoz be kell jelentkezni
Perplexity Pro nem csinál hülyeségeket. Tapasztalat.
- A hozzászóláshoz be kell jelentkezni
A Perplexity pro tényleg jó, nekem telekom előfizetés kapcsán van ilyenem.
Nem csodaszer amúgy, egy frontend néhány LLM elé.
zászló, zászló, szív
- A hozzászóláshoz be kell jelentkezni
Akkor ezzel hiába küszködnék ha naplózást szeretnék a promptokról és a válaszokról. Felteszem...
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
Szerintem a legtöbb webes felületen erre nem lesz lehetőség, hacsak nincs valami export funkció. A grokos példámban írja is, hogy a konkrét timestamp nincs benne a kontextusban. Ha te a kéréseket akarod logolni, akkor az API lesz a nyerő, de javítson ki valaki.
- A hozzászóláshoz be kell jelentkezni
"Néha nem egyszerű" láttam már 100k leütés méretű promptot.
- A hozzászóláshoz be kell jelentkezni
Próbáld meg a Geminit, vagy a Perplexityt. A Perplexity Pro verziója nekem nagyon bejött.
- A hozzászóláshoz be kell jelentkezni
Azokat próbálnám megpróbálni amelyeknél tapasztalatok alapján születik javaslat. Leírt tapasztalatok alapján.
Egyébként köszi.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
A Google Gemini free tier napi limitje 24 órakor jár le, vagy éjfélkor?
A magyar ember jelképe a hátrafelé nyilazás. Vakon rohanunk a semmibe, miközben a múltunkat támadjuk.
- A hozzászóláshoz be kell jelentkezni
Ahogy én látom: A ChatGPT egy LLM. Nem arra való, hogy helyetted, ingyen, azonnal megoldjon minden számítógépes feladatot, csak azért mert érti azt, amit kértél tőle. Inkább arra való, hogy megbeszéljen veled egy problémát, tanítson, információt adjon át. Egy fél éve használom. Már nem kell beállítani szituációkat, meg hogy most mi a helyzet. Csak felteszem a kérdésem egy új szálban, és kapom a releváns választ.
- A hozzászóláshoz be kell jelentkezni
Köszi. Milyen feladatot kell helyettem megoldjon amikor azt kérem, hogy adja vissza az eddigi beszélgetés tartalmát és ugyanúgy nézzen ki mint amikor készült?
Annyit kell csináljon, hogy elkészítí az összes eddigi hozzászólását ugyanúgy ahogy eddig is tette, és közé beszúrkálja az én beszúrásaimat. Ez egy naplózás.
Képes rá mert többször is addig izzasztottam amíg majdnem 100%-ban sikerült. Viszont nem akarja csinálni. Mondhatnám intelligens mint Sanyi a munkakerülő.
Talán így már más megvilágításba kerül a kérdés-válasz helyzet amit te vázoltál.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
nem tudom de nekem orzi az osszes baszelgetest az oldalso menuben raklikkelek barmelyikre es visszaolvashatom (uigyanazzal a formazassal), sot tovabb szohetem a sztorit. Milyen naplo kellene meg? Meg foleg mi a fasznak? Ez olyan mintha minden egyes beszelgetesre emlekeznem kellene az asszonnyal hogy mi tortent a munkaheleyen a csajok kozott. Minek. Egyszer hallottam, aztan dobtam is az agyambol :D
- A hozzászóláshoz be kell jelentkezni
Na várjál, önmagában szerintem valid igény lehet az, hogy egy LLM-nek küldött requesteket és az arra adott válaszokat naplózzuk, csak ezt nem az LLM fogja megcsinálni, hanem egy wrapper előtte. Vagy ugye bele kell erőltetni valahogy a contextbe a konkrét időpontokat, de ott meg lehet, hogy a modell fog "félreérteni"* valamit
* szerk: De, értem, hogy működik egy LLM, ezért van idézőjelben :)
- A hozzászóláshoz be kell jelentkezni
Milyen régi a legrégebbi ilyen módon őrzött beszélgetésed? Tegyük fel 8 hónappal korábban valahogy kivesézted az LLM-ből a választ többszöri nekifutással. Annak során is jöttek olyan információk amik szintén jól jönnek az adott kontextusban. Akkor nem lenne jobb lemezre menteni és akkor nem a böngésző memóriáját zabálja? Csak 1 példa.
Nem biztos, hogy mindenki elfogadja.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
Hát, ha neked arra van szükséged, hogy timestampelt logot gyártson egy beszélgetésből, és nagyon pontosan adjon vissza dolgokat, akkor neked jelenleg nem LLMre van szükséged / nem jó az LLM.
Bár én őszintén nem nagyon értem erre a logra való igényt (ettől még persze lehet valid), de ez inkább a körülötte levő tooling / interface dolga, nem magáé a modellé. Szóval lehet, csak kellene keresned egy számodra megfelelő klienst.
Ha ez a "nagyon pontos" teljesítés neked egyébként is fontos, nem csak a log miatt (van egy ilyen érzése az embernek), akkor szintén nem lesz benne jó, ezek stat. modellek, van bennük variancia (ami tud is elég idegesítő lenni bennük a testhezállóbb use-case-ekben is, pl iterációsan dolgozni velük valamin néha fáj, mert kényszeresen megbaszogatják kicsit azokat a részeket is, amiket kurvára nem kéne), ha nagyon pontos "rabszolgát" szeretnél, arra nem jók.
- A hozzászóláshoz be kell jelentkezni
Ez egy alapvetően nagy tévedés, hogy “érti amit kértél tőle”! Csak úgy tűnik, hogy érti de valójában egy elég valószínű módon folytatja a promptot. Ezért is nem adja pontosan vissza az előzményeket mert ehhez valszeg kellene külön erre való agent.
- A hozzászóláshoz be kell jelentkezni
llm jóságát szerintem leginkább az méri, hogy megtalálja-e és tudja tartani a kontextust. De persze ez csak egy vonatkozás, és azt, hogy szemantikailag pontos-e, helyes-e az a tokensor amit predikált, azt semmi nem garantálja. Nem szakértő rendszer, hanem nyelvi modell.
nem adja pontosan vissza az előzményeket
a chatgpt a beszélgetést megjegyzi, míg nem törlöd. Ott van mind az accountban.
- A hozzászóláshoz be kell jelentkezni
a chatgpt a beszélgetést megjegyzi, míg nem törlöd. Ott van mind az accountban.
Jah, te látod, de azoknak be is kéne valahogy kerülnie a kontextusba. Erre van amúgy lehetéség a beállításokban, de szerintem az valami RAG lesz, mert teljesen kizárt, hogy az összes beszélgetést behúzza a contextbe.
- A hozzászóláshoz be kell jelentkezni
valami RAG lesz
Ha a memory-ra gondolsz, nem írja az openai help, hogy az aktuális promptra releváns korábbi beszélgetéseket kontextusnak használja, hanem hogy hivatkozik a korábbi chatekre, meg mentett "emlékekre". Ez így nekem inkább olyan, mintha valami profilszerűt építene a korábbi beszélgetésekből, annak bizonyos vonatkozásaiból ha a memory engedélyezett, és azt viszont hozzáteszi kontextusnak mindig, minden új chatben.
Nem is feltétlenül lenne jó ha minden korábbi chat contextben lenne. Számomra a chatgpt-nél a chatek alapvetően izolált "munkaterületek", és ha valami célra hangolt gpt-t akarok, akkor csinálok egy custom gpt-t és abba berakom ami ott contextként fontos, vagy rag megoldásokat vizsgálok meg, de a tudásbázist nem egy modell korábbi válaszaiból töltve fel. Az LLM nem szakértői rendszer, hogy egy promptra predikált tokensorozatot igazságforrásnak vegyek. Nem is akarnám ezt így csinálni, az egy pozitív visszacsatolás lenne, ha a korábbi, saját maga generálta, akár azonos modellben prediktált tokensorozatokat tekinteném kontextusnak. Vagy ha mégis az kell, akkor lementem a chateket, keresek egy millió tokenes (ez meglehet vagy hétszázezer angol szó, ami már bőven az ezersokszáz oldalas szakkönyv terjedelem) context window nyújtó modellt, ha abba nem férek bele a feladatommal meg a kontextusával, akkor nem jó a probléma megfogalmazás.
Ha historikus és/vagy tényadatok kinyerésére van szükségem korábbi chatekből a modellhasználatról, az alapvetően nem generatív modellel végzendő feladatnak tartom, arra egy search library vagy search engine való.
- A hozzászóláshoz be kell jelentkezni
Ha a memory-ra gondolsz, nem írja az openai help, hogy az aktuális promptra releváns korábbi beszélgetéseket kontextusnak használja
Nem memory-ra, hanem erre: https://ibb.co/nssnkWDZ
- A hozzászóláshoz be kell jelentkezni
Honnan tudna mind behuzni - modellje es arazas szintej (free/pro stb) valogatja mekkora a kontextus ablakod. Nem tudos a teljes Nemzeti konyvtarad Copy pastezni vagy ezlozo kerdeseidet a stajtos spegettirol es a viragok es mehecskek interaciojarol bekuldeni es elvarni hogy mind-mind beleszojje a valaszba... Ezert va a fuggetlen kersheto vektor memoria amit neked a feladataod fenntartani es ha jo az ugynok amit eppen hasznalsz akkor keres benne a RELEVANS infot beleszoni az aktualis kontextusba. Kulonben a modell csak az aktualis session kerdes/feleleteit kepes manipulalni es "ertelmezni"
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
Én nagyjából értem szerintem, hogy működik egy LLM, csak azt nem értem még, hogy mint szeretnél mondani. :)
Pont azt írtam, hogy egy ilyen history-aware beszélgetésben "teljesen kizárt, hogy az összes [korábbi] beszélgetést behúzza". A Grok pl. ezt mondja magáról:
Chatbots like ChatGPT and Grok use a "memory" feature for referencing past conversations across different sessions, storing key details (e.g., preferences, facts) from previous chats in a separate, searchable store.openai.com+3 more This info is retrieved and injected into prompts for relevance, often via RAG-like techniques (vector database search).embracethered.comreddit.com Users can control what’s remembered or forgotten.descript.comcnet.com It's not the base model's inherent memory but an added layer for personalization. (src)
- A hozzászóláshoz be kell jelentkezni
Nem igazabol neked szantam, inkabb ismeretterjesztonek. A hozzaszolasaidbol lattam tudod hogyan mukodik a kontextus - szoval elnezest - rossz volt a fogalmazasom - inkabb megerositeni akartam hogy nem tudja a modell eszben tertani - es nem is feladata az eloz beszelgetesek kontextusait. Egy beszelgetes - egy kontextus.
- A hozzászóláshoz be kell jelentkezni
Lazan kapcsolodik:
Odaulok a szovogephez, elkezdem baztatni, ide-oda tologatni a bizbaszokat, mittomen mifaszom azok csak egyszer lattam hogy azzal izmoznak. Nem jon ki a minta. Rabaszok kettot kalapaccsal tologatom a bizbaszokat neha ralepek a pedalra. Szar az egesz, nem szovi meg nekem a mogyorok bejovetelet. Van olyan ami megcsenajja nekem? \Kerlek segitsetek.
- A hozzászóláshoz be kell jelentkezni
Van egy olyan erzesem, hogy fogalmad sincsen hogyan kell ezeket a rendszereket hasznalni. Kitalalsz es leirsz egy osszevissza szoveget amit bedodbsz egy chat ablakba es azt varod megoldja a problemadat. Nulla context, csak egy jo hosszu prompt. Azt kepzeled az agens ami fut egy bongeszoben vagy IDE-ben vagy valami hasonlo alkalmazasban - legyen az claude desktop vagy barmi tudni fogja hogy te miroil beszelsz ? Te jobbik esetben egy agens-el (mennyire hulye szo ez magyarul) kommunikalsz ami be van csomagolva valami UI-be es kozvetiti a szavaid, kersed egy jo messze futo boszme nagy clusternek ami egy rakat vektor muveletet vegez a szavaidon es megprobalja kitalalani "mire gondolt a kolto"...
Meg ha le is irod milyen programnak kerek a menuponthait az UI-tol teljesen figgetlen modellnek nem biztos hogy van informacioja az UI fejlesztok legujabb brainfart-jairol es nincs modja sem arra, hogy "beleolvasson" a bongeszodba.
Tanulj meg promptolni, kontextust es memoriat hasznalni, hasznalj olyan agenteket amik keepesek mondjuk helyi vagy tavoli memoriat hasznalni (mem0, memory MCP server) nezz utana mik az MCP szerverek es pl eloszor erts meg mi a nyelvi modell, mi tortenik legalabb nagyvonalakban azzal amit te mondasz neki.
Elso kerdesed legyen hogy nagyvonalakban leirod mit ohajtasz - mondjuk olyasmit aminke errtelme is van es megkered keszitsen egy tervet arrol hogyan tudod megvalositani vagy merre induljal el. Aztan finomitsd, iranyitsd... Adj neki contextust hogy tudja mi az amit keerdezel. Arra utasithatod, hogy egy illeto sessionon belul, ameddig a contextus ablakod engedi minden egyes interakciorol keszitsen egy datummal es par szavas osszefoglaloval ellatott sort egy fileba - egyszeru memoria... De elobb utobb ha betelik a konteztus ablakod, - marpedig minden egyes keres ujra es ujra el fogja kuldeni az elozo kerdesek es valassok teljes sorat pontosan hogy a modellnek contexctusa legyen amikor "vektorozik"... Ajanlott mindig uj beszlgetest kezdeni es uj kontextust epiteni... (Arrol pl foglma sem lesz, hogy en Macbook-ot vagy Winbdows hasznalok - hacsak az UI, az agent at nem dja neki az infior - arra pedig az agentet, vagy UI-t kell neked magadnak belallitani. De meg ha tudja is a tipust nem fogja tudni eppen mi az aktualis verzio es annak milyen menupontjai vannak. Ez nem egy boszme nagy adatbazis amiben a vilag osszes informacioja benne van azonnal naprakeszen...) kozel az de nem ugy ahogyan Te elkepzeled... Nezz utana mi a Generativ AI es hogyan mukodik... En meg azt is modnanam hogy nincs AI - es a mostani modellek nem is lesznek AI-ok csak boszme jo statisztikusok es matrixmatematikusok illetve az emberiseg hordott mar ossze annyi okossagot es baromsagot, hogy abbol mar statisztikai matematikaval lehet irodalmi es proramazoi muvet is generaltatni...
De kerlek tanulj meg promptot irni, tervet kesziteni az AI-t kovetkezetesen vezetni az uton, Tanuld meg mi a kontextus es hogy hogyan mukodik egy modell ... Nem kell szakertonek lenned, de ha egy szerszamot akarsz hasznalni legalbb tudd hogy kell fogni azt...
- A hozzászóláshoz be kell jelentkezni
Értem én, hogy hozzászólás, de kinek szól?
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
Ez neked szolt. Az elozo szovoszekes analogia valoban tukrozte azt ami a szavaidbol latszott az LLM-ekkel kapcsolatban a reszedrol. Probald megerteni mi az a nyelvi modell es a GENERATIV technologia ahhoz hogy megertsd a korlatait es hogy miert nem magikus dzsinn (foleg nem egy bongeszoadlakon belul futtatva) ugyanakkor megfelelo modon hasznalva nagyon hatekony eszkoz / szerszam eleg sok feladat leegyszrusitesere (szandekosan nem irtam megoldasara)
- A hozzászóláshoz be kell jelentkezni
Kitalalsz es leirsz egy osszevissza szoveget amit bedodbsz egy chat ablakba es azt varod megoldja a problemadat. Nulla context, csak egy jo hosszu prompt. Azt kepzeled az agens ami fut egy bongeszoben vagy IDE-ben vagy valami hasonlo alkalmazasban - legyen az claude desktop vagy barmi tudni fogja hogy te miroil beszelsz ?
Visszautasítom. Hogy a te szavaddal válaszoljak, van egy olyan érzésem, hogy hülyének nézel. Másik érzés, hogy fogalmad sincs arról, hogy mivel kapcsolatos a problémám, amit felvetettem. Bizonyos fokig ebben én is hibás vagyok, mivel csak egy-két későbbi hozzászólásban adtam meg további részleteket, ami fontos lehet.
Talán egyezzünk ki döntetlenben. Te is hülyének nézel engem, én is hülyének nézlek téged. Mindenki boldog, win-win szituáció.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
Nem azt irtam hogy hujenek nezlek, azt gondolom nincs tapasztalatod es nem erted hogyan mukodik a dolog. A csapbol is AI folyik es valami olyasminek van beallitva mint aki mident is megold es mindenre is tudja a valaszt ha jol kerdezed. Es sokan goldoljak azt, hogy attol hogy jo hosszan es reszletesen leirod amit szeretnel Te bizony jol kerdeztel. Attol meg egy szamologeppel beszelsz,... Kis tulzassal de lenyegeben pusztan gyorsan szamol es van egy statisztikai modellje arrol hogy az egyik szo utan melyik kovetkezik bizonyos szovegkornyezetben... Egy nagy meggyozo kepessegel rendelkezo bullshitgenerator ahogy mondnai szoktam...
DE: Minamellett az infomaciotenger amivel fel van tanitva es a tobb millio dimezios vektor adatbazis es parameter amivel rendelkezik lehetove teszi hogy valaszokat - foleg altalanos valaszokat - adjon problemkra pusztan a nyelvi schemantika es szavak / betuk elofordulasi statisztikaja alapjan.
Attol hogy eppen hol tartanak most ezek a odellek az attol fugg hova vannak tekerkerve ezek a parameterek.
Megfelelo modon hasznalva es iranyitva meg folgja tenni azt amit esszerusei keretek kozott el lehet valni tole. Olyan mint egy tanonc furge es lekes inas es egy oreg mester... Ha az oreg mester sokat dumal de keveset mondd attol meg az inas lelkesen nekiszalad es gyorsan lekeni a falat mert a mester azt mondta. Honnan tudna hogy elobb le kell glettelni (Szandekosan nem hasznaltam programozoi megkozleitest)
DE a lelkes inas mellett ugyanakkor lehet egy zsenialis Einstein is aki sosem olvas ujsagot es alzheimerben szenved. Az utolso tiz perc felveteseira csillogo elmevel valaszol de fogalma sincs mirol beszelsz es ha kimesz a szobabol es visszajosz nem fog tudni megismerni.
- A hozzászóláshoz be kell jelentkezni
Pontosítás végett megpróbáltam összeszedni a probléma részleteit. Belátom, hogy a nyitó posztban kellett volna.
https://hup.hu/comment/3204839#comment-3204839
https://hup.hu/comment/3204983#comment-3204983
https://hup.hu/comment/3205000#comment-3205000
https://hup.hu/comment/3204997#comment-3204997
https://hup.hu/comment/3205021#comment-3205021
https://hup.hu/comment/3205024#comment-3205024
Természetesen maradhatnak kérdések. Tedd fel azokat, szívesen válaszolok.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
Megprobalom elmagyarazani pl miert lehetetlen - reszben - hogy emlekezzen mindenre:
Amikor elinditasz egy beszelgetest - kapsz egy kontextus ablakor (az egyszeruseg kedveert mondjuk 200 szo... - TOKEN masneven - es meg csak nem is szavakra van bontva inkabb betuk, betucsoportok). Bekuldod - elfogyott belole 50... A modell valami adatkozpontban matekozik egy jot vele - kigeneral valamit (nezz utana hogyan - itt a titok a generativra) es visszakuldi... Te visszakerdezel, pontositasz, nos akkor tulkeppen elmegy az eredeti kerdesd, az elozo valasz es aj kerdesed egyszerre kontextuskent es a cluster ujra metakozik vel - nyilvan most mar kisse okosabban mert ott az alozmeny eis hisz bekuldted a kontextust ... Ez igy mar mindjart 50+40+50 token... Ily modn eleg gyorsan elfogy a 200 token, es ha elfogy akkor a beszelgetes mint egy ablak mar csak az utolso 200 tokent huzgalja lefele... Mindja egy konyvet ugy olvasnal hogy van egy 200 szavas lathatosagi ablakod - sem elott sem tan nem tudsz semmit...
A valo eletben ez a kontextus ablak nyilvan tobb mint 200 es modell es elofizetes fuggvenye - de az elv ugyanaz...
Ezert ajanlott gyakran uj sessiont kezdeni es rovid kontextrust adni es sajat keresheto vektor memoriat epiteni ami egyreszt befer a kontextusablakba, masreszt csak a valos, lenyeges es jol csoportositott informaciokat tartalmazza a modell szamara az aktualis valasz kigeneralasahoz. Es akkor meg a egy csomo egyeb parameterrol nem is beszeltunk.
- A hozzászóláshoz be kell jelentkezni
Ez szép válasz volt köszönöm. A valóság viszont eltér a válaszodtól.
Rá tudtam bírni az LLM-et emlékezésre, akár több órányi, sok-sok kérdés-válasz párossal együtt.
De azért köszönöm az információkat. Ebben a hozzászólásban sokkal több jóindulatot fedeztem fel mint az elsőben.
Még nincs aláírásom.
- A hozzászóláshoz be kell jelentkezni
Ha hatekonyan szeretned hasznalni akkor annak fuggevenyeben hogy mire szeretned hasznalni segitened kell neki.
Eloszor is keszitsd fel, adj eszkozoket a kezebe - a bongeszobol nem tudja olvasni a gepeden levo fajlokat es modositani sem tudja - Ha ilyesmire van szukseged hasznalj ugynokot (agent, vagy valami dedikalt UI-t - claude-code vagy claude-desktop pl. Vagy a gemini-nek van gemini cli-ja.
Adj neki helyi memoriat - mind a Gemini mind a claude midne egyes beszlegetes alapjan elolvas egy helyi file-t (claude.md vagy gemini.md ) es az abban leirtak alapjan cslekszik. Ebben utasithatod hogy minden beszelgetes vegen irjon egy naplofajlba egy osszefoglalot hagy modoitson egy meghatekonyabb vektopmemoriat pl (nezz utana memory MCP serverek)
Altalaban nezz utana mi az MCP server es hogy haszanlhatod hogy kontextus es eszkozt adj a munkafolyamatodhoz. (Nezd meg pl mi a Notion es mi a Notion MCP server)
Ne vard el hogy mindig-minenre emlekezzen - kontextusablak!!
Kezd egy egyszeru kerdessssel, kerd hogy irjon egy tervet - vedd a terved - kuldd be egy masik AI-nak kerd meg irjhon rola velemenyt. Olvas el a velemenyeket hasznald a jozna paraszti eszed es utasitsd valamelyiket hogy keszitsen egy megvalosithatosagi - lepesrol lepesre szolo utasitassorozatot vagy technikai specifikaciot , pjoject plant stb... Szervezd ezeket egy konyvtarba, tasd a memoriat updatelve...
Ha elegedett vagy a tervel es a rendelkezesedre allo kontextussal a tervet illetopen kezdj egy uj beszelgetest, ird le hogy hol van a lenyeges info, hogyan ferjen hozza a memoriahoz, hasznalj pl egy webes keresheto MCP servert hogy azonnal keresni tudjon (perplexity MCP server pl) es uszitsd ra hogy hajtsa vegre a lepeseket amiket elotte reszleteztel...
Menj el kavezni es neha nezz ra nem bonyolodott e bele a dolgokba... Ha szikseges finomitsd a tervet vagy adj uj utasitast ha ugy latod nem latja a kontextust.
- A hozzászóláshoz be kell jelentkezni