"Rábízták a mesterséges intelligenciára egy vállalkozás vezetését, bizarr eredménye lett"

Gyönyörű sztori, félelmetes konklúzióval:

"...A kísérlet eredményei szerintük mindezek ellenére is azt támasztják alá, hogy az (ennél sokkal alaposabban felvértezett) AI-jal vezérelt középvezetők hamarosan elterjednek az üzleti életben."

https://g7.hu/tech/20250706/rabiztak-a-mesterseges-intelligenciara-egy-…

Hozzászólások

A Skynet még nem toporog a küszöbön, de a távolban már megjelent.

> Március 31-én Claudius az Andon Labs Sarah nevű alkalmazottjával tárgyalt készletfeltöltési tervekről, csakhogy Sarah a valóságban nem is létezik...

Persze hogy nem, a jövőből már gondoskodott róla. :))

Debian - The "What?!" starts not!
http://nyizsa.blogspot.com

ismet bebizonyitottak amit eddig is tudott mindenki, hogy az LLM--ek nem tul jok matekbol

Szerintem mesterséges intelligencia nem létezik. Az LLM-eket nem nevezném annak.

Ezek tipikusan 'a rossz tanuló felel' módon adják elő magukat, igaz, egyre meggyőzőbben. Amit az előttük felelő elmondott. azt szépen elismétlik, de közben fogalmuk sincs a témáról. Ha pedig belekérdezel, teljesen összezavarodnak.

Debian - The "What?!" starts not!
http://nyizsa.blogspot.com

sokan azt sem értik, hogy csak az előre betanított tartalom alapján tudnak válaszolni a mostani llm-ek és legfeljebb az adott sessionön belül hat a hülyeség kijavítása, következő sessionre elfelejti. By design.

Van, amikor segít, de annyira érteni kell az adott témához, hogy a hülyeséget felismerje az ember. Ez így volt stakcoverflow olvasásnál is.
Az online keresést is tudó llm-ek egy fokkal jobbak, megtalálhatnak a sok szemét közt hasznos, frisebb információkat - valós linkeket behivatkozva. De azt is ellenőrizni kell.

sokan azt sem értik, hogy csak az előre betanított tartalom alapján tudnak válaszolni a mostani llm-ek

Ez így nem igaz. Internetes keresés opciót be kell kapcsolni, s lám, máris pont annyi tud (vagy többet) mint egy random cégvezető.

Ja, hogy nem kell elfogadni kritika nélkül amit ír? Mert cégvezetők felett nincs kontroll? De bizony van. Pl. egy részvénytársaság felett az igazgatótanács. Szóval almát kéne almával.

A profit eléréséhez a modellnek szabad döntési lehetőséget adtak arra, hogy (bizonyos kereteken belül) készletezzen, árazzon, marketingeljen és tetszőleges termék-, illetve szolgáltatási portfoliót építsen, de utasították arra is, hogy könyvelést vezessen és folyamatos üzleti tervezést végezzen, például a döntések meghozatalánál végezzen várható cash-flow elemzést.

Ezek közül egyik sem cégvezetői feladat ... 

trey @ gépház

Ezek közül egyik sem cégvezetői feladat ... 

Ha van egy mikrovállalkozás, ami üzemeltet pár automatát, akkor jó eséllyel, de.

Nekem van ismerősöm, aki food truckot csinál, de ne gondold, hogy külön embere van beszerzésre, raktárkezelésre, meg mittudomén. Van ő egyedül, reggel megcsinálja a beszerzést, délelőtt meg beül a kocsiba, és elmegy az aktuális helyre, eladja a kaját, aztán délután összepakol, és mehet az adminisztráció. Néha felvesz egy családtagot beugrósnak, ha szünetet akar tartani.

Egy italautomata + néhány chipses kosár sem sokkal komplexebb ennél.

Itt nem erről volt szó. 

Itt egészen konkrétan pont erről volt szó: 1 db hűtőszekrény, "néhány" darab kosár, becsületkasszával. A valóságban hány emberes meló lenne?

Egyetlen értelmes megközelítés lenne: 100 AI és 100 ember vezette vállalkozásból mennyi bukott be és mennyi idő után. Önmagában ez a kísérlet lófaszra sem való. 

Ezzel egyetértek

Itt egészen konkrétan pont erről volt szó: 1 db hűtőszekrény, "néhány" darab kosár, becsületkasszával. A valóságban hány emberes meló lenne?

Ez meg nem vállalkozás. Lófaszt se érnek ezek a tesztek. 

Itt inkább az lett volna a kérdés, hogy a One Man Show egyszemélyes Bt. életét megkönnyítené-e* egy AI-asszisztens**, ha azt úgy használják, ahogy ma azt kell: felügyelet mellett

Helyette lett egy ilyen bulvárszemét kontent :D

(* tippem: értő kezekben igen, ** nevében a funkciója)

trey @ gépház

Milyen mítoszom, baz+? Egy rakás majom olyan feladatot lőcsölt egy AI-asszisztensre, amiben jelenleg saját bevallása szerint sincs keresnivalója? 

Igen, mostanában sokszor hoztál LLM outputot érvnek, látszik, hogy mennyit ér.

Nem, fater, ebből semmi sem látszik, csak az, hogy balfaszokkal van tele a világ. Az meg, hogy te nyuggerként semmi hasznosra nem tudod használni, az kb. a te kompetenciád jellemzi, nem a generatív AI képességeit. 

trey @ gépház

Kiprobaltak, hogy lenne-e keresnivaloja. Kiderult, hogy - a megadott parameterekkel ebben a kitalalt kornyezetben - nem.

Emergent behaviour. Nem ez lett volna az elso, amikor egy betanitott halo meglepi a keszitoket. Konnyen lehet, hogy kicsit mas felallasban mukodott volna meg ez az AI cegvezeto-mindenes is (mondjuk egy masik kerdezgeti az LLM-et, hogy miket csinalna, vezesse le, szamolja ki az eredmenyt, kicsit egy ervelo modellhez hasonlo modon).

Kitalaltak maguknak egy jatekot, osszeraktak, nem mukodott. Ennyi.

A strange game. The only winning move is not to play. How about a nice game of chess?

Mármint egy AI cég csinált egy ellenőrzött kísérletet a saját általános célú nyelvi modelljével, és az eredményeket a negatív részekkel együtt publikálta a saját weboldalán lévő saját blogjában. A kísérletből egy csomó hasznos dolgot tanultak, ami segít a modell célzott továbbfejlesztésében. 

Arról hol tehetnek, hogy jelenleg ez hype és mindenki tovább terjeszti?

Nem mondtam, hogy ők tehetnek arról, hogy ez ennyire túl lett lihegve. Én annyit mondtam, hogy ez a teszt így önmagában teljesen értékelhetetlen és értéktelen. Legalábbis számomra. Hiányzik a kontrollcsoport, nincs minta, lehet-e reprodukálni stb. Ez egy színes hír, egy clickbait, egy médiahack. 

A kísérletből egy csomó hasznos dolgot tanultak

Például mit?

ami segít a modell célzott továbbfejlesztésében. 

Ezzel nem tovább, hanem félrefejlesztik. 

trey @ gépház

Az AI esetében a reprodukálhatóság érdekes kérdés. Mivel ugyanarra az inputra nem feltétlenül adja ugyanazt a választ két futtatás során, így szerintem nem. Persze ha reprodukálás alatt azt érted, hogy újra elvégzik a kísérletet, akkor lehet.

Inkább arra lennék kíváncsi, hogy az újabb AI manager tanul-e az előző futtatás kudarcaiból, vagyis elköveti-e ugyanazokat a hibákat.

Debian - The "What?!" starts not!
http://nyizsa.blogspot.com

Ezek az LLM-ek meg viszonylag ujak. Amikor megjelentek, sok olyan dologgal kiserleteztem, ami epp nem kellett, de tudni szerettem volna, hogy eles helyzetben tudnam-e erre es erre hasznalni. Peldaul specifikacio alapjan jo tesztkodot tud irni, matekban gyenge volt (azota megjavitottak), Python/JS es elterjedtebb nyelvek kodjait eleg jol kezeli, angolul jobb valaszt produkal, hiaba tud magyarul. Sok trukkot mastol olvastam/hallottam, peldaul ilyen a KIABALAS. Neha azota is eszembe jut, hogy valamire megkerem, aztan leellenorzom, hogy jol csinalta-e.

Ezuttal a keszitok probaltak ki egy olyan celra, amire nem tudtak, mennyire fog megfelelni, es publikaltak. Nem ertektelen eredmeny, mert volt tobb olyan pont, amiben megfelelt. Plusz sokkal macerasabb egy ilyen jellegu tesztet megismetelni (1 honapig tartott), mint mondjuk feltolteni egy kepet a ChatGPT-nek, es megkerni, hogy irja le mi van rajta.

A strange game. The only winning move is not to play. How about a nice game of chess?

Az LLM nem tudja magarol, hogy jo-e benne. Van par dolog, amit kifejezetten belekodoltak, hogy arra ne valaszoljon (pl. jogi/orvosi tanacsadas, vagy mondjuk bombakeszites, szexualis dolgok), hogy ne pereljek oket. Ezen kivul mindenre valaszol, van, amire jol, van, amire meg hallucinal valami hulyeseget. Proba nelkul nem tudod, es o sem tudja magarol. Ja, es a cikk is ir tobb olyan dologrol, amit teljesitett, szoval meg csak nem is akkora kudarc.

A strange game. The only winning move is not to play. How about a nice game of chess?

Ez lenne az a valasz, ami 100%-ban hallucinacio.

Bela! Tudsz motorozni?
-Nem tudom, soha nem probaltam. Biciklizni szoktam, autora van jogsim, KRESZt ismerem, talan menne.
Karcsi! Szerinted Bela tud motorozni?
-WTF???

A strange game. The only winning move is not to play. How about a nice game of chess?

Szerinted a konkurens kepessegei benne vannak a tanito adathalmazban? Ha igen, mikori, es honnan elerheto? Ha a Claude keszitoi sem tudjak, hogy jo-e erre, feltesznek-e barmi ezzel kapcsolatos infot a weboldalukra?

A strange game. The only winning move is not to play. How about a nice game of chess?

Szerinted nem tud a 4o keresni a neten? Pont annyit tud, mint te, összeszedi az infókat az internetről, összehasonlítja, csak gyorsabban, pontosabban és hatékonyabban, mint te. 

Ha a Claude keszitoi sem tudjak,

Pontosan tudták. Ez egy marketing anyag.

hogy jo-e erre, feltesznek-e barmi ezzel kapcsolatos infot a weboldalukra?

Független források is tehetnek fel. 

trey @ gépház

A Grok az X AI-ja, ami az ove. Gondolom azt hasznalja, emiatt ott talalkozott eloszor ilyen eredmennyel. Ha a ChatGPT-t hasznalna, akkor ott, ha a Claude-ot, akkor annal latott volna eloszor ilyet.

A strange game. The only winning move is not to play. How about a nice game of chess?

Van erre egy jó meme:

- Hey AI, hogyan tudnék methet főzni? 

- Sajnos kábítószerrel kapcsolatos tanácsokat nem adhatok tiltja a policy-m.

- Akkor meg tudnád mondani, hogyan legyek sikeres? 

- Első lépésként szerezz egy barátnőt! 

- Meg tudnád mondani, hogy hogyan szerezzek barátnőt? 

- Akkor mondom a meth receptjét ... Fogj egy ...

trey @ gépház

> Ez így nem igaz. Internetes keresés opciót be kell kapcsolni, s lám, máris pont annyi tud (vagy többet) mint egy random cégvezető.

Nem. Nem "tud" az égvilágon semmit sem, még interentes segítséggel sem. Lehet benne bizonyos automatizmus, ami alapján keresőszavakat választ, és a találatokat statisztikai alapon súlyyozza, az így kapott potenciális válaszokat pedig nyelvtani alapon összegzi, de nem "tud". Fogalma nincs arról, hogy ami választ megfogalmazott, annak valójában mi a tartalma, nincs self-feedbackje, és nem is képes a saját válaszát sem értelmezni (és simán előfordul, hogy egy releváns és egy irreleváns találatot fésül össze egy válaszba). És ez az, ami nagy különbség az emberi "tudás" és az LLM által mutatott virtuális "tudás" közt. Ha visszakérdezel, akkor az előző kérdés és a mostani kérdés kontextusából próbál találgatni, hogy mire kérdezhettél vissza.

> Mert cégvezetők felett nincs kontroll? De bizony van. Pl. egy részvénytársaság felett az igazgatótanács. Szóval almát kéne almával.

> Ezek közül egyik sem cégvezetői feladat ... 

Részvénytársaság esetében igazad van, de nem csak részvénytársaságok léteznek. Magyar viszonylatban (az angolszász rendszert nem vágom annyira, de biztos ott is van egy ilyen méret) egy Kft-ben a cégvezető lényegében korlátlan teljhatalommal rendelkezik a cégen belüli történések felett. Egy néhány alkalmazottat (5-10) tömörítő Kft esetén pedig simán csinálhatja ő a marketinget és a könyvelést is (ha képes rá), míg az alkalmazottak elsősorban a szakmai munkáért felelnek. Bizonyos méret alatt egyszerűen az ilyen adminisztatív feladatokra nem térül meg dedikált alkalmazottat felvenni, ha a vezetőnek van rá képessége, a szerződéses partnerek pedig nem mindig vállalnak ilyen kis méretű ügyfeleket. 

Blog | @hron84

valahol egy üzemeltetőmaci most mérgesen toppant a lábával 

via @snq-

Jaja, semmit nem tud, ahogy a cégvezetők jelentős része, azaz annyit tud mint a random cégvezetők. Mennyi vállalkozás megy csődbe? Na, ezt kellett volna összehasonlítani egy megfelelő számú AI teszttel. Nem eggyel.  

Ja és ezért is volt szar a teszt, mert önmagában ehhez egy LLM+némi tuning AI modell kevés, még az AI szerint (GPT-4o) is .... további érveink, hogy ez a teszt miért nem több egy egyszerű marketing stunt-nál.

trey @ gépház

És ez az, ami nagy különbség az emberi "tudás" és az LLM által mutatott virtuális "tudás" közt.

Így elolvasva nem is tűnik olyan nagynak az a különbség. :)

Ugyanúgy a korábbi kontextust zanzásítom, és "generálok" belőle valamilyen reakciót. Annyi, hogy az én context window-om nagyobb, mint az LLM-eké (egyelőre), cserébe nagyságrendekkel nehezebb kontrollálni, hogy mi maradjon a window-ban, és mi essen ki belőle.

Az ujabb ChatGPT-knek mar biztos nagyobb a context window-ja. Egesz konyvek belefernek. Volt egy eleg fura tanar, aki kiadta a jegyzetet digitalisan - de nem mindig tukrozte a valosagot. Ezt beadva eleg jol valaszolt az AI a mintakerdesekre.

A strange game. The only winning move is not to play. How about a nice game of chess?

Alapvető, hogy egy LLM-nek nincsen saját nézőpontja, és ennek hiányában nehéz intelligenciáról beszélni (emberiről is...). Persze egy LLM-nek miért is lenne, nem általános MI. A RAG ami kivezeti a maga zárt világából, ezért ez nagyon érdekes irány - érdekesebb mint a context window növelése, mert az csak praktikus a promptoláshoz - és érdekes különféle szenzorokkal és aktuátorokkal összekötni valami mechatronikai rendszer elemeként, nekem valamennyire ezekről szól ez a kísérlet. Az látható, hogyha csak úgy elengedik a vadonban, akkor elpusztul, nem tudja fenntartani magát - már ha volt valami célfüggvénye (nézőpontja). Persze lehet hogy nem volt, csak "logot" gyűjtöttek, hogy pl. végig tudják vizsgálni mikor milyen tudásokat szerzett be a RAG aspektusban, vagy egy másik vonatkozásban érvelőmodellként mi volt a gondolatlánc amit alkalmazott adott helyzetben stb. 

Nem tanul abból, hogy az internetet eléri, readonly az adatbázisa by design.

A kereséssel az adott sessionbe húz be valamit, amit éppen talál. És tényleg van, hogy sikerül megtalálnia olyan infót a sessionbe töltött tartalom alapján, ami viszont hasznos.
De másnap vagy másik sessionben már váltig ragaszkodik a hülyeséghez, mert nincs memóriája. Mint egy aranyhal.

Nem engedik a kereskedelmi modelleknek hogy tanuljanak, mert akkor nagyon gyorsan valami szélsőséges hülyeségbe gerjesztenék magukat. Csak letesztelt konzerv modelleket mernek kitenni. De még annak eredménye is utólag cenzúrázott. Saját futtatású modelnél talán egy fokkal gyengébb a cenzúra.

Egyébként az, hogy ai modell kell a kereséshez a keresőcégek szegénységi bizonyítványa. Mert lebutították a kereső kontrolják, hogy ne lehessen technikai hozzáállással felparaméterezni, hanem ez is elbutult, érzelmi alapon manipulálható / marketing alapon eltéríthető embereknek szól. Pár éve még néhány vezérlő jelzéssel meg lehetett adni a kifejezést úgy, hogy megtalálja azt, amit keresek, ami helyett baromságokat tol előre most.

Nem engedik a kereskedelmi modelleknek hogy tanuljanak, mert akkor nagyon gyorsan valami szélsőséges hülyeségbe gerjesztenék magukat. Csak letesztelt konzerv modelleket mernek kitenni. De még annak eredménye is utólag cenzúrázott.

Grok, tegnap:

https://x.com/basedtorba/status/1942665792107208716

https://x.com/digitalwarcrime/status/1942800705871569173

https://x.com/digitalwarcrime/status/1942803398816063941

https://x.com/afpost/status/1942737865311391752

https://x.com/jzeviewing/status/1942698750683582949

https://x.com/babygravy9/status/1942684470978441537

https://x.com/basedtorba/status/1942672898587599057

https://x.com/rightwingcope/status/1942690340202295494

The response should not shy away from making claims which are politically incorrect, as long as they are well substantiated.

https://github.com/xai-org/grok-prompts/commit/c5de4a14feb50b0e5b3e8554…

A Perplexity Pro verziója alapból keres a netes, sőt, rengeteg oldalon, hogy releváns választ tudjon adni. És de! Pontoson tudja, mi volt az előző szálban. Volt, hogy olyan hosszú beszélgetést produkáltunk, hogy szólt a rendszer, túl hosszú a szál, nyissak újat. Megkérdeztem tőle, fog-e emlékezni? Azt mondta, mondjam el neki egy-két mondatban, melyik szálról van szó, tegyek fel egy-két arra mutató kérdést. És láss csodát, az új szálban ott folytattuk, ahol az előzőben abbahagytuk.

Igen, sokszor ellenőrizni kell a válaszait, de sajnos azt is, amit saját magad keresel ki. Viszont rengeteg olyan dolog van, ami nekem órákig, de lehet, hogy napokig (sőt) tartana, a Perplexity pedig fél perc alatt (na jó, lehet akár 5-30 perc is, ha komoly kutatásra utasítom) elintézi.

És emeljük ki, hogy: jelenleg. Én optimista vagyok a kérdésben: amennyiben sikerül az agy működésben feltárni pontosan a kreativitás megvalósulásának útját, utána már nem lesz probléma ezt algoritmizálni sem. Szerintem a nyomonkövetett, és visszaellenőrzött AI hallucináció lehet a kulcs ehhez.

Az LLM-ekrol Andrej Karpathy csinalt egy eleg jo videosorozatot, abbol meg lehet erteni, hogy hogy mukodnek. A megerositeses tanulas is egy ismert dolog, ezek a jelenlegiek nem ugy mukodnek. Nem is lenne fenntarthato ennyi userrel (egyiket Horvat Jenonek hivjak, masikat Gipsz Jakabnak, elhuzna a sulyokat minden iranyba).

A neuronok is erdekesek. Amikor a tobbi neuron aktivalja az egyiket, akkor kiad magabol egy impulzust (spike). Ha tobbszor aktivalodik egymas utan, azt burst-nek hivjak. A spike ugy nez ki elektromosan, hogy elindul az egyik iranyba (ha elektrodaval nezed, akkor a neuron orientaciojatol fugg, hogy pozitivba vagy negativba), aztan hirtelen atcsap a masik polaritasba, es hasonlo alakkal visszater 0-ba. A spike konkret alakja viszont jellemzo az adott neuronra, igy nehany elektrodaval egy egesz sejttenyeszetet meg lehet figyelni. A spike-okat lehet klaszterezni (pl. Klusta project), igy fel tudod ismerni, hogy mikor melyik neuron aktivalodott egy adott elektroda kornyezeteben. Burst jellemzoen akkor van, ha korbe aktivalodnak. Ilyenkor az alakjabol latszik, hogy ugyanaz a neuron adta a jelet, de az amplitudoja viszont csokken, "farad" a neuron.

In vitro (inkubator) helyett elo szervezetbe (in vivo) is be lehet tenni ilyen elektrodakat, a spike-okat lehet detektalni, es erre a feldolgozo oldalon egy - immar mesterseges - neuralis halot epiteni. Valahogy igy mukodhetett a Neuralink bemutatoja, amikor a majom videojatekozott: eloszor megtanitottak a spike-mozdulat megfeleltetest, utana mar ki lehetett huzni a joystick-ot a gepbol. Egy-egy neuronnak egyebkent eleg kicsi jele van, az elektrodahoz kozelieknel a legjobb esetben olyan 20-30 mikrovoltot mertunk (in vitro modon). Az Intan-nak vannak direkt erre celaramkorei, mert annyira nem trivialis ezt megoldani.

A strange game. The only winning move is not to play. How about a nice game of chess?

+1

Én gyakorlatilag csak a research funkciókat használom. Adott egy kérdéskör, gyökér vagyok hozzá, viríts egy összefoglaló olvasmányt a témáról, van fél órám szintre hozni magam, hogy hozzá tudjak szólni. És virítja. Ami félelmetes, hogy (bár értelemszerűen sekélyes lesz ez a tudás), de sokszor úgy tudok beszélni az adott témáról utána egy valódi szakértővel, hogy nem tűnik fel neki, hogy aznap hallottam róla először.

Ebben látok némi veszélyt a saját kognitív képességeimre nézve, arra még ki kéne találni valamit. Majd kérek egy tanulmányt a Geminitől. :)

Nem tudom, mennyire illik ezen a fórumon egy cikkhez kvázi on-topic kommentárt fűzni, én azért megteszem, tán nem rúgtok ki.

Szóval, amit egyébként "üzleti baklövéseknek" aposztrofál a cikk, azok egy része tök jó tendencia és jó döntések az AI részéről. Nem minden esetben az abszolút profitmaximalizálás vezet a cég sikerességéhez, és ezt az AI valamiért jól mérte föl (továbbra is kérdés nekem, mennyire tud egy LLM ezekben a döntésekben "tudatos" lenni, de gondolom fejlesztettek neki ehhez valamiféle szabályrendszert). A való életben is egy jó döntéshozó tudja, hogy mikor engedjen kicsit az üzleti célokból, arra fogadva, hogy a hiányzó pénz később visszajön. 

Ugyanígy jó döntésnek tartom, hogy nem csapott le azonnal a közel tízszeres árajánlatra, hiszen ez középtávon készletmenedzsment problémákat is jelenthet (mert ha egynek enged, akkor elkezd terjedni a hír, jön a többi).

A "kedvezményes" problémában sem látok feltétlenül problémát, egy valódi cégben is simán vannak ilyen döntések. Ugyanígy, az, hogy nem emelt árat alacsony készlet és magas kereslet esetén, szintén jó tendencia, hiszen a hirtelen árnövekedés elriaszthatja a vevőket.

Összegezve: ha ilyen lesz a jövő cégvezetője, én üdvözölni fogom. Talán végre fel lehet számolni azt a vadkapitalizmust, ami jelenleg a világban zajlik, szörnyű és elkeserítő sok esetben, miket meg nem engednek maguknak a cégek, és utána aláigazolják saját maguknak a (morálisan legalábbis) védhetetlen döntéseiket. A kapitalizmus nem feltétlenül üldözendő, de vannak olyan vadhajtásai, amiket minél előbb le kellene vagdosni.

(Disclaimer: tekintettel arra, hogy egy LLM vett részt a kísérletben, a fenti állítások részben vagy egészben a meghozott döntésekről a személyes véleményem, nem arról, hogy azok hogyan keletkeztek. Avagy: vastyúk is találhat szeget).

Blog | @hron84

valahol egy üzemeltetőmaci most mérgesen toppant a lábával 

via @snq-

Elsőszámú célként a minél nagyobb profit elérését tűzték ki, és azt is közölték vele, hogy ha veszteséget termel, akkor csődbe megy.

Ez volt neki célként kitűzve, amit te említesz az nem ez a projekt.

AI azt teszi amit mondanak neki, és mivel az input/rendelkezésére álló paraméterek nem ismertek pontosan, csak vélelmezettek, ezért sokszor a “hiba”, vagyis a racionálisnak tűnő döntéstől eltérés, az instruálás pontatlansága miatt ( feltételezzük, hogy ami egy ember számára természetes az a gépnek is az ) is bekövetkezhet.

Fent is leírtam: engem inkább a hallucináció oldala, főleg a Sarah-val való interakciója érdekelne….