( XMI | 2023. 03. 29., sze – 19:38 )

Itt elkezdünk a filozófia irányba menni.

Egyrészt szerintem az AGI-t nem úgy kell elképzelni, hogy pontosan arra képes amire egy ember. Ilyen szerintem sem lesz. Olyan viszont szerintem igen, ami úgy fog tudni feladatokat megoldani, hogy elég mindössze a feladatot specifikálni, a gép magától ki fogja találni a megoldás menetét, anélkül, hogy embereknek bármi példát kéne mutatniuk rá. Azért vagyok biztos, hogy lesz ilyen, mert már van ilyen. Az AlphaZero az. Nyilván a "két fél felváltva lép, tetszőleges véges álapotterű táblás játékban" az messze van attól, hogy az emberi feladatok többségét el tudja végezni, de a koncepció működik. Simán autonóm módon eljut odáig, hogy nemcsak a legjobb emberi játékosokat, hanem az ember által készített legjobb engine-eket is megveri sakkban, go-ban, akármiben.

Én valami ilyesmi jellegű AGI-fejlődést képzelek. Ami mindent, amit már tud, azt az embereknél sokkal jobban tudja. És minden generációval le tud fedni valami újabb területet, amit korábban csak mi tudtunk. És nyilván abban rögtön jobb (értsd: gyorsabb, több adatot képes figyelembe venni, stb.) is lesz nálunk. Ez simán lehet úgy, ahogy gondolod, hogy nem lesz egy darab "általános ágens", hanem csak szűketerületű ágensek fognak a kért feladatra betanított szub-ágenseket létrehozni (ez az AlphaZero működési modellje) és végül ezek oldják meg a feladatot.

Fun fact, a chatgpt is tud sakkozni. Pedig erre (szándékosan) abszolút nem tanította senki, nyilván sehol nincs a rendszerben egy modell a sakktábla állásáról. A tanítóhalmazban nyilván voltak játszmák leírva a sakklépések szabvány szöveges jelölésével, és ebből megtanult kb 200-300-as Élő pontszámú játékosként játszani. Igen, hibázik, néha belekever 1-2 teljesen szabálytalan lépést - ebből sejthető, hogy ténylegesen nem "érti" a játékot -, de ezeket kiszűrve képes értelmes partikat lejátszani. Egyszerűen szövegstatisztikai alapon. Egy nyelvi modell. Kezdjük azt a bonyolultsági szintet elérni, hogy már látunk példát "emergens viselkedésre", amikor nem számítunk rá, de mégis kialakul valahogy egy adott problémamegoldási képesség. Akár így is létrejöhet AGI...

"van egy axióma, miszerint semmilyen mechanizmus nem ismerheti meg 100%-ig a saját belső működését, mert az ismeretek tárolására a saját kapacitásánál nagyobbra volna szüksége"

Ezzel azért nem értek egyet, mert ha a saját belső működés nem totál random, hanem valami szisztematikusságot követ, akkor a működési elvei sokkal kevesebb információval leírhatóak lehetnek, mint amennyit tárolni képes. Az, hogy mi megalkottuk és értjük az algoritmust, ami a hiba-visszaterjesztéssel képes a neurális hálók élsúlyait optimalizálni, az nem jelenti azt, hogy értjük, hogy a hálóba utána hogyan kódolódott bele a tanítóhalmazból a tudás. Ez valójában ma is egy nagy probléma az explainable AI témakörben.

A természet valahogy a saját egyszerűbb szabályaival képes volt megalkotni az embert (és persze az összes olyan állatot, ami valamilyen szintű kognitív képességgel rendelkezik), anélkül, hogy lett volna olyan entitás, ami "érti" ezeknek a működését (a hívő emberek ezzel persze vitatkozhatnak). Ez alapján mi is meg tudhatunk alkotni olyan entitást, aminek a működését csak az alap építőkövek szintjén értjük, de akkora méretre fel tudjuk skálázni, hogy a nagy egész működését már esélytelen, hogy felfogjuk.

Na ezért gondolom azt, hogy valahogy lesz AGI. A kérdés csak a mikor, és hogy AI safety problémákra képesek leszünk-e még ezelőtt megoldásokat adni.