( sinexton | 2022. 06. 30., cs – 08:04 )

Amikor mesterséges intelligenciáról beszélünk, akkor gépi tanulásról beszélünk. Azért mesterséges, mert mi hoztuk létre, és azért intelligens, mert nem kell elmagyaráznunk az adat struktúrát, hanem az eljárás meg tudja mélyen "érteni" az adatban lévő összefüggéseket és ki tudja bontani belőle a szükséges információt. Tehát egy okos értelmezési folyamatról beszélünk, mely teljesen automatikus.

Ez a kibontási folyamat nagyon szofisztikált. Nincs varázslat, minden matematikai, információ elméleti és egyéb tudományos alapokon nyugszik. Nem lélekről beszélünk vagy egyéb mögöttes elvonatkoztatott metafizikai jelenségről.

Viszont mélyen szofisztikált. Ezek olyan paradigmák, melyek jelenleg nem helyettesíthetők más területtel. Amikor sok bemeneti paraméterhez meg tud tanulni egy kimenetet, majd az új paraméterekhez az ismeretlen kimenetet megmondja adott megbízhatósággal (mely függ a tanító adat minőségétől stb), ott olyan számítás zajlik le relatíve gyorsan, amelyet sehogy máshogy nem tudunk kiszámoltatni. Magasan intelligens számítás zajlik. Intelligens, mert értelmi összefüggések megértése zajlik anélkül, hogy bármit elmagyaráznánk.

Van feature engineering amellyel segítjük a megértést, de a lényegen ez nem változtat. Néznénk mint maki az új kapura, ha ezen eszközök nélkül kellene megértenünk az adatban lévő összefüggést. Bármilyen klasszikus algóval lehet próbálkozni, ami mintákat keres az adat struktúrában, megbukik gyorsan a gépi tanuló algoritmusokkal szemben. Ez igenis nagy ugrás az emberiség tudományában.

A sebességről is érdemes szót ejteni. Mindig az exponenciálisan elrobbanó kombinációk ellen harcolunk a számításokkal, mint emberiség. A megoldandó problémák gyorsan el tudnak robbanni 1 órás számításról több évre, ha nem szofisztikált az eljárás. Ha négyzetes vagy köbös az idő növekedése az adat lineáris növelésénél (tehát pl. 10-szer annyi tanítási adat 10^3-on, vagyis ezerszer annyi időt követel), akkor az komoly probléma.

Márpedig brutál nagy a kombinációs tér. Gondoljatok bele, hogy ha 10 változóhoz keresünk egy kimeneti választ és változónként csak 10 lépés szint van az értékben, akkor is 10 emelve a 10. hatványra a bemeneti kombináció. Csak 10 lépésköz! És akkor még nem érintettük az adat sorok közti összefüggést. Gyorsan évekről beszélünk bármilyen erős számítógép cluster esetén is adott esetben, mert az exponencialitást nem tudja legyőzni.

Nézzük például egy olyan gyakorlati felhasználást, melynél ismert a beteg neme, súlya, haj színe, életkora, min, max és közép értékű vérnyomása, cukor szintje reggel és este, előző betegségei, jelenlegi baja stb, és keressük a minél jobb kimenetet a kezelésére, mely akár több változós, például milyen gyógyszerből milyen mennyiséget és milyen alkalmazással adagoljunk, hogy a lehető legjobb hatást érjük el leggyorsabban.

Ha van elég adat, akkor több tízezer alternatív jövőt le tudunk generálni a különböző kezelési módokhoz és abból a legjobbat választani. Hihetetlen erős a paradigma. Ezt mással nem tudjuk kiváltani, mert egy magas dimenziójú térben lévő komplex összefüggésekről van szó.

Erős különbségek vannak az algók között. Némelyek gyorsan tanul, de korán letörnek hatékonyságban (a tanító adat növelésével csak egy ideig tud nőni a tanulási hatékonyság). Másiknál fordítva. De más a tanítási idő. Illetve különbség van a zajra való érzékenységben. Nagy a terület, komplex a működés, de nagyon hatékony. Itt erősen érvényes, hogy célhoz választunk eszközt. Ahová jó a véletlen erdő, oda nem feltétlen jó a neurális háló és fordítva.

Új kutatási vonal a meta tanulás. Itt a tanulást is tanulni szeretnénk a géppel. Mert a gyakorlatban mindig kevés az adat. És ezért a kérdés mindig az, hogy hogyan tudunk minél magasabb szintű és minél megbízhatóbb következtetést levonni. Ugyanis valós univerzumunkban sose áll rendelkezésre 100% megbízhatósághoz információ. Mindig infó hiányból kell döntenünk. Emberként is így működünk. Súlyozódnak az idegi kapcsolataink és a sok rétegen keresztül egy számunkra megérthetetlen de egy erős és szofisztikált döntést hozunk.

Fontos paradigmánk a megerősített tanulás, melynél visszacsatolással adjuk meg a kimeneti választ és így az ismeretlen kombinációs teret öntanulva járja be, mint a szavannán egy új szülött állat. Itt érdekes újítás a Q függvény.

Hónapokat lehetne róla beszélni, hogy mi van ha nincs elég adat, hol jönnek be a stat eljárások előnyei, melyek kis adatnál is tudnak garanciával szolgálni, és ehhez hol lépik át az előnyt a gépi tanulások, mekkora előnnyel, stb. Hatalmasra nőtt a terület, mely komoly interdiszciplináris ismeretet igényel.