Miért AI az AI?

Kiteszem blogba egy válaszom:

https://hup.hu/comment/2801903#comment-2801903

Hozzászólások

Szerkesztve: 2022. 06. 30., cs – 09:32

Kiegészítés:

A tanulási folyamat a következőképpen zajlik:

A tanulási fázisban megmondjuk a bemeneti adatokhoz a kimenetet is.

A kérdés fázisban pedig csak a bemenetet ismerjük, a kimenetet nem. Itt megmondja a kimenetet nekünk az eljárás.

Ezek után kérdezgethetünk a AI-tól teljesen új információkat.

Ilyen egyszerű nagy vonalakban nézve. Tehát véges adatra tanítunk és végtelen kombinációra kérdezünk.

A válasz több fajta lehet. Lehet bináris, melynél eldöntendő a kérdés (igen / nem), ez a classification területe (osztályba sorolás), lehet egy folyamatos szám érték, ez a regressziós elemzés területe. Lehet csoportosítás, ez a clustering területe. Lehet meglévő adatból való kiválasztás furcsaság alapján, ez az anomália detektálás területe.

Nézzünk egy példát regresszióra: keressük, hogy egy termál fürdőben mennyi ember várható adott napon. Ekkor a nap reggelén elérhető számunkra például a következő információ:

- időjárás: hány fok van, mekkora a szél, páratartalom stb

- naptári infó: milyen nap van (hétfő, kedd), hónap vége mennyire van távol, van-e ünnep stb

- tegnap mennyien voltak, milyen volt a korosztály eloszlás stb

- további változók

Ezek a bementi paraméterek. A múltban erről van tanító adatunk, melyhez elérhető a válasz is, hogy végül mennyien jöttek. A jelenben csak a bemenetet ismerjük, és a kimenetet keressük. Vagyis azt, hogy mennyi ember várható.

Meg tudja tanulni az eljárás és értelmezni az eddigieket és válaszolni a mostanira. Mi is ugyanezt tesszük emberként.

Szia!

Ez a fürdős példa csak példa, vagy van rá működő megoldás is?

Én nem csináltam rá mert másra specializálódtam, de minden további nélkül tud működni.

Természetesen rengeteg további munkát igényel, Például nem mindegy, hogy az eljárás hatékonyságát hogyan elemezzük. Mert ugye nagyon számít az, hogy milyen minőségű lett a tanulási folyamat.

Ha csak zajt adunk be, akkor zajt kapunk válaszul. Másképp fogalmazva, elemezni kell, hogy mennyire pontos válaszokat fogunk kapni. Ez önmagában nagy terület. Kereszt validáció jó például, ahol "letakarjuk" az adat egy részét és csak felére tanítunk például, és mivel a másik részénél ismerjük a választ, ezért megkérjük az AI-tól a választ oda is, és összehasonlítjuk, hogy mennyire pontos.

Ez a metrika nem mindegy milyen és hogy számoljuk. Ide hasznos matek háttér. Mert értenünk kell hogy pontosan mit számolunk és milyen szempontból kapunk választ a pontosságra.

Itt is sok buktató van, mert nem szabad kódolva lennie a tanító adatban a teszt bemenetek válaszának. Ugyanis gyorsan megtalálja az AI.

Tehát ha az előző napot tároljuk, akkor nem jó a véletlen kiválasztása a teszt halmaznak, mert sok esetben kódolva lesz a válasza a tanítóban. stb.

Tehát kivitelezhető, de hozzáértést igényel.

Na, ennél azért jóval bővebb és több ága van a mesterséges intelligenciának, mint csak a gépi tanulás. Tény, hogy felkapott és nagy visszhangot kapott terület, de ennél több az AI.

Azért mesterséges, mert mi hoztuk létre, és azért intelligens, mert nem kell elmagyaráznunk az adat struktúrát, hanem az eljárás meg tudja mélyen "érteni" az adatban lévő összefüggéseket és ki tudja bontani belőle a szükséges információt. Tehát egy okos értelmezési folyamatról beszélünk, mely teljesen automatikus.

Ehhez kapcsolódva, kicsit aggódva nézem az EUnak az AI alkalmazásokra vonatkozó iránymutatását, egészen pontosan a magyarázhatóságra vonatkozó követelmény megfogalmazását: 

AI systems and related human decisions are subject to the principle of explainability, according to which it should be possible for them to be understood and traced by humans.

Attól tartok, hogy erre hivatkozva gyakorlatilag lehetetlenné próbálják tenni ML modellek alkalmazását komolyabb üzleti folyamatokban. Ez szerintem nagy övön aluli ütést vinne be az egész szektornak, és a döntéshozók dilettantizmusát látva sajnos elképzelhetőnek tartom, hogy megvalósul ez a törekvés. 

Csaba

Egyetértek. Sajnos valszeg ahogy mondod, itt is nem kompetens személyes akarnak dönteni. Illetve szerintem a piac fékezése is céljuk. Aki a piac tetején van, az fékezni akarja az innovációt, mert neki csak rossz irányba fordulhat, mert mások a piac tetejére akarnak mászni. Teljesen világos.

Viszont az átvilágítás szerintem eddig sem volt probléma. Egyrészt össze lehet kapcsolni és összehasonlítani valós időben az okos modellek kimenetét a naiv modellekkével több más szempont alapján. Kvázi hogy egymást tartsák kontrollban. A naiv modelleknél ráadásul általában garantálhatóságok is vannak. És ha nagy a különbség (extrémitás van jelen), akkor humán felügyelet vagy beavatkozás is lehetséges.

Rengeteg dologtól függ. Illetve ismerve a legbelső működést, világos a cél függvény, hogy mire optimalizálok. Így nincs olyan, hogy hirtelen rosszul dönt az AI. Egyrészt a modellek alkalmazását megelőzi egy validáció, melyben a pontosság mellett a megbízhatóságot is validáljuk. Kvázi a validációt is validálhatjuk hipotézis tesztekkel. Ezek sokszorosan erősebb döntési mechanizmusok, mint egy emberi intuíció, amelyet jelenleg sok helyen alkalmaznak. Tehát ha fontos kérdésről van szó, akkor kizárólag AI mellett szavazok HA (és 3-szor HA):

1) megfelelően ellenőrzött az adat

2) megfelelő a validációs folyamat

3) a validáció eredménye az, hogy megfelelő pontosságot hoz

4) az éles használatot megelőzte hosszú gyakorlati teszt

Ezt még meg lehet fejelni rengeteg matekkal, melyekkel a rizikó mértékét csökkentjük a gyakorlati teszt során.

Azt kell látni, hogy ehhez képest az életben az emberi döntésnél lutri van hasból döntéssel, erős kognitív disszonancia mellett.

Mivel nem az AI döntését kell igazolnunk, hanem a validációs folyamatot, így nem probléma a magyarázhatóság kérdése. Persze törvényileg ezt is ki lehet fordítani bizonyos szereplők érdekei mentén.

Ha valami kiutat tud adni az emberi szenvedésből (nyersanyag, egészségügy stb), akkor jelenlegi tudásom alapján az az erős sejtésem, hogy kizárólag az AI megfelelő alkalmazása tud megmenteni minket. David Sinclair britt genetikus mondja, hogy már csak gépi tanulással tudnak elemezni olyan biológiai folyamatokat, melyek komplexitása értelmen felüli.

Lehet rosszul is használni, de a jó használat nélkül mindenképpen bajban vagyunk, mert a pár kevés lehetőség mellett az okosabb döntés a jobb irány (minél korábban minél jobb döntések meghozatala). Ehhez pedig rengeteg bemeneti változót kell egyszerre értelmezni. AI nélkül nincs más paradigmánk erre.

Ha megnézzük a Tesla baleseteit, akkor a big picture-t is vizsgálni kellene. Tehát ha elnézett a ködben egy út mellett sétáló embert, akkor tegyük fel a kérdést, hogy az összes Tesla összes kilométerét arányosítva az emberekéhez milyen egységnyi időszakra eső baleseti rizikó faktort kapunk? Ha jót, akkor nincs kérdés, ha pedig rosszat, akkor ki lehet adott esetben jelenteni, hogy a fenti "HA" részek nem teljesülnek.

Szerkesztve: 2022. 06. 30., cs – 15:56

Egy példa regresszióra:

https://i.imgur.com/xulBHbr.png

A bal oldali 10 oszlop a bemeneti változó. A jobb oldali kékek a válaszok. Ez a múltbeli valóság.

Vagyis a bal oldali 10 oszlop kérdésére a jobb oldali kék kimenetet kapjuk.

Milyen kimenetet várhatunk legalul a piros kérdőjelre a mellette lévő 10 bemenetnél?

Képzeljük el ezt 10 oszlop helyett 100-al, és 30 sor helyett 100 ezerrel. És 1 kimenet helyett többel.