AlphaGo vs. Lee Sedol 1:0 - új szintre ért a mesterséges intelligencia kutatás

Történelmi pillanat: a Google DeepMind által fejlesztett mesterséges intelligencia, az AlphaGo nyert egy go meccset a világbajnok Lee Sedol ellen.

Ez miért is olyan nagy hír? Az IBM által fejlesztett DeepBlue 20 éve, 1996-ban győzött Kaszparov ellen. A go viszont sokkal-sokkal nehezebb, olyan hasonlatokkal szokták leírni, hogy pl. több játékállás lehetséges, mint ahány atom van az univerzumban, ehhez képest a sakk semmiség. A legmélyebb, legnehezebb játék, amit az emberiség valaha alkotott. A számítási kapacitás már 20 éve elég volt ahhoz, hogy a sakkban olyan szintű kimerítő keresést végezzünk (brute force), amivel legyőzhető az ember. A go esetében viszont ez talán soha nem is fog megvalósulni. Léteznek ugyan gót játszó programok, de messze elmaradnak a profi emberi játékosoktól.

Az AlphaGo mély neurális hálózattal (DNN) működik, ami az emberi idegrendszert próbálja utánozni. Egy éve már láthattuk, hogy ez a technológia mire képes, amikor egy program abszolút nulláról, önállóan tanult meg Atari játékokat játszani. Az AlphaGo fejlesztői gyakorlatilag "csak" egy tanuló algoritmust fejlesztettek, a program pedig saját maga tanulta meg magát a játékot és a nyerő go algoritmust. A program eleinte emberi játékokat elemzett, majd egy bizonyos szint után saját maga ellen is játszatták, teszik ezt azóta is, és mindvégig félelmetes sebességgel fejlődött. Nem hátrány, hogy a Google adja mögé a számítási kapacitást, így emberi léptékhez képest felfoghatatlan szintű tapasztalatra tesz szert (a szó szoros értelmében tanul).

A program tavaly októberben legyőzte az Európa bajnok Fan Huit. Már ez is nagy meglepetés volt, hiszen az eddigi algoritmusok alapján még több évtizedre saccolták azt, hogy egy program győzzön egy profi ellen. Mindenki tudta, hogy pusztán számítási kapacitással nem lehet nyerni, a játékban az emberi intuíció a legfőbb fegyver, és program erre elvileg nem képes. Azonban úgy néz ki, hogy a DNN alkalmazásával nagyot ugrott a fejlődés. A fejlesztők ambíciózusak voltak, hamar kihívták a világbajnok Lee Sedolt is. A szakértők még ekkor is óvatosságra intettek, hiszen a profi go játékosok között is rengeteg szint van, és sokan gondolták, hogy a program nem tud annyit fejlődni, hogy elérjen Lee szintjére.

Az első meccset az ötből ma hajnalban játszották, és az AlphaGo nyert. Természetesen érdemes követni a további meccseket is, az angol nyelvű kommentárral még viszonylag kezdők számára is érdekes lehet. De már most kijelenthető, hogy ez nem csak azért történelmi pillanat, mert senki sem tudta előre, hogy számítógépes program erre egyáltalán képes lesz, hanem azért is, mert mindezt úgy tette, hogy közben emberi módon tanult. Ez a technológia elképesztő új távlatokat nyit, ugyanakkor egyben félelmetes is, hogy tradicionális programozással szemben még a program fejesztői sem tudhatják pontosan, hogy milyen algoritmust tanult meg a programjuk.

További részletek és élő közvetítés innen érhető el.

Hozzászólások

>tradicionális programozással szemben még a program fejesztői sem tudhatják pontosan, hogy milyen algoritmust tanult meg a programjuk
Pedig igazán írathatnának a szoftverrel egy "30 kyu to 1 dan in 5 minutes" könyvet.

[insert line here]
B.C. 3500 - DIY Vehicle / A.D. 30 - DIY Religion / A.D. 1991 - DIY OS

Az a helyzet, hogy az algoritmus amit alkottak ismeretlen, mivel egy másik algoritmus alkotta. Egyrészt szedjék a megtanult algoritmust belőle, mert hosszú távon abból tanulhatunk nagyon sokat.
Másrészt (és ezt már a deep blue esetében is mondtam akkoriban) ez a verseny baromi egyenlőtlen a felhasznált energiamennyiség szempontjából.
Amúgy elismerésem a tanulási algoért, de tegyük hozzá, hogy ezt az eredmény a szoftver úgy érte el, hogy olyan mennyiségű go játékot játszott le, amihez egy embernek nem lenne ideje egyszerűen...

FathoM

A DNN modell maga az algoritmus, ebből bármit kiszedni, hát, annyira nem értek hozzá, de szerintem reménytelen :). Kíváncsi lennék, méretre mekkora az a modell.

Az kb. természetes, hogy nyers számítási kapacitásban a gép már rég lehagyta az embert (és precizitásban, nem fárad el), és vagy így, vagy úgy, de ezt érdemes kihasználni. A sakknál ez sima ügy, illetve kellett is hozzá, mert lassabb algoritmus sose végzett volna a kereséssel. Itt az a durva, hogy játék közben nem a számítási kapacitás kell, hanem valami sokkal mélyebb dolog, és csak mellékes, hogy ez a dolog sok számítással állt elő. Előállt volna pontosan ugyanez kevesebb számítási kapacitással is, csak lassabban. Persze, még én is tudnék 100% nyerő go algoritmust írni kimerítő kereséssel, más kérdés, hogy a Nap előbb alszik ki, mint hogy az lefutna :).

--

A nagy számítási kapacitás a modell előállításához kellett csak, nem?
Én legalábbis olvastam valami olyan cikket, hogy az Alphagoo egy gépen futva elverte az összes többi Go programot úgy, hogy 500 játékból csak 1x kapott ki, tehát lehet, hogy a kész modellhez már nem kell erőmű. (De persze nem vagyok szakértő a témában, de pl. a képfelismerős apijuk is elég olcsó, az sem lenne profitábilis, ha nagy erőforrás igénye lenne)

én, mint "sakkozó":

-amikor a Deep blue lecsapta Garik Weinstein nevű csókát, aszittem vége a kedvenc játékomnak ... szerencsére tévedtem (kb. a Gödel tétel lefolyása történt); azóta a sakk "sosem látott magasságokba" emelkedett ...

-szerintem a go-val is ez fog történni ...

zümy

Ja, ez egy jó meglátás. Annyira nem értek a góhoz, de szerintem egy profi kezében hatalmas kincs, ha van egy eszköz, ami kielemez neki lépéseket, és tanulhat tőle. Feltételezem, hogy eddig ilyen eszköz nem volt, illetve nem ilyen könnyen elérhető (öregebb mesterek, könyvek, közepesen béna szoftverek).

--

Nagyon sok az intuíció szerepe a go-ban, a mesterek és könyvek "elavulnak" de ez inkább trend, ahogy kimennek bizonyos megközelítések a divatból. Sokkal régebbi játék a sakknál, nincsenek egyértelműen tökéletes lépések, ezért is kellett szerintem ennyit várni egy ennyire erős AI játékosra. Nem tudom mennyire alkalmas elemezni egy efféle modell, hiszen ahogy fentebb is említették a már legyártott "megközelítés" és algoritmus ismeretlen.

Elemzés pedig pont az lenne, amikor nem a nyerés ténye számít (a gép nyert ergo jobban játszik) hanem a logika ami szerint eljutottál a nagyobb terület megszerzéséig. Gyakorolni persze biztosan remekül lehet vele, de az nem igazán elemzés így önmagában, szerintem.

[insert line here]
B.C. 3500 - DIY Vehicle / A.D. 30 - DIY Religion / A.D. 1991 - DIY OS

Valami értékelhető cikket tud valaki ajánlani? (ahol a szerző mondjuk tudja mi a MI, és, át tudja adni a lényeget nekem (aki nem))

Most 3:1-nél tartanak AlphaGo javára. Szerintem ez simán csak azt jelenti, hogy a 30 milliárd (?) emberi játékból tényleg kiképezte magát, de nem tudott nagyságrendekkel jobb lenni.

Vagy azt, hogy igazából nem a megfelelő 30 milliárd játékot játszotta le vagy hogy elbaszták az implementációt, vagy igazából nincs "ötlete" a programnak (nem találták meg az emberi intelligencia esszenciáját) vagy esetleg a go nem egy olyan játék, ahol ezen a szinten meg lehet biztosan verni valakit, vagy vagy vagy....
:)
De én arra hajlok, hogy Lee Sedol egy nem akármilyen zseni és nem egyszerűen szerencséje volt.

FathoM

A kommentátornak voltak ötletei, és érezte is itt-ott, hogy AlphaGo tipikus számítógépes algoritmus módjára játszik. A Nature papír írja, hogy két hálót képeztek ki, az egyik megmondja, milyen lépéseket érdemes vizsgálni (szélességben vágja a keresési fát), a másik meg értékeli a pozíciókat (mélységben vágja a keresési fát). A humán ellenfél hatalmas mázlival tud lépni olyat, amire a gép "nem gondolt", de onnan még nyerni is kell, és ehhez igazán nagy zseninek kell lenni.

Én személy szerint azt gondolom, hogy igenis megtalálták az intelligencia esszenciáját. Az Atari-t játszó mesterséges intelligenciában az a durva, hogy semmit nem kódoltak be a konkrét játékokról, az abszolút semmiből tanulta meg emberfeletti szinten játszani őket a pixelekből. Az AlphaGo-t ugyan direkt góra tanították, tehát volt egy supervised learning része, de utána meg saját magától fejlődött hatalmasat. Ez pont olyan, ahogy egy gyerek is tanul, szerintem.

Az lenne igazán érdekes, ha AlphaGo-t teljesen unsupervised learninggel tanítanák meg, mert lehet, hogy pont az emberektől tanult alapvetések a gyengeségei :).

--

Mar a mely halok elott is alkalmaztak autoenkodereket, amik kepesek "otletelni". Lekodolja a rendszer a minta feltetelezett eloszlasat es abbol general maganak uj elemeket, hogy kiszurje a zajokat, elkerulje a tultanulast. Bar ebben az esetben, talan meg elony is tud lenni a tultanulas (megtanul szorol szora bizonyos lepeskombinaciokat).

En arra fele hajlok, hogy a 3 meccs alatt azert valamennyire kiismerte Lee Sedol az AlphaGo-t, azert tudott nyerni. De szinte biztos vagyok benne hogy a kovetkezo meccset is a gep nyeri (en eredetileg is 4:1-re, max 3:2-re tippeltem a gep javara). Beszeltem a meccs elott egy magyar Go mesterrel, ot nagyon meglepte az elozo 5:0 is. O is mondta, hogy eddig lehetetlennek tunt gepeknek megverni az embert. Emberi meccseknel viszont az egy dan elony tipikusan 4:1 esetleg 3:2-s gyozelmeket jelent. Az 5:0-bol erezheto volt, hogy legalabb egy nagysagrenddel jobb az AlphaGo mint az europabajnok. Az AlphaGo viszont bevallottan mas, mint a hagyomanyos go programok. A mely halos autoenkoderek sokkal jobb entropiacsokkentest es mintafelismerest vegeznek, mint az 1,2,3 rejtett retegu neuralis halok, nem tanulnak annyira tul, stb. Nem azert jok , mert hasonlitanak az emlosagyra... szerintem egyelore meg csak az elejen jarnak annak hogy hasonlitson (most leginkabb a kisagyra hasonlit szerintem , a limbikus rendszert es a foemlosokre jellemzo reteget, a neokortexet meg csak a deep brain szimulaciok kapirgaljak)
Szerk:
http://www.wired.com/2016/03/final-game-alphago-lee-sedol-big-deal-huma…
Ugy nez ki Lee Sedol szerint az alphago erosebb, ha feherrel van. Megkerte a szervezoket, hogy ilyen legyen az utolso meccs is, mert az "ertekesebb"

Tévedés. Egyrészt 30 millió lesz az, másrészt ilyen nagyon magas szintű profi játékból ilyen mennyiség egyszerűen nem létezik, legalábbis számítógépen rögzített formában. Kellett lennie abban az adathalmazban középszintű játéknak is bőven. Ahogy az egyik meccs utáni interjún is elhangzott, nem is "gyúrtak" direkt Lee Sedol-ra, hanem generikusan tanították, illetve ekkora számosság mellett Lee Sedol pár ezer játéka nem sok vizet zavar (ha meg súlyozottan lenne tanítva, akkor nem lenne generikus, magukat szivatnák meg).

A lényeg az, hogy egy kezdő/haladó szintű go algoritmust sikerült alkotni kezdetben, amit utána önmagával játszattak nagyon hosszú időn át, és ennek a folyamatnak a során magától fejlődött sok nagyságrendet. Össze lehet hasonlítani, hogyan nyert Fan Hui ellen októberben és Lee Sedol ellen most.

--

Ez a cikk amúgy miért nem került ki? Lényegesen érdekesebb, mint a szavazás arról, hogy kinek mit jelentenek a nemzeti ünnepek...

Jelenleg a google meg tudna nyerni egy drónháborút (pici gépkarabélyos kvadkopterek) az egész világ ellen. (Tfh ugyanannyi gépük van nekik is, mint nekünk)
Várjuk a fb hasonló megoldását :)