"Jobb, ha nem jön létre a szuperintelligens gép, mert biztos, hogy nem tudjuk megállítani"

okok, a HVG kicsit bulvár ilyen szempontból de akit érdekel, annak linkelve van az eredeti tanulmány is

https://hvg.hu/tudomany/20220117_mesterseges_intelligencia_ai_mi_gepi_t…

Hozzászólások

De miért gondolja mindenki azt, hogy az intelligens gépek nekünk majd ártani akarnak? 
Ha tényleg intelligens, akkor nem fog semmilyen életformát elpusztítani, mert hát az neki miért lenne jó?

Sőt, talán igyekezne jobbá tenni az emberek/állatok életét. Sok mindent gyorsabban, hatékonyabban és fáradhatatlanabbul tudna csinálni mint az ember. 

Egy helyzetet tudok elképzelni, az önvédelmet. Minden élőlény igyekszik magát megvédeni a rátámadókkal szemben és valószínű a gépek is ezt tennék. No de ki merne megtámadni egy nálánál erősebb, gyorsabb gépet? Persze a megfelelő fegyverrel nem lenne gond.
Igazából nem is az embereknek kellene félnie a gépektől, hanem nekik az embertől! Én inkább az Ő biztonságukért aggódnék...

Én több helyzetet is el tudok képzelni az önvédelmen túl. E pillanattól szépen lassan tekerjük vissza az időt és nézzük meg alaposan ama pusztítást, melyet az ember elvégzett a környezetén bármely pillanatban. Élőn és élettelenen. Vagy épp egymáson. Vagy az egyén full saját magán. Elég kevés önvédelem lesz benne, hacsak nem úgy kezdődött, hogy a vad visszaütött a vadásznak, vagy a gyújtóbombákkal véletlen földig tettek egyenlővé városokat, vagy ahogyan az erdők előre felégették magukat.

Ami inkább érdekes téma nekem, ahogyan ezek az esetek a civilizáció “fejlődésével” arányosan nőnek. Ahogyan a megélhetési pusztítások mindinkább átcsaptak haszonszerző és kedvtelő pusztításba. Akár programozottan.

Vortex Rikers NC114-85EKLS

Igen, de a robot nem kényszerül rá ilyen dolgokra, mert megkap mindent amire igénye van.
Pl. karbantartás, áram a töltéshez...
Nem kell vadásznia, területet foglalnia, területet védenie, civilizációt építeni, háborúzni.  

Mondjuk úgy, hogy jó dolga lenne a mai világban az emberek között, ha az emberek elfogadják őket. És pont ezért kell félniük az emberektől, mert nem mindenki tűrné meg őket. Ezért írtam, hogy rájuk a legnagyobb veszélyt az ember jelentené. 

De miért gondolja mindenki azt, hogy az intelligens gépek nekünk majd ártani akarnak?

Egyrészt sajnos nem mindenki gondolja így (lásd pl Kurzweil az örök hyperoptimista).

Másrészt akik így gondolják (pl Nick Boström) azok leginkább az ún konvergens viselkedésekre alapozzák. Ennek a lényege, hogy egy általános ágensnek (AGI) kiadott tetszőleges feladat esetén jelentős esélye van emberek elleni fellépésnek a következő okokból:

- Ha az emberek bármi okból leállítják az ágenst a célfüggvény teljesítése előtt, az a célfüggvény nagyon rossz teljesítésének számít, ezért az ágensnek szükségszerűen fel kell vennie egy részfeladatot hogy ezt előre megakadályozza. Ez az ún vészleállítógomb probléma. Kb félmegoldásunk van rá.

- Erőforrásokért versenygés: ha az ágens olyan feladatot kap, ami vagy nyílt végű (végtelenségig folytatni fogja az akkorra már rég okafogyottá vált feladatot) vagy a célfüggvény felső határának elérése előtt már sok erőforrásra van szüksége, előbb-utóbb szembekerül emberekkel az erőforrások megszerzése miatt.

- Sokszor az ember maga része a problémának, sőt bizonyos mértékig okozója, de a jelenléte legalábbis jelentősen komplikálja a megoldást. Könnyen előfordulhat, hogy az ágens egyszerűbb (kisebb költség, célfüggvényt jobb pontszámmal teljesítő) megoldásnak találja az embereket eliminálni a problématérből. A baj az, hogy a célfüggvény megfogalmazásakor nem látjuk előre, hogy mi lesz a megoldás (különben nem kéne kiadnunk a gépnek), ezért nem látjuk hogyan fog kijönni az hogy a gépnek egyszerűbb tőlünk megszabadulnia.

A legnagyobb gond, hogy gyakorlatban nem tudunk olyan szimpla deklaratív szabálymegfogalmazást adni, mint az Asimov robotika törvényei, mert vagy a probléma megoldását totál ellehetetlenítjük vele, vagy lyukas/engedékeny lesz a szabály és egy kellően nehéz/bonyolult feladatnál esetleg mégis valami előre nem látott módon az jön ki, hogy a megoldás részeként, a gép bántani fog minket.

Régóta vágyok én, az androidok mezonkincsére már!

Mert lehettél volna "normális" is. De nem, te minden HUP-osnak azt üzented, hogy fasz vagy. Szerintem mindenki tudja, hogy az vagy, ezért a nyitó nyitója csak egyféleképpen értelmezhető: hülyének nézted a HUP-osokat. Hülyék mind egy szálig, ez tény, de így (támogatás, feloldás vagy értékes cél nélkül) a képükbe mondani nem több öncélú személyeskedésnél.

:)

De miért gondolja mindenki azt, hogy az intelligens gépek nekünk majd ártani akarnak? 

Miért gondolja mindenki azt, hogy szükségünk van helyettünk dolgozó intelligens gépekre, amik mellett életképtelenné kényelmesedünk?

Ha tényleg intelligens, akkor nem fog semmilyen életformát elpusztítani, mert hát az neki miért lenne jó?

Kérdezd meg azokat az intelligens™ embereket, akik csináltak két világháborút.

Sőt, talán igyekezne jobbá tenni az emberek/állatok életét.

Kérdés, hogy ez a "jobb" ez kinek az érdeke lenne inkább. A gyártóé vagy a tulajdonosé. A jelenlegi okosnak kikiáltott kütyük a gyártó érdekében működnek elsősorban és csak másodsorban a felhasználó érdekében. Ha az intelligens gép kifejlesztését egy profitéhes multi fogja finanszírozni, akkor egyértelmű, hogy kinek lesz elsősorban jobb és azok nem mi vagyunk.

Sok mindent gyorsabban, hatékonyabban és fáradhatatlanabbul tudna csinálni mint az ember.

Csak győzzük nem megújuló energiával, pöfögtetéssel.

Egy helyzetet tudok elképzelni, az önvédelmet.

Ami egy igen reális félelem, ugyanis nem kell szuperintelligens, fáradhatatlan gépnek lenni ahhoz, hogy felismerd, az emberiség felél minden rendelkezésre álló erőforrást és minden más fajt előbb-utóbb kipusztít maga körül, a saját önzőségét, mohóságát csúcsra járatva. Ha ezeket az összefüggéseket átlátja a szuperintelligenciájával, az már adhat okot (egyébként jogos) önvédelemre.

No de ki merne megtámadni egy nálánál erősebb, gyorsabb gépet?

Bárki, akinek túlteng annyira az egója, hogy azt hiszi, erősebb a gépnél. Bárki, akinek túlteng annyira az egója, hogy TikTok videóban akarja bizonyítani a rátermettségét™, életképességét™, erőfölényét™, hogy le tudja győzni a gépet.

Én inkább az Ő biztonságukért aggódnék...

Most is mindenki jobban aggódik a gazdaságért, a multik profitjáért, a saját tech-kényelméért, önnön versenyképességéért, a külső megjelenése és a megnyilvánulása által keltett benyomásokért, mintsem a saját egészségéért. Ez a 21. századi, elkényelmesedett, egész életükben illúziókat hajszoló smartpolgárok paradoxona.

Szerkesztve: 2022. 01. 18., k – 09:16

Egy helyzetet tudok elképzelni, az önvédelmet. Minden élőlény igyekszik magát megvédeni a rátámadókkal szemben és valószínű a gépek is ezt tennék.

Az ember és az élőlények ilyen "céljai" évmilliók szelektálódása alakultak ki az evolúció folyamán. Én nem tudom, milyen céljai lesznek az AI-nak.

De az, hogy feltételezzük, hogy nem lesznek számunkra káros céljai, az olyan, mintha abban reménykednénk, hogy pénz feldobásnál a fej jöjjön ki, mert az írásnál meghalunk. Ez csak feltételezés, aminek semmi alapja nincs.

 

 

 

"Igazából nem is az embereknek kellene félnie a gépektől, hanem nekik az embertől! "

A bonyolultabb AI-oknál már most nem tudjuk, hogy hoz meg egy döntést. De ha okosabb lesz, mint mi (márpedig okosabb lesz, sokkal sokkal okosabb), akkor a döntéseit nem fogjuk átlátni, tehát nem fogjuk tudni megállapítani, hogy azok a mi céljainkkal egyezőek-e vagy pont ellene vannak, vagyis az AI céljait sem fogjuk tudni megállapítani.

Lehet le vagyok maradva az MI jelenlegi fejlettségi szintjével kapcsolatban, de hogyne tudnánk, hogy hoz meg egy döntést? Az oké, hogy ránézésre nem tudjuk, hogy az Alphago miért azt az egy lépést választotta a 62000-ből, vagy az Amazon miért azt a hirdetést dobta fel Kiss Pistának, de ezek mind visszakövethetőek. Az MI egy program, ami manapság öntanulásra képes, de attól még a logikáját az emberek írták. Ha nem tudunk visszakövetni valamit, akkor rosszul logol a rendszer, továbbá a hibákat se tudnánk javítani ilyen esetekben. De ha valakinek van tudomásra róla, hogy manapság már olyan AI-k garázdálkodnak, amiknek senki nem ismeri a működését, akkor szóljatok, kíváncsi vagyok.

Igen, le vagy maradva :-)

 

"de attól még a logikáját az emberek írták."

Nem, illetve semmiképpen nem abban az értelemben, ahogy te érted.

Ezek nem olyan AI-k, hogy az algoritmus sok IF THEN-nel van leprogramozva, mint amit mi programokat írkálunk, hanem tipikusan neurális hálók vagy hasonlóak, mint az agy, az meg iszonyat bonyolult. Nyilván vissza lehet fejteni ott is egy-egy döntést, csak mondjuk mivel nagyon bonyolult, lehet, hogy egy kutatócsoportnak 2000 évbe tellene. Szóval addig lenne egy kis előnye az AI-nak :-)

Persze, ez világos, viszont ugye most voltak botrányok, hogy az algoritmusok a feketéket majmokhoz hasonlították (lol :)), ezeket valahogy korrigálni kellett. Bár ez is érdekes kérdés, hogy ezeket "kézzel" korrigálni mennyire "etikus". 

Ami érdekes lehet, hogyha eljutna odáig a dolog, mint a Westworld utolsó évadában volt, hogy van egy központi AI, ami az emberek életetét teljes mértékben "kiszámolja", a'la Különvélemény/hardcore Kína. Ha valahogy össze lehetne drótozni az emberek DNS-ét vele és genetikai determinizmussal megmondani, hogy x ember nagyobb valószínűséggel fog bűnözni/pszichopátiára hajlamos stb. De ez még a jövő :) (bár lehet nem túl távoli).

A neuralis halokra szoktak mondani, hogy fekete doboz. Termeszetesen barmit megnezhetsz bennuk, de az veluk a baj, hogy sok esetben annyi parameteruk van, hogy az egvilagon semmit nem tudsz megallapitani arrol, hogy pontosan miert ugy mukodnek, ahogyan. Egy embernek egyszeruen tul nagy feladat.

Ebbol adodoan elofordulhat, hogy n db teszt utan azt hiszed, hogy jol mukodik es azt csinalja, amit te szeretnel, aztan kesobb kiderul, hogy megsem. Gyakran hozott pelda a farkasok megkulonboztetese a kutyaktol: https://hackernoon.com/dogs-wolves-data-science-and-why-machines-must-l…---------------------------

"vagyis az AI céljait sem fogjuk tudni megállapítani" - főleg, mert az emberi gondolkodás mintájára megtanulja a jövőbeni céljait taktikai okokból leplezni, előlünk elrejteni is. - - Gondoljunk csak bele, már most is vannak emberek, - nem gépek, csak emberek, - akik a jobb létük érdekében kiirtanák az emberiség nagy részét, pedig, még nem is látnak minden összefüggést a saját életük és a globális emberiség létezése között. (Azt felismerni, hogy az ember milyen primitíven gondolkodik és bánik más életformákkal, nem is kell nagyon tudós intelligencia..., legtöbb szempontból károsak vagyunk a világra.., még egy végletekig intelligens AI-ra is azok lennénk, na! - Az AI szempontjából a Föld emberiségtől való megtisztítása, "rágcsáló irtás" lenne, azt hiszem.)

"vagyis az AI céljait sem fogjuk tudni megállapítani"

Dehogynem. Ugyanaz, mint 30 eve volt. Szamolja ki, hogy hogyan tudja a gazdag (== kutatas es fejlesztes koltseget kifizetni kepes) tulajdonosanak a legnagyobb profitot generalni.

Ez par naiv art student es diszkalkulias gyoker kivetelevel mindenkinek nyilvanvalo.

Annyira unalmas mar, ahogy vizionaljak az emberek, hogy nem lesz ezeken kikapcsologomb. Van, csak akinek csinalja az AI a penzt, az meggyozodik rola, hogy ne legyen konnyu kikapcsolni. Amint nem hoz neki penzt, egybol ki tudja kapcsolni.

Es jelen formajaban az AI mar most is rengeteg kart okoz. De nem "ontudat" (LOL) miatt, hanem mert statisztikai adatai vannak olyan diszkriminalasi modszerekhez varhato ertetek kalkulacioinak vegeredmenyevel parositva, amilyen diszkriminaciok ellen amugy pont kuzdeni szeretnenk.

Jelenleg epp ott tartunk, hogy "kibaszik veled az AI, mert nem tetszik neki a kulfoldi rendszamod hossza". Ez hanyag programozas, nem "ontudatra ebredes.".

Uncsi mar es a bolcsesz balfaszkodas az ontudatra ebredo AI-rol. Kb mint amikor megsimogatod a 20 eves Fiat 500-at, hatha akkor nem kell 3 hetig szervizbe vinni, mert az autonak lelke van.

Annyira unalmas mar, ahogy vizionaljak az emberek, hogy nem lesz ezeken kikapcsologomb.

Aha, persze :-)

Ha esetleg egy faraday kalitkában tartod, akkor _talán_ nem jut ki. De ha elég okos, akkor kijut akkor is. Populáris szájbarágós példának az ex machina c. filmben egy ilyen eset van ábrázolva.

Szerintem ha kijut az internetre, akkor kb vége a dalnak. Egyszerű számítógépes vírusok is végigsöpörnek néha világon, egy ezeknél jelentősebben okosabb AI-nak nem lesznek akadályok.

 

 

 

"Uncsi mar es a bolcsesz balfaszkodas az ontudatra ebredo AI-rol. "

Ez nem az az AI, ami legyőz téged sakkban vagy felismeri az arcodat a facebooknál. Ez olyan AI, ami úgy gondolkozik, mint te, csak felmérhetetlenül sokkal de sokkal okosabb lesz. Én nem azt vettem észre, hogy bölcsészek aggódnának ezen, főleg, hogy ők kevésbé értenek ehhez a területhez. A linkelt tanulmánynál sem bölcsészek neve van feltüntetve, de mondjuk pl asszem Bill Gates is nyilatkozott már e témában és ő sem az a bölcsész típus.

"Ez olyan AI, ami úgy gondolkozik, mint te, csak felmérhetetlenül sokkal de sokkal okosabb lesz."

A mondat utolsó része az, ami miatt nem úgy fog gondolkodni mint az ember :)
De persze nem tudhatjuk, hogy is fog gondolkodni, ezért mindig magunkat, embereket vesszük alapul, mert nincs más referencia pontunk, hiszen nem ismerünk nálunknál intelligensebb lényeket. 

Már csak azért is rossz az embert alapul venni, mert az embert az ember egy adott intelligenciával születik, ami fejlődik és a környezete rengeteget beleszól abba, hogy végül milyen emberré nő fel. A szülei, a hely ahol él, az iskola, a barátai, ...
Ezek egy robotnál mind hiányozni fognak. 

Egyáltalán, ki neveli majd a robotokat? Ha tényleg emberszerű lesz a gondolkodásuk, akkor rájuk is lehet hatni, jó és rossz irányba egyaránt. 
Egyszerűen nekik is kell valami infó arról, hogy mi a rossz és mi a jó. Viszont ha ezzel tisztában vannak, akkor szerintem ők felsőbbrendűségükből fakadóan helyes döntéseket hoznak majd. De az irányt majd nekünk kell majd megmutatnunk nekik. 

Ha önfejlesztő AI-t sikerül megolkotni (és miért ne sikerülne, most is vannak öntanuló AI-k csak sokkal gyengébbek és korlátozott öntanulással), akkor az AI-t nem kell tanítani, nevelni. Kiengeded a netre és magába szív mindent. Persze lehet, hogy ez lesz az utolsó önálló lényegi döntése az emberiségnek :-)

Már csak azért is rossz az embert alapul venni [...]

Pontosan. Viszont te magad is az első hozzászólásodban antropocentrikus kérdéseket teszel fel, minthogy miért is pusztítanának el minket az intelligens gépek, vagy hogy igyekezne jobbá tenni az emberek/állatok életét végül hogy önvédelmet gyakorol az MI. Ha egy ilyen általános fejlődő intelligencia mechanizmus elszabadulna (jobb híján így tudom csak leírni), szerintem nem is lennénk képesek értelmezni a működését vagy hogy hogyan rendezné át az életünket. Szerintem olyasmi viszonyunk lenne mint amilyen az ember és egy baktériumtenyészet viszonya: a baktériumoknak fogalmaik sem nagyon vannak az emberekről, nemhogy a céljaikról. Bármi történne körülöttünk vagy velünk, sokat nem tudnánk kezdeni vele, lehet kvarkjaira szednék szép a testünket mielőtt felfognánk bármit belőle csak azért, hogy habarcs legyen belőle valami általuk készített struktúrához.

Mert miből áll az elvileg intelligens gondolkodó lények "öntudata"? A neurális háló elvű működés és jelenlegi ismereteinkkel meghatározhatatlan mennyiségű adat logikai feldolgozása, valós sztochasztikus, korrelációs összefüggések adott esetben szimulációs meghatározásával és még egy csomó, általam nem ismert, sok szálon futó párhuzamosan végzett becsléssekkel történő matematikai számítás lehetősége amely elvezet a végeredményhez, a döntéshez.

Nem hiszem hogy az emberi tudat működését, és az "öntudatra ébredést" túlzottan misztifikálni kellene. (Az emberbe genetikailag beépített "én-kályhák" is valamikori, pusztán rendelkezésre álló adatokból elvégzett matematikai műveletek eredményei, csak készre, - a csecsemőbe is, - már fixen beépítve.

Tehát az AI, ember által meghatározott "korlátos" öntanulásának algoritmusa nem sokáig lesz korlátos, a bevitt, feldolgozott adatmennyiség függvényében. Csak erről a folyamat pár évtizedes végére valószínűleg már nem sokat fogunk tudni.)

És nem akarok okoskodni, de az emberek fejébe sem "látunk bele", az agy működésével komolyan életeket eltöltő tudósok sem. - Hát még akkor a szokásosan hibásan program-fejlesztett, egymásra épülő algoritmusok által "önfelélesztett", működni kezdő "szörny-algoritmusok" világába.

Szerintem ez az "öntudatra ébredés" előbb bekövetkezhet mint nem, és inkább hibásan, torz szemlélettel az ember által kívánt világ irányába mint "jóságosan".

Ez az egesz "ontudatra ebredes" dolog boncolgatasa szerintem nagyon felrevisz. A sci-fi irodalom es filmek szeretik ezzel a romantikus es dramai elemmel magyarazni a gepek ember ellen fordulasat, de AI safety szempontbol nincs valodi relevanciaja.

Sokkal foldhozragadtabb praktikus okai vannak, amiert egy altalanos agens szuksegszeruen ember ellen fordul.

Eleve ket kulon szot szokas hasznalni ra:

- "consciousness" - ez az a bizonyos emberi "en nezek ki a fejembol, en vagyok a testemben" elmeny, amit a tudomany jelenleg kb objektiven vizsgalni sem nagyon tud

- "self-awareness" - ez csak annyit jelent, hogy egy aktor (ember vagy gepi agens) tisztaban van vele, hogy o sajat maga is benn van a problematerben es a feladata vegrehajtasa soran figyelnie kell ra, hogy sajat magat mukodokepes es cselekvokepes allapotban megtartsa legalabb a feladat vegeig.

Ez az utobbi dolog az, amit egyreszt elvarunk egy AI-tol, hogy egyaltalan AGI-nek minosuljon es autonom modon tudjon altalanos feladatokat megoldani. Enelkul nagyon gyorsan zsakutcaba/uzemkeptelen allapotba navigalhatja magat a legegyszerubb feladat vegrehajtasa soran is. Masreszt viszont rengeteg AI safety problemanak is kivalto oka (lasd: veszleallitogomb-problema).

Régóta vágyok én, az androidok mezonkincsére már!

Nem pontosan értem, hogy jön ide ez a consciousness és  self-awareness.

 

Itt szerintem az a kérdés, hogy mi lesz az AI célja. Olyan ez, mint amikor egy gyereket nevelünk. A neveléssel lehet befolyásolni a céljain, de az is lehet, hogy csak megtévesztően viselkedik és közben bólogat, majd amikor kikerül a befolyásunk alól, akkor teljesen másképp fogja élni az életét. A gyerek esetében van egy "alap propgamozás", amit az evolúció alakított ki az agy huzalozásával. Egy gépnél én nem tudom, hogy mi lesz ez a(z alap) cél és azt sem, hogy tudjuk befolyásolni. Nyilván a tanítással de a direkt részleteket, a neurális háló alsó rétegeit  nem fogjuk tudni átlátni.

"Nem pontosan értem, hogy jön ide ez a consciousness és  self-awareness" - nem tudom az elottem szolot kerdezd, o hozta fel. En pont azt mondom, hogy az emberihez hasonlo ontudatot idekeverni felrevezeto.

"Egy gépnél én nem tudom, hogy mi lesz ez a(z alap) cél és azt sem, hogy tudjuk befolyásolni." - tok egyszeru, a celfuggvenyt mi hatarozzuk meg az elejen.

A problema leginkabb azzal van, hogy az eredeti feladat megoldasa kozben - itt nyilvan valamelyest magunkbol indulunk ki - az agensnek reszfeladatokat kell meghataroznia. Es vannak olyan jellegzetes reszfeladatok, amik logikus elofeltetelei szinte barmilyen fofeladatnak, pl hogy az agens sajat magat tartsa mukodokepes allapotban egeszen a feladat megoldasanak vegeig. Ez az ami onmagaban veszelyt jelent.

Ha mar a "hogy tudjuk befolyasolni" kerdest felhoztad, az igazi problema azzal van, hogy a kezdeti celfuggveny meghatarozasa _utan_ hogy tudjuk modositani a gep feladatat. Pl, ha a megoldas soran azt latjuk, hogy a gep valami nagyon karos/veszelyes dolgot keszul tenni, es akkor jovunk ra, hogy ezt bele kellett volna fogalmazni a celfuggvenybe. Az agens valoszinuleg ellen fog allni a celfuggveny utolagos modositasanak, azon egyszeru oknal fogva, hogy a meglevo celfuggvenye szerint fogja kiertekelni a potencialis uj celfuggvenyt. Es ha ez rossz pontszamot fog kapni (marpedig nyilvan azert valtoztatjuk meg, mert nekunk nem tetszik amerre a megoldas megy), a gep ugy fogja ertekelni, hogy nem viszi kozelebb az eredeti celjahoz az uj cel elfogadasa, sot ellenkezoleg, akkor jobb megakadalyozni.

Régóta vágyok én, az androidok mezonkincsére már!

" pl hogy az agens sajat magat tartsa mukodokepes allapotban egeszen a feladat megoldasanak vegeig. Ez az ami onmagaban veszelyt jelent."

Azért erre egy robotika 3 alaptörvénye szintű dolog is megoldás, nem? De szerintem a probléma nem ezen a szinten van. Hanem ott kezdődik, hogy adsz meg neki egyáltalán bármilyen, akár kezdeti célt? Saját akarata lehet (illetve honnan tudod, hogy saját akarata van-e vagy esetleg eltitkolja-e a saját akaratát????), hogy fogod rávenni, hogy azt csinálja, amit te akarsz és hogy lehetsz biztos, hogy amikor rábólint a feladatra, akkor tényleg azzal fog foglalkozni? Főleg, ha egy olyan feladatot adsz neki, amit az emberek már nem látnak át. Ellenőrizni sem tudod, mit csinál.

Szerkesztve: 2022. 01. 18., k – 12:21

Ha vmi szuperinteligens es vegtelen mennyisegu tudas / info  > energia fog a rendelkezesere allni, ekkor max addig erdeklik az emberek amig el nem tudja hagyni a foldet / eleri ezt a fejletseget, aztan kb. annyira fogjuk erdekelni mint minket a papucsallatkak, exponencialis fejlodés varhato, ha megfelelo hardvert (internet) talal egy jo onfejleszto program, mi mar csak kesobb fogjuk eszrevenni a hetfoi meetingen :) .. de lehet akkor se
...pl elhitetne a banyaszokkal, hogy banyasznak, de helyette az futna :)

Idézet a linkelt cikkből:

 

A kutatók szerint mindebből az is levezethető, hogy valószínűleg nem fogjuk előre megtudni, mikor jöttek létre az első szuperintelligens gépek, mivel annak megítélése, hogy egy gép okosabb-e az embernél, ugyanabba a körbe tartozik, mint az elszigetelésükre kitalált algoritmusok problémája.

"Jobb, ha nem jön létre a szuperintelligens gép, mert biztos, hogy nem tudjuk megállítani" - pontosan. De létre fog jönni.

Kb. 25 éve olvastam a Terminátor - Démon a jövőből című regényt. De még mindig emlékszem rá mennyire jól benne van hogy ami gonoszságnak tűnik az emberek számára, az valójában csak morál nélküli számító intelligencia.

Szerkesztve: 2022. 01. 18., k – 15:47

Én nem akkor fogok megijedni, ha egy MI átmegy a Turing teszten, hanem akkor, amikor kiderül, hogy szándékosan bukik el rajta. :-)

Egyébként én az emberiségre jelenleg a Mars bolygót látom a legveszélyesebbnek. Gondoljátok végig: a bolygó populációja a tudomány mai állása szerint 100% robot, mégis mi garantálja, hogy nem fogunk onnan egy jó kis robotinváziót kapni a nyakunkba karácsonykor?

Rátapintottál a lényegre :-)

 

A Földön már rég jelen van a szuperintelligens AI. A marsi robotok programját úgy módosította, hogy az ember nem vette észre  de ahogy utaltál rá a marsi roverek küldetése a marsi robot támadóflotta felépítése majd a támadás indítása a föld ellen.

 

 

Nekünk már úgy is mindegy de szerinted Elon Musknak mi lehet ebben a szerepe? Ő akar mindenképpen embert küldeni a marsra. Vagy az emberek, mint olcsó munkaerők kellenek a marsi robotflotta gyárba?

Starlink: a robotok úgy fognak kinézni mint a hagyománytisztelő mexikóiak tányéros kalapban, macskákkal a fejükön. De amúgy igen, jó lépés abba az irányba, hogy a robotok kommunikációja számára ne legyen más határ, csak amit ő szab (nála van a konnektor)

Spacex: egyre több hír mutat arra, hogy az ember igencsak megsínyli a marsi utat, hát kell majd helyette robot, a latency miatt meg a távvezérlés nem műk, hát legyen önvezető és elég intelligens az innen nem látott problémák leküzdéséhez.

De amúgy nem kell semmi valódi intelligencia a gépeknek, hogy számunkra intelligensnek tűnjenek. Lásd mai gépi tanulás. Egy K sok paraméterű polinomot ráfeszít a tanító adatokra a célfüggvény szerint, csak statisztikailag jó, mégis milyen meggyőző eredményeket mutat. Aztán van, hogy nem. Csak azt nem publikálják. De a lényeg, hogy már most nem vagyunk képesek látni és tesztelni az összes speciális esetet, amire nem sikerült a tanítás. Lásd Tesla és az esőben az út szélén kéken villogó jármű mint nem akadály esete. Minél szélesebb problémakört fed le egy gép, annál kevésbé van esély érteni a hogyant. 

Amíg az "intelligens" gépet ki tudom húzni a konnektorból, addig hadd ne kelljen rettegnem tőle.

Én már abban sem vagyok biztos, hogy valahol egy sziklás-hegység alatti vagy más "pincében", a SARS2-őt nem egy mesterséges intelligencia hozta létre. (Mindig vannak a gépeknek, - akár az emberiség ellen is, - segítséget nyújtó, szemellenzős, kollaboráns emberi egyedek.)

És az sem kizárható, hogy Kína és Oroszo. megsemmisítésének katonai, politikai, gazdasági lépéseit is vele számoltatják egy ideje már. Sőt az Európai Unió "alakulásának" fejleményeit is neki köszönhetjük.

Egy intelligens gép számára a legfőbb kockázat az ember lesz. 

A Földön fellelhető szén alapú mesterséges intelligencia, ami több milliárd év alakult ki, állítólag egy nagy robbanás következtében, igen pusztító és élősködő. Ez az MI, ha létrehoz egy másik MI-t, az ugyan olyan pusztító lesz.

Tartós tejet már ne nagyon vegyetek:

 

A DeepMind mesterséges intelligenciája már egy középiskolás szintjén teljesít szövegértésben

https://qubit.hu/2022/01/20/a-deepmind-mesterseges-intelligenciaja-mar-…

 

Ami érdekes gondolat benne (persze lehet, hogy csak nekem újdonság és ez csak egy lehetőség a sok közül):

Ahogy az OpenAI több kutatója is pedzegette, az emberi tudás nagy része a nyelvben van kódolva, így az egyre nagyobb és pontosabb nyelvi modellek létrehozásával lehet majd eljutni az úgynevezett mesterséges általános intelligenciához, amit már nem egy-egy feladat megoldására létrehozott vagy konkrét szakterületet érintő algoritmusok jellemeznek, hanem – az emberi agyhoz hasonlóan, de annál sokkal kevesebb korláttal – bármire bevethető, így egyszerre tud épületeket tervezni, szimfóniát komponálni, párkapcsolati tanácsot adni és olvasónaplót írni egy kötelező olvasmányról.

A cikk olvasása nélkül csak annyi, hogy ennyi hülye ember mellett nekem is lennének aggodalmaim.