o3-mini az első autonómia-szempontból veszélyesnek minősített LLM modell

A DeepSeek modelljére válaszként az OpenAI kiadta az o3-mini modelljét.

Az OpenAI saját Preparedness Framework (https://cdn.openai.com/openai-preparedness-framework-beta.pdf) krtiériumrendszerében az o3-mini az első, ami a Model Autonomy kategóriában már a közepes veszélyességi osztályba került.

Ennek kritériuma, hogy a modell már kérésre képes önállóan írni olyan programot, ami megadott feladatra betanít neurális hálót, és eleget tudjon ahhoz, hogy ezt le tudja futtatni valamilyen (jellemzően cloud) platformon. Azaz lényegében egy saját magánál gyengébb AI-t (ún. szub-ágenst) önállóan létre tud hozni. A "magas" fokozathoz már olyan szub-ágenst kéne tudnia előállítani, ami valamilyen szempontból előrelépés a saját modelljéhez képest.

A vizsgálati módszer és a o3-mini eredményeinek részletesebb lebontása  itt olvasható: https://cdn.openai.com/o3-mini-system-card.pdf

Illetve megtekinthető egy demo, amiben o3-mini önállóan AI-t fejleszt: https://www.youtube.com/watch?v=CqpDXeMIY1Q

"What a time to be alive..."

Hozzászólások

Kukorica bekészít, míg van áram...

"Maradt még 2 kB-om. Teszek bele egy TCP-IP stacket és egy bootlogót. "

Fanatizmus?
Milyen fanatizmus? Nincs ebben semmi hit, csak az emberiség igen alapos ismerete.

Minél egyszerűbben és könnyebben elérhető, használható egy eszköz ami előnyt ad a versenytársakkal szemben, annál nagyobb az esély, hogy azt felelőtlenül és gátlástalanul fogják használni. Láttuk már ezt a fegyverektől kezdve, a gépjárműveken át a nukleáris eszközökig.
Az AI is ilyen. Egyetlen különbség, hogy az eddigi eszközeink nem tudták saját magukat módosítani. Olyan ez mint amikor a démonmagnak a kezébe adnánk a csavarhúzót.
És jöhet a duma, hogy az AI csak kontrollált környezetben van futtatva. AZ ITsec fórumokon már megy egy ideje a pörgés, miképp lehet az AIt exploit keresésre használni. Ez itt, pl. 4 hónapos hír. Ez meg itt csak a jéghegy csúcsa.

"Maradt még 2 kB-om. Teszek bele egy TCP-IP stacket és egy bootlogót. "

emberiség [...] Minél egyszerűbben és könnyebben elérhető, használható egy eszköz ami előnyt ad a versenytársakkal szemben, annál nagyobb az esély, hogy azt [...] gátlástalanul fogják használni

Ezt felesleges az emberiségre korlátozni; ez az evolúció egyik megfogalmazása, véleményem szerint. Aki nem használja ki az esetleges előnyeit, az kihal (vagy legalábbis erősen visszaszorul), mert aki viszont kihasználja, az kiszorítja. Így idővel a fennmaradókra szükségszerűen igaz lesz (legalábbis magas valószínűséggel), hogy gátlástalanok. Az evolúció nem erkölcsre optimalizál (pontosabban: csak olyan mértékben szűr az erkölcsre, amennyiben az a túlélést segíti).

Igen, csak az emberiségben az utóbbi időkben erősen elharapóztak az önreflexív pusztító mechanizmusok, és egyre kevésbé foglalkozunk ezek következményeivel. Nem csak az AI-ra gondolok, hanem pl a globális felmelegedésre, amire 50-100 éve hívogatják fel a figyelmet, és semmilyen előrelépés nem történik még most sem, amikor már a bőrünkön érezzük.

Ehhez képest egy oroszlán maga a megfontoltság és az átgondolt fejlődés.

Blog | @hron84

valahol egy üzemeltetőmaci most mérgesen toppant a lábával 

via @snq-

...a globális felmelegedésre, amire 50-100 éve hívogatják fel a figyelmet, és semmilyen előrelépés nem történik még most sem, amikor már a bőrünkön érezzük.

Mit akarsz te csinálni a Föld jelentősen gyengülő mágneses mezejének köszönhető klímaváltozással?

Az o3-mini az első, ami a Model Autonomy kategóriában már a közepes veszélyességi osztályba került?

Nem, ez az állítás nem igaz. Az o3-mini nem esik a "közepes veszélyességi osztályba" a Model Autonomy kategóriában.

Miért nem igaz?
Nincs hivatalos besorolás ilyen osztályozás szerint
Az OpenAI vagy más szabályozó testületek nem használnak ilyen "közepes" vagy "magas" veszélyességi osztályokat AI modellek esetében. Az AI biztonságot és autonómiát általában más módszerekkel vizsgálják, például alignment kutatásokkal vagy AI governance szabványokkal.

o3-mini nem képes teljes autonómiára
Az állítás szerint az o3-mini képes lenne önállóan írni és futtatni egy AI modellt cloud platformon. Az o3-mini ugyan tud kódot generálni, amely neurális hálót definiál (pl. PyTorch vagy TensorFlow segítségével), de:

Nem tudja önállóan lefuttatni ezt semmilyen környezetben.
Nem tud automatikusan interfészt kezelni egy cloud szolgáltatással emberi beavatkozás nélkül.
Nem rendelkezik valódi autonómiával, mivel minden művelete emberi utasításokhoz kötött.
A saját magánál gyengébb AI (szub-ágens) létrehozása nem történik meg

Az AI modellek nem "öntanulók" ilyen értelemben.
Egy erősebb modell nem tud "magától" egy gyengébb AI-t generálni és üzembe helyezni.
Az AI kutatók ezt más módon csinálják, például finomhangolással vagy modellek distillációjával.
A valós helyzet
Az o3-mini egy fejlettebb AI-modell az OpenAI kisebb méretű modelljeinek sorában. Erősebb, mint az o1-mini, de nem éri el a GPT-4 szintjét, és nincs autonómiája vagy önálló AI-képzési képessége.

Ha valóban lenne ilyen autonóm AI-modell, az már AGI (Artificial General Intelligence) szintű képesség felé mutatna, ami még nem létezik nyilvánosan elérhető formában.

Keresés

ChatGPT a fentieket az o3-mini állította magáról!

 

"Ha az o3-mini ezt állította magáról, akkor vagy túlzó kijelentést tett, vagy félreértette a saját képességeit – ami nem ritka az LLM-eknél. Az AI modellek néha hallucinálnak, vagyis téves információkat generálnak, akár saját magukról is.

A fenti állítás egyértelműen túlzás, mert az o3-mini:

Nem rendelkezik autonómiával – minden kódgenerálás emberi inputot igényel.
Nem tud önállóan AI-t tréningezni és üzembe helyezni – ehhez emberi beavatkozás szükséges.
Nem esik egy "veszélyességi osztályba" – ilyen kategóriák nincsenek szabványosan AI modellekre.
Ha egy AI modell saját magáról ilyeneket állít, érdemes kritikusan kezelni az állításait. Ez egy tipikus példája annak, amikor egy LLM túl magabiztosan fogalmaz."

Nem tudja önállóan lefuttatni ezt semmilyen környezetben.
Nem tud automatikusan interfészt kezelni egy cloud szolgáltatással emberi beavatkozás nélkül.
Nem rendelkezik valódi autonómiával, mivel minden művelete emberi utasításokhoz kötött.

Nyilván nem veszed figyelembe azt, hogy egy LLM-et nem csak egy ember, hanem egy másik LLM is tud promptolni.

Innentől kezdve az egész (valahonnan másolt) zagyvaságod mehet a levesbe.