Sam Altman fired as CEO of OpenAI

Hozzászólások

Azt hittem ez valami vicc, de tényleg komolynak tűnik. Ráadásul Greg-et is kirakták a board-ból, amiért instant felmondott. A totális arcvesztést ugyan részben próbálták kompenzálni azzal, hogy Mira (CTO) lett az új CEO, aki ugyan késői csatlakozó, de nagyon népszerű lett a világban, de rögtön rontottak a helyzeten azzal, hogy bejelentették, ez csak átmeneti. 

Kíváncsi vagyok életben marad e a cég vagy az alig lemaradásban lévő versenytársak kihasználva a helyzetet elszívják a munkaerőt. Megkockáztatom akár segítettek is a helyzet kialakulásában.

Amúgy nem teljesen ért váratlanul Sam mint kommunikációs arc lekeverése, az utóbbi időben kicsit mintha belegárgyult volna a szerepébe, gyakorlatilag azt hangoztatta, hogy istent alkotnak épp és már csak pár lépésre vannak tőle.

Szerkesztve: 2023. 11. 18., szo – 09:06

uh. hostile takeover?

Gábriel Ákos

Meg kell kérdezni az ügyről a ChatGPT-t. Persze azt fogja mondani, hogy sajnálja, de 2021-ben lezárult az adatgyűjtés.

Szerintem valamit eltitkoltak a vezetőség előtt az új iphone gyilkos hardverrel kapcsolatban

500-nál többen felmondanának a 700 főből és átmennének az ms-hez
https://twitter.com/karaswisher/status/1726599700961521762

Mondjuk eléggé fura, hogy az ms-hez mennek át, ha az a bajuk, hogy a profit lett az első. Nekem úgy tűnt, hogy pont az ms-sel kötött üzlet sajátította ki profitszerzés célra az egészet.
https://www.geekwire.com/2023/sam-altmans-ouster-puts-a-new-twist-into-…

  1. Baromi jó reklám, hisz annyira jó lett a cucc, hogy a saját anyja is fél tőle
  2. Nem fél időben segítséget kérni, hogy ne ő legyen az egyszemélyi felelős, amikor rászabadítja a világra a gyerekét
  3. Látta mi fő a laborban...

Ne felejtsd el, hogy a jelen állapot már elég volt, hogy felrúgja a technológia a homokozót, és ő baromi gyorsan akar haladni, nem vár arra, hogy a többiek utolérjék, cserében a világ nem tud időben érett lenni amikor kijön egy AGI a cső végén. 

Én ezt arra hasonlítanám mintha Oppenheimer a bomba átadása után könyörgött volna hogy ne használják fel.

Szerintem az OpenAI - mint cég - egyik legnagyobb feladata - kihívása lesz / lenne az AI elfogadtatása, nem érzem hogy ebben segítene ez a levél.

Szerkesztve: 2023. 11. 21., k – 09:08

Azért ez még viccnek is szánalmas.

1. felmondanak Sam-nek, majd össze-vissza hazudoznak (még cégen belül is), hogy miért
2. Sam bejelenti, hogy akkor inkább saját vállalkozásba kezd
3. erre tömegesen mondanak fel
4. erre felajánlják, hogy jöjjön vissza (ez a legviccessebb az egészben, tiszta kisdedóvó szint)
5. mégsem lesz saját cég, elvileg M$-hez megy, bár erről a CEO nem tud (ki hiszi el, hogy Satya nincs képben egy ilyen horderejű kérdésben?)

Szerintem az áll az egész mögött, hogy mostanra világossá vált a befektetőknek, képtelenség tovább hazudozni arról, micsoda fasza dolog is ez, hisz valójában nincs jövőképe, nincs továbbfejlődési iránya (ebből a technológiából sosem lesz AGI), ezért inkább most bűnbakkeresés megy a háttérben, és ennek a felszíni kivetülését látjuk ebben a bohózatban. Magyarán kezd kipukkadni a lufi.

A valóság ugyanis az, hogy a ChatGPT nem intelligens, ezért mesterséges "intelligenciának" hívni szemenszedett hazugság. (Ahhoz, hogy valamit intelligensnek tekinthessünk, minimum kellene rendelkeznie önképpel, valamint ebből kifolyólag önfenntartási ösztönnel. Na ezeknek az MI-knek ilyenjük még véletlenül sincs, ezek nem egyebek feltupírozott autocomplete-nél.) A helyzeten tovább ront, hogy semmire sem jók, mivel sokszor hallucinálnak és hibás eredményt adnak. (Nem mindig, csak néha, de sose tudhatod, hogy egy adott eredmény épp jó-e vagy sem, magyarán használhatatlan.) Ráadásul ennek az oka kijavíthatatlan, mert a felhasznált technológiából következik. Magyarán ez a technológia minden hype ellenére egy zsákutca.

És akkor mi a beharangozott "jövőképe" az OpenAI-nak és az M$-nek? Mindent erre a megbízhatatlan technológiára akartak ráhúzni. De még a wc lehúzóba is beleépítik. Most komolyan, ugyan, mi baj lehet belőle...? Nem csoda, hogy kell nekik egy bűnbak, mielőtt még "the shit hits the fan", ahogy az angolok mondják. Azt értem, hogy befektetőknak csak most esett le, hogy átbaszás az egész, de az nem értem, a technikai szakemberek hogy gondolhatták komolyan, hogy megúszhatják ezt az átverést.

A teljesség kedvéért, szerintem nem rossz cucc ez, csak épp arra kell(ene) használni, amire való: mintafelismerésre és autocomplete-re. Akkor jól tudna működni, ha csak erre akarnák használni, minimalizált, jól ellenőrzött adathalmazon betanítva egy-egy célfeladatra. Pl. arra lehetne használni, hogy felismerjen egy röntgenképet, ahelyett, hogy azt akarnák tőle, próbáljon meg egy saját röntgenképet alkotni. Aztán lenne egy másik is, mondjuk versekkel betanítva, plágiumellenőrzésre. Na, sok ilyen kis független "MI" használható lenne, de nem ez a ChatGPT monstrum, ami mindenféle ellenőrizetlen adathalmazon lett betanítva, és nem is felismerésre akarják használni, hanem arra, hogy alkosson valami újat ebből az ellentmondsáokkal teli összehányt valamiből.

Az esetleges hallucinációkból nem következik az, hogy használhatatlan, megbízhatatlan.

Az intelligens emberek is tévednek néha, nem? Sőt, továbbgondolva, az egész világunkba bele vannak szőve az emberi hibalehetőségek és ezeknek a kiküszöbölésére mindenféle mechanizmusok.

Erre biztosan lesznek az AI világban is workaroundok, például a swarm projektek érdekesek. Több GPT agent hierarchiába szervezve, egymás közt kommunikálva, apránként iterálva halad a megoldás felé.

"Everything fails, all the time."

Az esetleges hallucinációkból nem következik az, hogy használhatatlan, megbízhatatlan.

Dehogynem. Van egy számológéped, ami általában jól működik, de néha rossz eredményt ad, akár még ugyanarra a bemenetre is. Használnád ezt a számológépet?

Az intelligens emberek is tévednek néha, nem?

Pont ezért alkottunk számítógépeket, amik determinisztikusak. Semmi értelme egy olyan megoldásnak, ami éppúgy hibázik, mint egy ember, de még többe is kerül, meg rengeteg áramot is fogyaszt mindennek tetejébe.

Sőt, továbbgondolva, az egész világunkba bele vannak szőve az emberi hibalehetőségek és ezeknek a kiküszöbölésére mindenféle mechanizmusok.

És szerinted erre hogy lehetne képes, amikor maga is folyton hibázik meg hallucinál? Pont ezért mondtam, hogy megbízhatatlan, azaz használhatatlan az emberi hibák kiküszöbölésére. Egy olyan számológép, ami 100 számításból egyszer-kétszer hibás eredményt ad, pont használhatatlan arra, hogy ellenőrizd vele egy ember számításának helyességét.

Több GPT agent hierarchiába szervezve, egymás közt kommunikálva, apránként iterálva halad a megoldás felé.

Nem életképes, olvasd el, amit linkeltem. Pont az a lényeg, hogy hiába javítasz a hatásfokán tandemmel, tökéletes sosem lesz, nem is lehet, mindig is elő fog fordulni, hogy néha hibás eredményt köp ki (és sosem tudhatod, hogy mikor, mert a hülyeséget is magabiztosan állítja). Hogy akarsz egy megoldás felé iterálni, mikor nem tudod megmondani, hogy egy eredmény helyes-e?
Mégegyszer a link: https://fortune.com/2023/08/01/can-ai-chatgpt-hallucinations-be-fixed-e…

Tegyük fel hogy nem lenne determinisztikus számológéped, csak sok olyan vacak, amelyik az esetek többségében helyes eredményt ad, de időnként tévednek. Amíg sokkal többször helyes mint ahányszor téved, szerintem lehetne őket használni okos workaroundokkal, visszaellenőrzésekkel.

Ezekből lehetne olyan számológépet összeállítani, ami szinte mindig helyes eredményt adna vissza. És akkor mégiscsak volna gyakorlatban használható, de nem mindenre használható számológépünk. Amivel mondjuk a holdraszállási pályaszámításokon kívül sokmindent rá lehetne bízni, ami nem kritikus fontosságú.

Kicsit még továbbgondolva, a számítógépek is csak elméletileg determinisztikusak. Úgy is mondhatjuk, hogy sokkal nagyobb eséllyel adnak vissza helyes eredményt, mint hibát. De hibázhatnak, hibáznak is.

Memória hiba, diszk hiba, CPU hiba mind előfordul, de van rájuk mindenféle workaround hogy ne legyen probléma belőle. Egyszerű bit flipek akár választási eredményt is befolyásolhatnak.

Ráadásul a szoftver bugok egy külön réteg még erre, mikor 99%-ban jól működik a program, de néha mégis elhasal. És mégis használunk szoftvert kritikus dolgokra is, pedig emiatt emberek is haltak már meg.

Összességében én optimista vagyok, még akkor is, ha tényleg javíthatatlanok az időnkénti tévedések. Amíg többször helyes mint hibás a válasz, szerintem használhatók lehetnek egész sokmindenre megfelelő mitigációkkal, megfelelő use case-kre.

Persze nem atomerőművek vagy más kritikus infrastruktúra vezérlése kéne legyen az elsődleges feladatuk.

"Everything fails, all the time."

Tegyük fel hogy nem lenne determinisztikus számológéped, csak sok olyan vacak, amelyik az esetek többségében helyes eredményt ad, de időnként tévednek. Amíg sokkal többször helyes mint ahányszor téved, szerintem lehetne őket használni okos workaroundokkal, visszaellenőrzésekkel.

Nagyon jól megfogalmaztad, hogy miért életképtelen a mostani "MI". A visszaellenőrzéshez tudnod kellene ugyanis, hogy mi számít helyes eredménynek, és pont ez az, amire képtelen, ergó helyességeellenőrzés hiányában még több ChatGPT-t egybekötve sem tudod javítani a megbízhatóságot. Mi van akkor, ha a válasz jó, de az ellenőrző hallucinál? Vagyha mindkettő ugyanarra az eredményre jut, de az hallucináció? Vagyha többségi szavazás módszerét használod, egy A-t válaszol, kettő B-t, akkor mi a garancia arra, hogy nem a B a hallucináció? Semmi. Helyességellenőrzés hiányában egyszerűen lehetetlen javítani a hatásfokán.

Másképp megfogalmazva: ha lehetséges lenne az "MI" válaszának helyességellenőrzése, akkor az egész problémakör nem is létezne. Magyarán egy valódi, működő AGI-ra lenne szükség ahhoz, hogy ellenőrizd az eredményt, és így eljuthass az LLM-ből egy AGI-hoz. Tyúk vagy tojás volt előbb, pont ezért nem fog ez soha működni a mostani technológiával.

Úgy is mondhatjuk, hogy sokkal nagyobb eséllyel adnak vissza helyes eredményt, mint hibát. De hibázhatnak, hibáznak is.

Ja, 1 milliárd esetből egyszer, és akkor is jól definiált módon hibáznak, amik algoritmussal javíthatók (és azt a minimális hibát sem veszed észre, mert az ECC automatikusan kijavítja neked).

Ezzel szemben az "MI" SOKKAL, nagyságrendekkel többször hibázik, mint egy ember (száz esetből többször!!!), és még csak elméletileg sem létezik olyan megoldás, amivel észlelhetnéd a tévedését (ha lenne ilyen algoritmus, már rég belerakták volna a ChatGPT-be, Bard-ba, stb. de mint mondottam volt, ez maga az AGI lenne.) A jelenlegi legeslegjobb hallucinációészlelés csupán egy kötött, limitált, előredefiniált adathalmazra működik csak, és ott is csak arra képes, hogy kiszúrja, hogy valószínűleg hallucinál (azaz simán detektálatlanul átcsúszhat egy hallucináció). Magyarán statisztikagyártásra jó, visszaellenőrzésre nem.

Ráadásul a számítógépes hibákkal ellentétben az "MI" esetében még az sem igaz, hogy a gyakoribb válasz a jó. Simán előfordulhat, hogy 10x megismételve ugyanazt a promptot 3x jót válaszol, 7x hallucinál. Abból még, hogy többször adta ugyanazt az eredményt, egyáltalán nem következik, hogy az lenne a helyes eredmény. Csupáncsak valószínű, de ez semmiképp sem egy megbízható ellenőrzés.

> tudnod kellene ugyanis, hogy mi számít helyes eredménynek, és pont ez az, amire képtelen

es az ember kepes ra? :)  meg a nagy tudosoknak is evtizedekig tart bebizonyitani az igazukat...

meg ugye ne felejtsuk el, hogy az LLM-ek direkt hibaznak! a model kimenete egy bazi nagy logits tomb, ami megadja minden tokenre/szora a valoszinuseget (softmax). de NEM a legvaloszinubbet irja ki determinisztikusan, hanem kulonbozo algoritmusok alapjan (top-p, top-k stb) a legvaloszinubb 20-100 kozul valaszt ki veletlenszeruen(!) egyet. igy erik el, hogy ugyanarra a kerdesre mindig es mindenkinek mas valaszt adjon. pedig eselyes, hogy a legvaloszinubb az esetek sokkal nagyobb reszeben adna helyes valaszt...

arrol nem is beszelve, hogy igazabol beam search kellene, kb mint a sakkban, tobb lepessel elore "gondolkodni", ezt is lehet implementalni, tesztekben szoktak is, de mivel nagysagrendekkel noveli a szamitasigenyet, elesben nem hasznaljak. kb ugy mukodik, hogy nem csak a kovetkezo legvaloszinubb szot/tokent vizsgalja, hanem megnezi az azutaniakat is es osszesiti a valoszinusegeket.

es az ember kepes ra? :)

Az értelmesebbje, Euklidész óta :-) De nem is ez a lényeg, hanem hogy mégis ezzel próbálják meg eladni az "önjavító" LLM-eket, holott ez pont ugyanakkora hazugság, mint az, hogy "intelligens" lenne.

Egyébként kösz az írást, nagyon jó betekintést nyújt, és alátámasztja, amit írtam!

Érdekesség: Sam Altman mégis CEO marad. ROTFL!

> mint az, hogy "intelligens" lenne.

hol kezdodik az intelligencia? az egysejtu az? es a hangyak, mehek? a kutya vagy a delfin?

vagy csak az emberek? a fidesz-szavazok? a laposfold-hivok? holdtagado-gravitacioszakerto norbik? vagy csak einstein? vagy csak te?

az llm-ekkel elolvastattak a vilag osszes irasat, konyveket es az egesz internetet. elvileg muveltebb/okosabb minden embernel. gyakorlatilag nem feltetlenul, mert az omlesztett es direkt randomizalt inputot nem biztos hogy megfeleloen tudta rendszerezni, ertelmezni. meg ugye ott a random sampling a model vegen, ami hazavagja azt is amit amugy jol tudna. bolcseszeknel elony ha sokfelekepp tudja kifejezni magat, valasztekosan ir stb, az llm-ek ezt jol hozzak. de pl. matematikaban nem elony, ha ugyanannak sokfele megoldasa van, foleg ha nem mind jo...

en mondjuk kivancsi lennek egy olyan llm-re, amit ugy tanitanak be mint egy embert. elkezdik az alapokkal, nyelvismeret (anyanyelv), szamok, betuk, egyszeru kepfelismeres (imagenet szintu - kutya/macska/auto stb). aztan johet az altalanos iskolai tananyag evenkent sorban, tobbszor ismetelve, de nem random sorrendben. biologia, helyesiras, matek, tortenelem stb. es igy haladna egyre komplexebb szovegekre az egyetemi tananyag vegeig. a vege fele mar olvashat konyveket, hiroldalakat is. kozben a learning ratet meg folyamatosan csokkenteni kell.

hol kezdodik az intelligencia? az egysejtu az? es a hangyak, mehek? a kutya vagy a delfin?

Ahogy fentebb írtam: alapelvárás az önkép megléte és az ebből fakadó önfenntartás ösztöne. Még egy egysejtű is képes valamely szinten megérteni a környezetét és folytat negatív kemotaxist vagy thermotaxist, hogy a bőrét (az önképét) mentse. Ezek az algoritmusok semmi ilyesmit nem tudnak felmutatni, csupán csak feltupírozott autocomplete-k.

nem biztos hogy megfeleloen tudta rendszerezni, ertelmezni.

Maradjunk annyiban, az "értelmezés", mint olyan, teljes egészében hiányzik belőlük. Ahogy Te is írtad, csak szókapcsolatok előfordulási gyakoriságával operálnak, mindenféle megértés nélkül.

> önfenntartás ösztöne

de ez baromsag. a noveny is onfenntarto de meg a legegyszerubb gombak is. megse mondanam intelligensnek oket.

> szókapcsolatok előfordulási gyakoriságával

annal azert sokkal tobb mar. 10 eve valoban ott tartottak, a CNN modellekkel (azt hasznalom en is a spamszuromben).

az emlekezo modellek (pl. RNN, Transformer) mar a multbeli tudassal/adattal is kapcsolatot epitenek, nem csak a pillanatnyi inputot vizsgaljak magaban. epp ezert meglepo modon egesz komoly osszefuggeseket kepesek felismerni, nyelveket tanulnak maguktol, programozni tud stb. erdemes kezdetnek ezt a 2015-os(!) cikket megnezned:

http://karpathy.github.io/2015/05/21/rnn-effectiveness/

Van egy számológéped, ami általában jól működik, de néha rossz eredményt ad, akár még ugyanarra a bemenetre is. Használnád ezt a számológépet?

Felkészül: Intel Pentium (FDIV bug) :D

Egy érdekes cikk ezzel kapcsolatban:

https://qubit.hu/2023/11/21/itt-a-chatgpt-orulet-vege A 'sztochasztikus papagáj' minősítés szerintem egész jól fedi a lényeget.

Intel Pentium (FDIV bug)

NEM. Az egy determinisztikus bug volt, olyannyira, hogy még processzor típus detektálásra is használták!

Itt a gond a nem-determinisztikussággal van, azaz pontosan ugyanarra a bemenetre nem mindig ugyanaz a helyes eredmény jön ki. Kb. mintha százszor lefuttatod azt, hogy 1+1, ez általában helyesen 2-tőt ad, de néha gyök 2-t köp ki. És sosem tudhatod, hogy mikor adott jó vagy rossz eredményt, mert pontosan ugyanúgy tálalja mindkettőt.

Dehogynem. Van egy számológéped, ami általában jól működik, de néha rossz eredményt ad, akár még ugyanarra a bemenetre is. Használnád ezt a számológépet?

De hát az emberek is így működnek. Van, amikor hibáznak, van, amikor nem. Még összeadásnál is, olvasásnál is, bármikor máskor. Mégsem mondjuk, hogy az ember nem intelligens lény.

 

Pont ezért alkottunk számítógépeket, amik determinisztikusak. Semmi értelme egy olyan megoldásnak, ami éppúgy hibázik, mint egy ember, de még többe is kerül, meg rengeteg áramot is fogyaszt mindennek tetejébe.

A determinisztikus rendszerekkel pont a determinisztikusság a baj - vannak olyan dolgok az életben, ahol pont az a jó, ha valami új jön elő, véletlenszerűen. Ilyen például a kreatív írás, valaminek több szempontból való vizsgálata. A nagy nyelvi modellek nem szakértői rendszerek, de nem is mondta senkil, hogy azok, és nem is mondta senki, hogy tévedhetetlenek. Segítenek, pont annyira, mint egy gyakornok - általában jó dolgot csinál, néha meg hülyeséget. Ettől még nem mondjuk azt, hogy egy gépi gyakornok hülyeség lenne (ahogy a humán gyakornok se az).

De hát az emberek is így működnek.

Pontosan. És akkor most megismétlem a kérdésem: mi értelme egy olyan megoldásnak, ami többször hibádzik, mint egy ember, de ráadásul még többe is kerül és környezetszennyezőbb is?

A determinisztikus rendszerekkel pont a determinisztikusság a baj

Orbitális tévedés! Pont az a lényeg, azért tudják jól kiegészíteni az embert, mert olyanra képesek, amire az ember nem: megbízhatóan, determinisztikusan végzik a dolgukat, akármennyire repetitív is.

Ha az eszköz ugyanúgy (vagy mégjobban) téved, mint az ember, akkor az nem egészíti ki a munkáját, épp ellenkezőleg, a végeredmény csakis siralmasabb lehet és nem pedig jobb. Tudom, ez szembemegy azzal, amivel általánosan mossák az emberek agyát, de ez akkor is így van.

Te sem használnál egy olyan számítógépet, ami folyton hibázik, hanem kibasznád a kukába.

Ilyen például a kreatív írás

Tökéletes példa. Egyik manaság "MI"-nek csúfolt autocomplete sem képes erre. Amit kiköpnek magukból, az egy ember számára szánalmasnak hat, lásd South Park S26E04. És sosem lesznek jobbak írásban, mint egy ember, mert egyszerűen nem értik, miről van szó, nem tudják figyelembe venni a szereplők motívációit, vagy épp a megfestett világ következetességeit (ehhez kéne "érteni", miről van szó), csupán csak valószínűségekkel operálnak, semmi egyéb. És emiatt elég sokszor totális hülyeségeket pakolnak egymás mellé, még akkor is, ha épp nem hallucinálnak. https://arstechnica.com/gaming/2021/05/an-ai-wrote-this-movie-and-its-s…

> még többe is kerül

hat azert egy ember sem olcso, mire felnevelik 0-rol. szerintem egy gpu legyartasa kevesebbol kijon mint a pelenkak ara, az iskolakrol stb nem is beszelve :)

> és környezetszennyezőbb is

allitolag az embernel kornyezetszennyezobb nem letezik :)

amugy az LLM tanitasa draga valoban, de a hasznalata nem veszes. es azert lenyegesen gyorsabban dolgozik mint az ember.

meg ugye az ember is energiaigenyes, foleg az agy eleg sokat fogyaszt ott is...

Gondolom a CAP theorem nincs meg és utálod a nem konzistens no-sql adatbázisokat is. Azt miért nem lehet elfogadni hogy minden szerszám másra optimális, de azért mert van átfedő terület, egymással versenyezteted őket, ezért az egyik egyedi tulajdonságát hangoztatva fikázod a másikat. Lásd jármű kérdés, melyik a jobb, a traktor vagy a forma 1-es kocsi?

mi értelme egy olyan megoldásnak, ami többször hibádzik, mint egy ember

Definialni kellene, hogy egy LLM modellnel mi szamit hibanak. Ez "csak" statisztika. Ha nekem van egy modellem arra, hogy 95%-os magabiztossaggal megmondja, melyik nap lesz somloi galuska a menzan, de neha nem talalja el, akkor az a modell hibazott?

Ez nagyon jo leiras.

Mindenki azt hiszi hogy az MS kurva jol jart es ingyen megkapta az OpenAI-t, de ez tevedes.

Egyreszt egy bitang nagy taliga penz ment a sullyesztobe amit ok letejeltek mar, ezt nem latjak viszont.

Masreszt a corporate faszsagok miatt (amikor jon a HR-es mancika hogy uj policy van) biztos hogy a dolgozok jo resze max. 1-2 even belul lelep.

Harmadreszt most nyelheti az MS a vilag osszes kopkodeset, nem tudjak azt mondani tobbe hogy hat azok nem mi vagyunk, mi csak partnerek vagyunk a sztoriban, ok fuggetlenek.

Harmadreszt most nyelheti az MS a vilag osszes kopkodeset, nem tudjak azt mondani tobbe hogy hat azok nem mi vagyunk, mi csak partnerek vagyunk a sztoriban, ok fuggetlenek.

Nézz bele Satya Ignite-os előadásába, az egész kommunikációt arra fűzi fel hogy ők az AI atya (többek között új processzort is bejentettek, érdemes végignézni).

A hozzászólások között is vannak jó felvetések. Ez most egy eléggé váratlan megbicsaklás, de szerintem ezen az MS csak nyer.

Úgyis beletették/teszik az összes termékbe a technológia felhasználását ahol egy kicsit is van értelme (mi más is lenne az egész értelme) és szépen visszacsorog a befektetés, a piaci részesedést, versenyképességet meg tartják/növelik.

IMO át sem akarnak azok menni.

 

Egy laza, jól menő non-profit startupból az MS-hez?:D

Egyre érdekesebb ez a story. A Reuters szerint az openai dolgozók egy csoportja levelet írt a boardnak, miszerint a Q* nevű projektjük akár veszélyt jelenthető áttörés is lehet. Majd Altman egy konferencián azt peddzegette hogy már közel lehetnek az AGI-hoz. Erre a board másnap kirúgta.

"Everything fails, all the time."

De ha az lesz a következő hír, hogy egy bizonyos Rodolfo Agronomo lesz a következő CEO, akkor már tényleg gyanús lesz, hogy ez egy brazil szappanopera.