A DeepSeek R1 mostantól elérhető az Azure AI Foundry-n és a GitHub-on

Alig robbant be a köztudatba "kisebb" felfordulást csinálva a DeepSeek a saját LLM generatív AI-ával, a Microsoft máris bejelentette, hogy a DeepSeek R1 elérhető az AI alkalmazások fejlesztését támogató Azure AI Foundry-jának modell katalógusában, illetve a GitHub-on.

Részletek a bejelentésben.

Hozzászólások

Hát ez gyorsan eszkalálódott onnan, hogy a DeepSeek

  • kommunisták terméke
  • lopott
  • cenzúráz
  • ...

oda, hogy utat talált az amerikai gazdaság egyik zászlóshajójának számító vállalat termékének kínálatába.

trey @ gépház

Hát ez gyorsan eszkalálódott

Nincs itt semmiféle eszkaláció szvsz, kell az adat a CoPilotnak. Most már MI-t is tud írni az MI...

ps: a többi MI forrása zárt, ha jól látom, ez a legelső teljes csetprogram, amivel betanítanak ami felkerült github-ra.

kommunisták terméke / lopott / cenzúráz / ...

Ezen kifogások egyike sem magára a programra vonakozik, hanem az üzemeltetett szolgáltatásra. Maga a kód nem lehet egyszerre a komcsik terméke és lopott is, és az önmagában nem is cenzúráz. (Egyébként ha jól értem, az OpenAI nem is azzal vádolja, hogy lopott lenne a kódjuk, hanem azzal, hogy az adathalmazát lopták tőlük. Ami nonszensz, mert korábban már megmondta az OpenAI, hogy minden, ami a neten van, az fair use, hát nem?).

> ez a legelső teljes csetprogram, amivel betanítanak ami felkerült github-ra.

hat a githubra lehet, mert amugy a huggingface.com az AI "otthona" es ott azert eleg sok model fent volt eddig is, kezdve pl. a Meta-fele LLAMA-val ami mar a v3.3-nal tart, es letoltheted szabadon, az mas kerdes, hogy mire hasznalhatod (jogilag).

de ha nem kell a magyar nyelv akkor eleg nagy a valasztek, magyarul sajnos nem sok tud (a llama 3 mar egesz jo ebben). sot van magyar fejlesztesu model is ott!

> nem is azzal vádolja, hogy lopott lenne a kódjuk

hat az AI LLM modelek eseten a kod lopas nem/nehezen ertelmezheto fogalom. az algoritmusok pedig publikalva vannak a kezdetektol, es barki implementalja, altalaban par 100 sorban max meg is lehet irni, de talalsz mindegyikre szamtalan implementaciot szinte minden nyelven. es amugy nincs is tulzottan sok kulonbseg koztuk, mindegyik transformer model, max aprosagokban ternek el, pl. a position encoding fuggvenye mas-mas lehet, vagy az embedding strukturaja.  ezeket amugy se kodnak hanem hyperparamatereknek szoktak hivni AI eseten.

Lehet itten kommunisták termékének, lopottnak, cenzúrázottnak nevezni, de ez nem változtat azokon a tényeken, hogy elég rendesen megrengette az ipart és jobb a társainál..

Egyébként direkt miattad kérdeztem meg a lopott kommunista cenzúrázott DeepSeek-et hogy mi az a HUP.hu?

A válasza: A hup.hu egy magyar informatikai portál és közösségi oldal, amely főként programozással, szoftverfejlesztéssel, hardverekkel és IT-szolgáltatásokkal kapcsolatos témákra összpontosít. A felhasználók fórumokon keresztül tudnak információkat megosztani, kérdéseket feltenni és szakmai témákban diskurálni. A hup.hu régóta létező és elismert platform a magyar informatikai közösségben.

Nem tudom más hogy van ezzel, vagy én mit nézek el, de ollama-n (a kisebb változatai) elég szánalmasak. Persze sokszor kezdődnek szánalmasan a Kínából jövő  dolgok, aztán csak nézünk.

Semennyire nem vágom ezt az AI témát azon felül, hogy kérdeztem már tőle, meg rajzoltattam vele - mint felhasználó. Ezért is kezd érdekelni, hogy is van ez műszaki oldalról. Szóval pár mondatban írja már le nekem egy témához értő, hogy akkor most az AI hype-nál a program, a betanító adat, vagy a betanított kész rendszer a lényeges(ebb)?

Merthogy bármilyen jó AI szoftver adat nélkül buta marad (gondolom), és semmire se jó.

Ezzel összefüggésben nem igazán értem a "futtass otthon Raspberry Pi-n saját AI-t" témát sem. Honnan lesz bele a sok adat (és mennyi idő alatt emészti meg), amitől majd aztán okos lesz és segíteni tud?

Ehhez kapcsolódik, hogy miért kell végtelen mennyiségű Nvidia gyorsító egyik szoftver alá, ha a másik szerint egy RPi-vel is elérhető a cél?

Ha érteni akarod az éppen aktuális informatikai hype-ot, ahhoz már nem lesz elég a stabil fizikai, elektronikai, matematikai, számítógéparchitektura, operációsrendszerek, algoritmusok és szgéphálózatok tudás. Ezek a mai elkurvult világban látszólag már semmit sem fognak érni.

Hanem minden 6 hónapban mikor kiesik a semmiből egy új baromság, abba bele kell ásnia az embernek magát. Hosszan és részletesen elcseszve 1 csomó időt, mire az aktuális hype-ot meg bírod érteni és magadévá tenni. De addigra már minden hasonszőrű hülye is ezen pörög, mert senki nem akar kimaradni, lemaradni.

> nem igazán értem a "futtass otthon Raspberry Pi-n saját AI-t" témát

ezt en sem ertem, nem is ertelmezheto. a raspi max API hivasokra eleg, azon kb semmilyen modern AI nem fog elfutni, esetleg valami 640x480 kepet felismero regi CNN model. tanitasrol nem is beszelve...

> miért kell végtelen mennyiségű Nvidia gyorsító

mert 600 milliard parametert parhuzamosan _tanitani_ (ertsd: backpropagation, tehat parameterenkennt egy csomo 16/32 bites float szam) sok TB-nyi memoria es rengeteg gpu szukseges.

rpi5 8gb:
https://itsfoss.com/deepseek-r1-raspberry-pi-5/
az 1.5B modell használhatónak tűnik a videó alapján. A 7B -t nem tudnám kivárni, de működik.

The 1.5B model is a practical option for lightweight tasks, while the 7B and 8B models demonstrate the Pi’s ability to handle larger workloads, albeit slowly.
 

DeepSeek-R1 now available on both Amazon Bedrock and SageMaker AI.

trey @ gépház