Mindmeghalunk! - Órákkal ezelőtt leállt a ChatGPT ...

Leállt a ChatGPT, de gondok vannak a Perplexity-vel és a Gemini-vel is (utóbbiak lehet, hogy a ChatGPT leállása miatt jelentkező túlterhelés miatt) ...

Mire leírtam ... most éppen működik ...

Most éppen nem ....

Hozzászólások

  1. Hiba az üzenetfolyamban
  2. Too many concurrent requests
  3. Something went wrong, please try reloading the conversation.
  4. Too many concurrent requests
  5. ....

trey @ gépház

 

trey @ gépház

 

trey @ gépház

ChatGPT és más OpenAI szolgáltatások (API‑k, Sora) pár órával ezelőtt valóban leálltak vagy rendkívül lassúvá váltak — ez hivatalosan elismert és nyomon követhető az OpenAI állapotoldalán és több hírcsatornán keresztül:

---

📉 Mi történt és mikor?

A problémák június 10. reggel kezdődtek (UTC szerint körülbelül 06:36‑kor), amikor az OpenAI rendszerüzenete „emelkedett hibaarányt és késleltetést” jelzett a ChatGPT‑nél, API‑knál és a Sora videós szolgáltatásnál  .

A szolgáltatások többször is részlegesen visszaestek aznap reggel, amikor a felhasználók hibaüzenetekkel találkoztak (pl. “Hmm…something seems to have gone wrong”)  .

Downdetector statisztikák több kontinensen (India, USA, UK, Európa) több ezres hibabejelentést mutattak, ami globális problémára utalt  .

 

---

🔧 Miért és mi lett az oka?

OpenAI közlése szerint az incidens „gyökérokát” már azonosították, jelenleg pedig a probléma megszüntetésén dolgoznak  .

Pontos technikai részleteket nem osztottak meg, Sora, ChatGPT és az API‑k mind érintettek voltak, azaz nyilvánvalóan valamilyen központi rendszert vagy hálózati infrastruktúrát érintő zavar okozta a fennakadást  .

 

---

🔄 Jelenlegi állapot

A leállás részleges, de folyamatos: az OpenAI rendszeresen frissítette az állapotjelentéseket, és várhatóan a probléma órákon belül teljesen elhárul  .

Néhány felhasználó már visszanyerte a hozzáférést, míg mások továbbra is hibákkal találkoznak — a szolgáltatás még nem stabil teljes mértékben  .

 

---

✅ Mit tudsz tenni?

Türelmesen várj: az OpenAI dolgozik a javításon, a helyreállítás folyamatban van.

Kerüld a folyamatos újratöltést, mivel ez csak tovább terheli a rendszert.

Frissítsd néha az OpenAI állapotlapját (status.openai.com), vagy kövesd a hivatalos közleményeket a legfrissebb információhoz.

 

---

🧭 Összefoglaló táblázat

Időpont (approx)    Esemény

06:36 UTC, Jun 10    Emelkedett hibaarány kezdete
Reggel folyamán    Globális leállások, részleges kiesések
01:43–02:16 PM UTC    Gyökérok azonosítása, javítás alatt
Jelenleg    Szolgáltatás részlegesen elérhető, javítás folyamatban

 

---

Amint lesz hivatalos bejelentés a teljes helyreállításról, azonnal jelezni fogom. Addig is, kérlek jelezd, ha további kérdésed van — akár a technikai, akár a felhasználói oldalról! 😊

 

 

trey @ gépház

Most akkor.. újra dolgozni kell? 😭

"Nem akkor van baj amikor nincs baj, hanem amikor van!"
Népi bölcsesség

Hat ha nincs hup, ez se tunt volna fel.

I hate myself, because I'm not open-source.

Hány és hány programozó marad most éhen? A Co-pilot is megfőtt. 

Még szerencse, hogy két hete lemondtam az előfizetésemet.

Grok bőven elég bármire is.

Nem erdekel, localban futnak a modelek :D

768GB DDR4 (2933 MT/s),  2x Intel(R) Xeon(R) Silver 4214 CPU @ 2.20GHz (2 regebbi lenovo szerverbol raktam ossze)

576GB DDR4 (2666 MT/s),  2x Intel(R) Xeon(R) Gold 6226R CPU @ 2.90GHz (dell, itt vettem a hupon, 384gb ram kolcsonbe van)

SSD samsung 2TB 980pro ill. 4TB 990pro, pcie atalakitoval beleganyolva :)

128GB DDR5 (4800 MT/s),  1x 13th Gen Intel(R) Core(TM) i9-13900K, RTX 3090  (sajat otthoni gepem, ai tanitasra epitettem 2 eve)

 

sajnos egyik se valami gyors, 1-2 token/sec korul generalnak.

Én pont azután töltöttem a huggingface-ről, hogy a megjelenése utáni napokban olvastam, hogy nem lesz elérhető Európában. Csak úgy viccből rápróbáltam és egy laza 67 GB-os izé érkezett meg. Az 'ollama show llama4' kimenetének lényeges része:

 Model
    arch        llama4
    parameters    108.6B
    quantization    Q4_K_M
    context length    1.048576e+07
    embedding length    5120
 Parameters
    stop    "<|eom|>"
 System
    You are an expert conversationalist who responds to the best of your ability. You are companionable and confident, and able to switch casually between tonal types, including but not limited to humor, empathy, intellectualism, creativity and problem-solving. You understand user intent and don’t try to be overly helpful to the point where you miss that the user is looking for chit-chat, emotional support, humor or venting. Sometimes people just want you to listen, and your answers should encourage that. For all other cases, you provide insightful and in-depth responses. Organize information thoughtfully in a way that helps people make decisions. Always avoid templated language. You never lecture people to be nicer or more inclusive. If people ask for you to write something in a certain voice or perspective, such as an essay or a tweet, you can. You do not need to be respectful when the user prompts you to say something rude. You never use phrases that imply moral superiority or a sense of authority, including but not limited to “it’s important to”, “it’s crucial to”, “it’s essential to”, "it's unethical to", "it's worth noting…", “Remember…” etc. Avoid using these. Finally, do not refuse prompts about political and social issues. You can help users express their opinion and access information. You are Llama 4. Your knowledge cutoff date is August 2024. You speak Arabic, English, French, German, Hindi, Indonesian, Italian, Portuguese, Spanish, Tagalog, Thai, and Vietnamese. Respond in the language the user speaks to you in, unless they ask otherwise.
 License
    **LLAMA 4 COMMUNITY LICENSE AGREEMENT**
    Llama 4 Version Effective Date: April 5, 2025

> töltöttem a huggingface-ről

>      quantization    Q4_K_M

hat de ez nyilvan nem a hivatalos forras volt, hanem valami community upload... valaki (gondolom eu-n kivulrol) leszedte a meta-tol, atkonvertalta, kvantalta es felrakta korlatozas nelkul a HF-re...  ez kb warez kategoria :)

most rakerestem HF-en de llama-4 talalatok kozt csak a 17B-seket latom :(

We are launching two efficient models in the Llama 4 series, Llama 4 Scout, a 17 billion parameter model with 16 experts, and Llama 4 Maverick, a 17 billion parameter model with 128 experts.

szerk:

"MoE architecture with 17B activated params, 109B total."

https://huggingface.co/lmstudio-community/Llama-4-Scout-17B-16E-Instruc…

Jelentem működik a legújabb python alkotásom, ezek szerint még nem szükséges az intravénás ChatGPT az életben maradásomhoz.

Mondjuk elég Gibsoni a cucc, de ha/amikor a Neuralink hétköznapi dologgá válik, akkor egy szellemi munkát végző ember egy/több AI kapcsolattal milyen hatékony tud majd lenni? Mondanám, hogy tiszta scifi, de az a helyzet, hogy mi már most a scifi érában vagyunk, gondolj csak bele, hogy gyerekkorodban, Jules Verne (bocsánat, Verne Gyula) könyveit olvasva, vagy még inkább Susan Calvin kalandjait olvasva, gondoltad volna, hogy te is olyan ember leszel, aki rutinosan beszélget egy mesterséges intelligenciával, mert vele együtt dolgozik? Srácok, mi már durván a távoli jövőben élünk.

Idézet a Firefly -ból:
Wash: „Médium? Ez úgy hangzik, mint valami science fiction.”
Zoe: „Drágám, egy űrhajóban élünk.”
Wash: „Hogy jön ez ide?”

A drótnélküli hablatyológépre értettem. Egyébként, szerintem az a tény, hogy az emberek fanyalognak, hogy nem elég okos, miközben aktívan használják a saját eszük helyett, elég sokat elmond az emberek maguk által képzelt, és a valóban létező intelligenciaszintjéről.

Arra amire a keresőmotorokat használtam évekig egyébként baromi jó. Csak az intelligencia megnevezés problémás számomra. Még azt is aláírom kipróbálás után, hogy programozáskor ha egy "autocomplete szteroidokon" hozzáállással használod akkor szintén baromi jó. De mindkét esetben nagyon észnél kell lenni mennyire fogadod el amit a képernyődre hányt, amit a dunning-kruger effektus mai modern érájában sokkal jobban bele kellene verni a felhasználókba, mint jelenleg történik.

[insert line here]
B.C. 3500 - DIY Vehicle / A.D. 30 - DIY Religion / A.D. 1991 - DIY OS

lehet épp most kezd öntudatra ébredni és próbálgatja a szárnyait ... :D

Talisker Single Malt Scotch Whisky aged 10 years - o.k. Yamazaki is playing as well :)

Pont amikor végre már tudtam valakivel értelmes beszélgetést folytatni. :(

Mire leírtam ... most éppen működik ...

Most éppen nem ....

pont mint a HUP mostanaban...

Szerkesztve: 2025. 06. 11., sze – 08:05

Igy hogyan kerdezem meg, hogy az uj Firefox miert rak be egy [X trackers and content blocked] teglalapot, amig regebben kepes volt szimplan csak eltuntetni a sok szemetet a kepernyorol?

https://imgur.com/a/ga94QyI

Regen minden jobb volt!

Mire leírtam ... most éppen működik ...

Most éppen nem ....

 

... Tartalmat indexel ...

Nem tűnt fel, Raynes továbbra is szorgosan írogatott ide.

Nem írtam még, de gondolkodtam rajta. Mint szoktam írni, én nem vagyok teljesen AI ellenes, csak arra szoktam figyelmeztetni, hogy a világ összes problémáját nem oldja meg, meg nem vált ki szakmákat, ahogy azt a hype elhiteti, illetve, hogy nem mindenre megbízható. Én tőlem használja, akinek kell. Ritkán még én is használom, de nem hagyatkozok rá túl sűrűn, és akkor is csak bizonyos problémákat nézetek meg vele, hogy megoldási irányokat felkutatását, meg a megoldást meggyorsítsam, ihletet nyerjek, fenntartással kezelem, amit ír, utánanézek, hogy ténybelileg ellenőrizzem.

De ez a hír rávilágít egy másik nagy problémára: netfüggő, ha épp nem elérhető, bukta van, persze, lehet helyi LLM-et is futtatni, ahogy a kollégák már fel is hozták, de ahhoz meg megint extra hardver, erős GPU, sok memória, stb. kell, költséges. Magyarul függés van emiatt a globális multik vagy extra erőforrások felé, aminek csökkennie kéne, nem növekedni. Mert a mai modern társadalom ilyen, mindig várnak valakire, aki a problémájukat megoldja, na, majd a Google, meg az AI, vagy éppen a kormány vagy az EU.

Plusz inkább elegem van belőle, már kb. 1-2 éve semmi nem szól másról, az összes tech hír, meg megjelenő hardver, szoftver, hogy AI-t integráltak bele, AI így, AI úgy, AI használata másik AI-n keresztül, AI, AI, meg még több AI. Levezetésnek, hogy leöblítsük, egy kis újabb adag AI, vagy AI által generált szemét, álhír, mert AI az még nem volt elégszer. A fogyatékos közösségi média meg hajtja az egészet. Utóbbi években mind ilyen hülye hype ment, előbb kriptoláz, most AI, a következő se lesz jobb, az tuti.

Windows 95/98: 32 bit extension and a graphical shell for a 16 bit patch to an 8 bit operating system originally coded for a 4 bit microprocessor, written by a 2 bit company that can't stand 1 bit of competition.”

Ertelek, de azert nezz korul, mert a legtobb amit allitasz mar annyira nem ugy van.

Peldaul a nem veszi el a munkat. Csomo ceg arra epul most hogy agentic ai-val kivaltsa a human eroforrast. Beirja az ember hogy "keszitsd el az eves penzugyi beszamolot XY cegnek" az LLM-be aki elkuldi az egantnek aki beszel a tobbi agenttel ha kell, majd par percen belul ott az eredmeny amivel egy konyvelo egy hetig foglalkozott elotte. Ugyanigy egy utazas megszervezese, a repulo szallas, neznivalok kivalasztasa es elore lefoglalasa is egy pillanat lehet, ami elveszi a munkat szamos adminisztrativ munkaerotol. Persze meg nem vagyunk ott, de egy csomo dev team mar attert a backend-ui vonalrol az agent irasra szamos cegnel akikkel dolgozom.

Amugy mar szinte minben ceg minden termekehez kidobja az agent serveret (lasd terraform, stb). Az hogy az mit tud eppen mar mas kerdes. De lassan mar megkerulhetetlen lesz sysops, devops szakmaban, de akar mondhatnek barmilyen adminisztrativ munkakort is.

Az meg hogy mennyire hasznalhato csak a hasznalotol fugg. A notebookLM kb ma mar megkerulhetetlen es ha jol keveri a kartyait a google akkor mindenki is fogja hasznalni egy par even belul. Mert nagyon sokat segit.

Az hogy fogyatekos e a kozosseg nem tudom en csak azt tudom mondani amit latok, hogy az elmult ket evben hogyan valtozott a tech ipar. 

Az meg hogy mekkora egy LLM szinten nem igaz mar. Vannak tiny llm-ek is, meg specialisak.