Az Apple M1 GPU boncolása 1-4. rész

Címkék

Alyssa Rosenzweig, szabad szoftveres világban tevékenykedő, grafikával foglalkozó hacker alaposabban szemügyre vette az Apple M1 GPU-ját:

Hozzászólások

Bugreport: A 4. resz link is a 3. reszre mutat.

-=- Mire a programozó: "Na és szerintetek ki csinálta a káoszt?" -=-

Hát de minek? Úgyse akar kb senki a méregdrága Mac-en Linuxot futtatni. 

Én ezeket csak a partvonalról figyelgetem :)

btw egyébként engem érdekel a téma, feltéve, hogy az eredeti OS telepithetősége / sértetlensége megmarad, a garancia pedig semmilyen módon nem sérül, és minden része működik a hardvereknek. Jó ez a macOS, de van rá egy x%-nyi esély, hogy a Linux desktop amit megélhetésileg verek 10+ éve jobban kézre áll. A hardver az nagyon jó, jól is néz ki, és egy nativ Linuxos arm procis gép azt hiszem mindenki szivét megdobogtatja.

"elmúlt az az architektúra amire kitalálták"

Nem

"Működni működik, csak nehéz leváltani."

Azonnal le lenne valtva, ha irnanak jobbat. 30 eve csak szarabbakat sikerul irni valahogy, igy marad, es koszoni szepen, jol van.

Regen en is elhittem, hogy "konnyen lehetne jobbat irni", mert "szar". De latva, hogy miket probaltak helyette, hat baszki, inkabb maradjon, nem is olyan szar ez. Ha a wayland az arrogans faszkalap fejlesztoi miatt el is jut a kukaig, felek, hogy a kovetkezo "levaltasi probalkozas" mar nem C-ben, nem is C++-ban lesz irva, de meg csak nem is Rustban.

Jo nekunk a Xorg ahogy van. Hidd el. Rengeteg fejleszto rendelkezik tobbevtizedes tapasztalattal, hogy hogy lehet alacsony szintu kodban kerulgetni a hulyesegeit. Ezt a mai fejlesztok hozzaallasaval soha tobbet nem fogjuk osszehozni. :(

Nem amellett kardoskodok hogy le kell váltani, csak a hátterét próbáltam kicsit megnézni.

Az X11 tudomásom szerint alapvetően hálózati architektúra: https://en.wikipedia.org/wiki/X_Window_System_protocols_and_architectur…

Ami mára egy invalid elképzelés, mert nincsenek távoli x11 kliensek, tehát az egész architektúra felesleges. Ettől még elműködik - majd leváltják akik akarják, én csak user vagyok, igazából leszarom, mint ahogy feljebb is irtam.

Sosem volt es sosem lesz invalid elkepzeles. Ennyi erovel a serverless is invalid elkepzeles.

Mukodo megoldast ne hivjunk mar invalidnak. De ez mar nyelveszeti problema.

De alapvetoen tudsz barmilyen muszaki ervet mondani az ellen, hogy szerver-kliens modellben gondolkodunk kijelzokrol? Vagy csak azert invalid, mert out with the old?

Ez zavar engem is. Egy csomó jó hardverhez nincs még megfelelő Linux támogatás. Erre a Apple kihozza az új gépet, erre mindenki lázasan a supportján dolgozik. Ami önmagában nem lenne baj, mert minél több hardvert támogat a kernel, mesa, stb., minél több platformra elérhető a Linux, annál jobb, stabilabb lesz a helyzete, nagyobb lesz az elterjedtsége. Csak ennek nem a többi hardver rovására kéne menni. Egy csomó mobil platform GPU-ja nincs a mai napig támogatja, amik elterjedtebbek, mint az M1-es gépek, és a mai napig nincs megoldva a támogatásuk. Ott bezzeg p5söm se tudja milyen fejlesztő nem kezdett el mindenféle primitiveken meg forgó fogaskerekeken dolgozni, de ahogy jön az új Mac, azonnal rohan mindenki, hogy támogatva legyen. Nem kicsit felemásnak érzem.

“I didn’t start using Linux so I could have friends.” (Luke Smith, 2019) 🐧

"ahogy jön az új Mac, azonnal rohan mindenki, hogy támogatva legyen"

Lofaszt. Mar tavaly december ota lenne mindenere driver ha nem 2-3 arc hobbiprojektje lenne. Ez a sebesseg egyaltalan nem gyors, nem rohannak az emberek Linuxos drivert irni, plane nem mindenki. A Linuxos M1 driverek fejlesztesenek sebessege siralmas. De hogy ertsd is mirol van szo: 2018-as vagy 2019-es MacBookon probalj egyszer Linuxot bootolni. Mar a leirasoktol kiakadnak a legtobben. A wifi es a bluetooth fix, hogy nem megy egy uj kernelen se, de abban is ellentmondasos informaciok vannak, hogy a T1-T2 chip + titkositott SSD kombo unallocated space-e megjelenik-e.

Az M1 Mac Linuxos drivereinek fejlesztese pont olyan szanalmasan lassan tortenik, mint az altalad emlitett mobil ARM-os chipeke. Megkapja a harmadeves BSc-s gyerek a diplomajat egy PoC-ra es az elso full time munkajat, es utana abandonware az egesz.

Majd ha lesz egy normális GPU is mellette, akkor lehet teljes értékű desktop processzorként tekinteni rá. Ami most van elég az átlagos, nem professzionális grafikus munkára, de pl. 3D-s, vagy nagy számításigényű 2D, vagy tudományos munkákra harmatgyenge.

Most, vagy 1 evel ezelott menyi volt ?

159 USD wikipedia lista aron az nvidia 1650 super.
Ezzel kb parban vannak.
https://gagadget.com/en/graphics-cards/apple-m1-8-core-gpu-vs-geforce-g…

219 USD kartya mar elveri.

Ezek a "olcso" GPU-k aminet jatekesok nem hasznalnak,
altalaban az gemerek >>300USD feletti modelt tesznek egy PC -be.

Ha jol remlik 150USD -s dedicalt GPU-t megver egy mobil "integralt" GPU  nem uj dolog,
az 5nm M1 TDP je GFLOPS szam mellett az uj dolog.

Egy mai gamer GPU 4x..10x tobb FLOPS-ot mutat (single precision).

 

Amit nem lehet megirni assemblyben, azt nem lehet megirni.

~5 eves GPU -m kb 2x olyan gyors, nyilvan nem fogom lecserelni egy M1 -re.

Ha vilag vegen tavol az AC -tol kell szamolni es az internetet is lelottek az UFO-k akkor el fog docogni.
Eleg jo napelemek vannak manapsag.

Ha 3d nyomtatora kell valamit rajzolni azt siman viszi.
2D CAD siman kene meni akkar GPU- nelkul is.
Valoszinuleg photo tuningolashoz is eleg.

Tudomanyos munkara, vagy komoly renderingre (ill video), inkabb vennel egy "igazi" GPU -t.
https://browser.geekbench.com/v5/compute/1801643
https://browser.geekbench.com/opencl-benchmarks

TDP aranyosan nagyon jo ertekei vannak, de
a jelenleg elerheto max-hoz kepest gyenge a szamitas, habar sok dolog ertelmes idon belul megoldhato,
alltalansoagban nem jelentenem ki hogy harmat gyenge, konkret feladttol fugg.
Az 5 eves GPU-m akkar 10x annyi armot is megeszik.
Ha nem lenne GPU hiany, upgradelnem.

"Komoly" munkra az a 16GB memoria
is problemas lehet, nem feltetlen GPU -n fog elbukni.

Amit nem lehet megirni assemblyben, azt nem lehet megirni.

Komoly grafikai munkákról beszélünk, ahol még a mai GPU árak mellett is pár nap alatt megtérül a sebességkülönbségnek köszönhetően. Egyébként én március elején vettem egy Zotac RTX 3070-et, 230e Ft-ért, de nem ez a lényeg! A lényeg az, hogy M1 vonalon nincs alternatíva semennyiért, bármennyit lennél hajlandó fizetni érte. Igazság szerint ezt a vonalat már akkor elengedte az Apple, amikor az NVIDIA támogatását megszüntette, ezzel kinyírva a CUDA-t, ami egy rakás 3D és tudományos projekthez kellene. Erre gyakorlatilag ma alkalmatlanná vált a macOS. Szépen átterelt engem is ez a folyamat Macről vissza Linuxra, ahonnan korábban jöttem az Apple platformjára.