"Az Apple az Inteltől is búcsút vesz"

Címkék

Ahogy arra előzetesen számítottunk:

Másfél évtizednyi partnerség után tegnap kiadta az Intel útját az Apple. Mostantól a cupertinói cég személyi számítógépeibe is saját fejlesztésű, ARM-alapú processzorok kerülhetek, az első ilyen Mac pedig már az idei év vége előtte megjelenhet. Az Apple magabiztosan állítja, a váltásnak számos előnye lesz, melynek többsége a felhasználók oldalán csapódik majd le. Jelen állás szerint a döntés legnagyobb károsultja az Intel lehet, amely komoly presztízsveszteség mellett a PC-piac közel 6 százalékát is elbukja a következő pár évben.

[...]

A tegnapi bemutató alapján az Apple a jól bevált PowerPC->Intel átállás forgatókönyvét húzta elő a fiókból. A vállalat szoftveres fejlesztéseiért felelős Craig Federighi szavai alapján a teljes átállás nagyjából 2 évig, azaz körülbelül 2022 végéig tart majd, amely során fokozatosan jelennek meg a házon belül tervezett processzorokra épülő különféle Macek, illetve a natív alkalmazások.

[...]

Az első Apple processzoros termék várhatóan egy újabb MacBook Air, netán egy 13-as MacBook Pro lesz, mely a processzort tekintve valószínűleg osztozik majd a következő iPad Pro központi egységével.

[...]

Érdekesebb kérdést jelent, hogy asztali környezetben, vagyis az iMac (Pro) és Mac Pro milyen processzort kaphat az Intel sokmagos és esetenként magas órajelű (Xeon) termékei után. Ez, vagyis az asztali PC-s és munkaállomásos terület egyelőre ismeretlen terep az Apple chiptervező részlege számára. Megéri-e egy dedikált, monolitikus processzort tervezni kifejezetten a nagyobb asztali gépekhez, megtérülhet-e a több százmillió dolláros befektetés pusztán az iMac (Pro) és Mac Pro termékek eladásaiból?

Részletek itt.

Hozzászólások

Aki képben van, hogy néz ki egy top arm és egy top x86 proci összevetés benchmarkilag? Feltételezem, hogy ha nem érdekes az energia meg a hűtés (pl. mac pro), akkor az intelek azért jóval erősebbek.

Fejből írom, úgyhogy fixme, de az A12Z, ami a mostani iPad Prókban van, single-core Geekbench tesztben kb. ott van, mint a i7-8***U, multi-core tesztben meg picit jobb is. 

De hogy ne csak szintetikus tesztekről legyen szó, az előző generációs iPad Próm (amiben még nem az A12Z van) rommá veri a céges i5-8350U-s gépet. Nyilván az nem egy high-end processzor, így nem fair a verseny, de a következő 5+ évre szerintem bőven elég teljesítmény lenne az iPadben desktop felhasználásra is, és ugye a Macbookokban már újabb CPU lesz.

szerk:

in 2018, the company claimed its new iPad Pro was faster than 92 percent of portable PCs.

Mármint érzésre vagy valamilyen szinten almát almával hasonlítasz össze? :)

A feladat almát az almával, a használt szoftverek persze nem ugyanazok (jellemzően ugyanannak az appnak az iOS-es és wines verzióiról van szó, de az persze nem feltétlenül jelent semmit)

Azert hozzá  kell tenni, az intel 14nm-re tervez, az apple a12z pedig már 7nm. Nem tudom miért maradt le az intel, lehet nem akarták kifizetni az extrém UV litográfiát. De sokak szerint a szilicium-félvezetők hamarosan elérik a korlátaikat, persze az apple lehet másképp gondolja... 

Ha valóban elérik a korlátokat, a risc előnyben lesz a cisc-kel szemben. Eddig is jobb volt persze a risc, csak az Intel nagyon ügyesen évtizedekig kihasználta gyártástechnológiai előnyét, versenytársai bénaságát, valamint a PC piac domináns helyzetét. Nagy pech volt az Intelnek az "erős" mobilok ilyen gyors sikere és növekedése. Itt ugyanis cpu teljesítmény mellett a fogyasztás, aksi idő, melegedés is kritikus tényező lett. Így már nem sikerült megtartani a trónt a cisc hátrányaival. 

Mitől van előnyben a RISC a CISC-cel szemben? Komolyan kérdem, mert eddig nem sikerült felfognom ezt a sokak által hangoztatott okosságot. Főleg azt nem értem, hogy ha ugyanannyi utasítást tud végrehajtani, akkor mitől jobb, ha egyszerűbbek az utasítások? Ha meg többet tud, akkor mitől tud többet?

Nekem egyébként  az Itaniumnak az a trükkje szimpatikus volt - legalábbis elméleti szinten -, hogy a lehetséges párhuzamosításokat már fordításkor fel kellett ismerni, és így nem volt szükség bonyolult prediktor logikára, ami alapján például az AMD64-ek eldöntik, hogy két utasítás futtatható-e párhuzamosan vagy nem? (Bár nem nagyon ismertem sosem a rendszert, csak cikkeket olvastam róla.) És ahogy hallottam ez egy nagyon jó ötlet lett volna, viszont nem lett sikeres, mert a tooling nem nőtt fel időben a rendszerhez, illetve ugye nem volt x86 kompatibilitás, mindent újra kellett fordítani rá, ami miatt nehézkes volt a használata.

Ezt tehát értem. De az, hogy valami RISC önmagában mitől előny?

Nem tudom, mostanában mitől előny. Régen, mivel a RISC utasításai egyszerűek voltak, a processzor mag egyszerűbb és kisebb lehetett, és emiatt magasabb órajellel lehetett hajtani, és emiatt gyorsabb volt.

Nem tudom, manapság hogy vannak a dolgok, de úgy tűnik, hogy órajelben nincs nagy különbség egy ideje. Az még mondjuk mindig játszhat, hogy ha kisebb és egyszerűbb a mag, akkor pl. kevesebbet fogyaszt és kevésbé melegszik azonos sebességen hajtva.

disclaimer: ha valamit beidéztem és alá írtam valamit, akkor a válaszom a beidézett szövegre vonatkozik és nem mindenféle más, random dolgokra.

Valaki össze tudná foglalni, hogy a mai
   x86_64
   ARM
esetén egyik mitől RISC, a másik mitől CISC?

Régen egyértelmű volt, ma viszont árnyaltabb számomra a kép. Amolyan
   - mindkettőben vannak RISC-jelleget mutató, egyszerű utasítások,
   - proci regiszterszám? x86_64-ben is 16-ra nőtt
   - ARM-ban is egyre több komplex tőbbórajeles utasítás van (pl. FMLA, ...)
   - egyre több annyira összetett utasítás van, ami komplett alrendszert mozgat meg. A NEON önmagában ilyen összetett aritmetikai alrendszer.

Erről a témáról elég hosszú és parttalan viták szoktak folyni. Egyszerűsítve és szempontok közül párat önkényesen kiragadva

Egy CPU magon belül a frekvencia által meghatározott időszelet alatt végre kell tudni hajtani bármilyen utasítást. Ha nagyon bonyolult utasítások is vannak, akkor a bonyolult utasítás időigényéhez kell igazítani a CPU órajelet, azaz kisebb frekvenciát lehet csak használni. CISC processzoroknál bőven vannak ilyen bonyolult utasítások. Erre az Intelnél és AMD-nél is már évtizedekkel korábban rájöttek és mára belül már ezek is RISC elvű processzorok. A lassú, sok áramköri elemet igénylő utasításokat ezért szétdarabolják több kisebb utasítássá, amit egyszerűbb áramkörökkel gyorsabban végre lehet hajtani és magasabb lehet az órajel. Így ugyan egy ilyen régi "bloat" utasítás esetleg csak több órajelciklus alatt lesz végrehajtva de nem kell miatta visszafogni az órajelet. 

RISC processzoroknál ez kevésbé probléma, mert ott eleve nem jellemzőek ezek a cisc típusú "bloat" utasítások. Ugyan több utasításra van szükség egy adott összetett művelet megvalósításához, de a frekvencia is magasabb RISC-en. Legalábbis sokáig így foglalták össze a különbséges cisc processzorokkal szemben. Ma már ez sem áll általánosságban. 

Hagyományosan több általános regisztere van az RISC prociknak. Csak regiszterekből lehet operandusokat betölteni szemen a CISC procikkal, ahol lazán vannak load-store műveletek aritmetikával kombinálva. És ez sem szerencsés dolog. 
RISC architektúrákon minden utasítás egyenlő hosszúságú, CISC-en nem. Így risc-en könnyebb a feldolgozás. 

Amiért a CISC régen népszerűbb volt, hogy Assemblyben barátságosabb volt programozni. Ma már ennek semmi jelentősége nincs. 

 

Igen az Itanium -féle VLIW modell lenne elméletben a leghatékonyabb. Jó és hatékony compilert viszont nagyon nehéz rá írni. Állítólag az Intel már itt elszúrta, mert a fordítóprogramok írása közösen partnerekkel nem ment túl gördülékenyen. Volt egy Transmeta nevű cég, amely más utat járt. Egy code morphing szoftvernek nevezett megoldással fordította át az x86 kódot saját VLIW archjára, miközben optimalizálta is. De akkora sikert mégsem hozott, ma már nincs a piacon a cég. Az oroszoknak van még egy hasonló elvű megoldása az Elbrus. Ilyen gépet nem tudom hol lehet venni. Talán Kreml engedély kell hozzá. :)
Lehet, hogy majd egyszerl a VLIW majd leváltja a RISC-et is, de a közeljövő inkább a CISC örökség visszaszorulásáról és a RISC térnyeréséről fog szólni, főleg az ARM miatt. 

Köszi és az előző 3 operandusos észrevételt is. Szeretem az ARM-on ezt, amikor nézem mire fordult a kód. De ha kérdezed, nem domborodott annyira ki, pedig tényleg így van.
Érdekesség: x86 SSE még kétoperandusos, elsőben az eredmény az AVX már 3 operandusos. Szintén mindkettőt gyakran nyúzom C kódjaimmal.

ARM-on egyébként nem órajel tempót lassítanak a leglassabbhoz, ma inkább az utasításléptetésnél kihagynak (skip), azaz van jónéhány többórajeles utasítás.
Érdekesség: load 1 regisztert --> 2 órajel,  load N egymás utáni regisztert --> N+1 órajel.
Az ARM-on levő MLAL ugyanannyi idő, mintha MUL+ADD két utasításból lenne végrehajtva. Viszont többlete, hogy ez idő alatt valójában a dupla 32 bites akkumulátorhoz adja hozzá a szorzat eredményeként előálló dupla 32 bites értékét.

A top arm (A12Z, s865) kb. i7U teljesítményt tud alacsonyabb tdp-vel. Nem skálázódnak jól (állítólag), úgyhogy ha feltekerik őket akkor se lesznek sokkal fürgébbek. Viszont gombokba kerül a gyártás, úgyhogy ki lehet tömni a házat velük. Most a japánok arm szuperszámítógéppel vették vissza a vezetést.

A lényeg, hogy laptop szinten a teljesítményük most is kielégítő, és nem A12Z hanem A14-ből lesz a release, annak is egy speciális, laptop-ra gyártott változatából.

Azt is hozzátehetjük, hogy ez csak a nyers CPU teljesítmény. Az arm-ok viszont jellemzően soc-ok. Így minden műveletet olyan részegység végezhet ami abban a legjobb. pl. 4k video vágás, effektezés a dev rendszernek se okoz problémát. A prezentáció alapján erősen meg lesz tűzdelve a soc különböző speciális részegységekkel.

Én egyedül Geekbench eredményeket láttam:

Arm a12z vs Intel i9-9900

Single core-ban nincs messze, és nyilván egy ipad nem erőre van gyúrva.

Intel még mindig a gyártástechnológiával szenved, szóval az új Apple chip ebben előnyben lesz.

Én azt várnám, hogy hasonló teljesítményt fog nyújtani mint egy hasonló fogyasztású Intel. Azaz nem lesz olyan nagy ugrás mint a PowerPC - Intel váltásnál. Ugyanakkor azt integrálnak bele és úgy ahogy nekik kell, szóval platform szinten lehet érezhető előrelépés lesz.

De a Rosetta 2-vel csak akkor futtatnék dolgokat, ha nagyon muszáj.

"...handing C++ to the average programmer seems roughly comparable to handing a loaded .45 to a chimpanzee." -- Ted Ts'o

ha nem érdekes az energia meg a hűtés

Linus Tech Tips a napokban foglalkozott azzal, amivel Louis Rossmann több évvel ezelőtt, hogy a mostani Mac-ekben (nem a Pro, de lehet, ott is az van) katasztrofális a hűtés (a laptop közepén levő CPU-n van egy heat spreader, az egyik szélén meg egy ventillátor, a kettő között pedig semmilyen hővezető közeg nincs), ami miatt turbó frekire a legritkább esetben tud felkapcsolni, és azt se bírja túl sokáig. Erre volt egy poénnak szánt konteós beszólása, hogy nem inkompetens amatőr barmok tervezték a gépet, hanem szándékosan fogták vissza a teljesítményét, hogy az ARM-ra váltáskor ne tűnjön fel a teljesítménykülönbség. Ami az alma standard üzletpolitikáját elnézve szerintem akár igaz is lehet.

BlackY

"Gyakran hasznos ugyanis, ha számlálni tudjuk, hányszor futott le már egy végtelenciklus." (haroldking)

Erre gondolom az Apple-nek igen hamar lesz valami Pro cloud rendszere, ami kipótolja majd a teljesítményt. Mert felteszem így jó eséllyel a Radeon termékcsalád is búcsút vesz az Apple-től, ott meg nem biztos, hogy tart a cég, hogy a Vega 10 compute képességeit helyettesítse házon belül.

A sok fanyalgónak: végre valami, amitől az Apple PC különbözni fog egy random PC-től. Tán még én is kedvet kapok hozzá! Linux gondolom futni fog rajta. :D

trey @ gépház

Igen, nekem is pont ez jutotteszembe, hogy lehet most már reálisabb érvek alapján lesz alternatíva. Főleg, ha a fogyasztásban sikerül előre lépni rendesen és látványosan javul az akkuidő is.

(Nekem nem ultravékony lapos kell alapvetően, jó ha dupla olyan vastag, ha cserébe pár óra után nem egy méregdrága levélnehezék lesz, hanem mondjuk az alap üzemidő 16-20+ órás lenne tweak nélkül.)

-42-

Attól az Apple-től, aki cpu throttling-al oldja meg a túlmelegedést laptopokban rutinszerűen, telefonok aksiját kímélendő szintén, miközben büszkén mondja az éves bemutatón, hogy hány százalékkal vékonyabb és könnyebb a telefonjuk, hát nem várnék panasonic toughbook kaliberű üzemidőket.

Mostanában nem próbáltam, de régebben Intel alapú laptopoknál sem igazán volt a downclock az aksi javára nagyon eredményes út.

Ha nem válaszolnék kommentben, hát küldj privátot!

A Hackintosh az én megítélésem szerint egy olcsó játék hülyegyerekeknek kategória volt mindig is, ami akár működhetett is, de production/munkára fogott eszköznél biztos hogy hanyagolnám. Nem kár érte, ha megy a levesbe. Majd visszatér ~10 év múlva, ha kipusztult az x86 :)

az olcsoval azert vitatkoznek, a hulyegyereket meg modositanam nagyon raero emberekre :)

mivel az elmult 8 evben nem adtak ki uj mac pro-t, nem nagyon volt mas valasztasa annak aki teljesitmenyt akart macos alatt...

es teny, hogy csak akkor mukodik tenyleg jol es stabilan, ha olyan hw komponensekbol rakod ossze a pc-t amiket az apple is hasznal a sajat gepeiben, es igy van nativ driver hozza. annyira nem nehez amugy, meg kell nezni milyen chipsetet hasznaltak a jobb macekben, gpu-bol lehet venni olyat (sot van olyan dobozos pc termek is amit az apple hivatalosan tamogat!), halokartyanal nagyon figyelni kell es legjobb ha linux alol atirod az eepromban a pci id-t, blutooth/wifi az neccess de ebay/alin lehet 20$ korul venni macbookba valo kartyat m2 vagy pci adapterrel. mondjuk mire ezekre az ember rajon/kitanulja azzal honapok mennek el :(  de ez is egy hobbi...

Értem hogy tudatos hardver választással meg lehet csinálni viszonylag könnyen meg jól, csak ha ha tökig vagyok munkával meg ideges ügyfelekkel, nem szeretnék olyan helyzetbe kerülni hogy az apple csendben lehoz egy updatet a macosra ami kiszúrja a dolgot, és ott b.szhatom a napidíjamat aznapra. Ezért mondom, hogy ez szórakozásra való.

apple nem szokott csendben lehozni updatet, ez nem windoz, hogy egyszercsak kozli hogy most ujraindul es frissit :)

szolni szokott (de ez is kikapcsolhato egyszeruen) hogy van uj update, es ha akarod telepiti most, vagy emlekeztethet kesobb.

nyilvan melo kozben nem nyomok ra en se hogy hajra frissulj. max 7vegen ha nagyon unatkozom. meg nem art amugy se egy backup elotte.

A'rpi

Jol ertem, hogy az Apple-kompatibilis, osszevalogatott, eros PC az egy piaci res? Ha kitanulod, es ossze tudsz rakni ilyet, akar arusithatod is. Ha az almaek nevet nem ejted ki a reklamban (csak a vevok terjesztik), az ugyvedek sem talalnak rajtad fogast.

When you tear out a man's tongue, you are not proving him a liar, you're only telling the world that you fear what he might say. -George R.R. Martin

Ertelemszeruen vagy OS nelkul, vagy valamilyen Linux disztroval adod. A user tehet ra azt, amit akar, egeszen veletlenul persze kompatibilis vele. Ahogy a Menthost is paran arra hasznaltak, hogy dietas kolaval keverjek, meg a Nexus 4-est, hogy Ubuntut tegyenek ra. Nem ez a hivatalosan ajanlott felhasznalasa, aztan ha a vegfelhasznalo megis ezt teszi, az az o dolga.

When you tear out a man's tongue, you are not proving him a liar, you're only telling the world that you fear what he might say. -George R.R. Martin

Akkor ez a biznisz szerintem nem lesz nagy durranás, mert elég kicsi lehet az alábbiak közös metszete:

  • nem akar/tud Mac Pro-t venni, és
  • nem tud összerakni magának egy Hackintosh-kompatibilis gépet, de
  • fel tudja telepíteni a macOS-t (ami nem is feltétlenül triviális, és egy meglevő Mac gép kell a .iso letöltéshez)

jogilag biztosan necces. es nem csak az os miatt. ugye ahhoz hogy a cloud-os feature-k (imessage, app store stb) mukodjenek, be kell hamisitani a biosba apple model id-t es serial numbert, es a halokartyanak is, mert annak a mac cimehez rendeli hozza.

mondjuk nekem az OS megvan legalisan, 2010-ben vett eredeti mac pro-bol raktam at macos-el egyutt az ssd-t a pc-be, es azt hasznalom azota is, csak frissitve lett parszor. ha ugy nezzuk, csak a hardvert upgradeltem alatta :)  bar microsoftnal az oem win alatt nem cserelhetsz alaplapot se, ha jol tudom.

gondolom igen, mert tobb ceget is lattam akik ezzel foglalkoznak (foleg usa). arulnak pl. apple(kompatibilis) biossal flashelt videokartyakat, halokartyakat, speci atalakitokat amivel az apple ssd-t vagy wifi/bt kartyat pc-be (akar laptopba is) tudod dugni stb.

igazabol az a lenyeg, hogy az apple is ugyanolyan pc hardver alkatreszekbol epitkezik amit te is meg tudsz venni kb barhol, az elteres nagyreszt a bios/firmware koztuk. meg neha a csatlakozo (ssd,wifi modulok). az meg ugye utolag is atirhato, lecserelheto, atalakithato, csak nem annyira trivialis.  a legnagyobb melo kb annak a bios patch (DSDT) filenak az eloallitasa, ami illeszkedik az alaplapod pc biosahoz es atforditja azt olyanra hogy a macos szeresse (apple vasnak tunjon). ha ez jol sikerul, onnantol mar barmi megy, macos telepites es update is, nekem is siman ment a nagy verzio frissites is.

nyilvan az apple is rajott erre, es ezert kezdtek el 1-2 eve a T2 vagy milyen security chipet is szerelni a gepekbe, amit mar nem valoszinu, hogy tudsz venni/emulalni. bar anno az SMC-vel is ez volt es megis megoldottak...

Valahogy gondoltam, hogy ha az igeny ott van, hogy valaki ne 8+ eves Macet vegyen, es ne kelljen hozza honapokat olvasnia, akkor arra idovel a kinalat is kialakul. Es igen, ha a T2-t megkoveteli minden vas, az meg fogja neheziteni ezeket a hackintoshokat is.

No mindegy, ezt teljesen kivulallokent szemlelem (nem szeretem a ceget, a fanboyaikat kulonosen nem, es a termekeik is blacklisten vannak).

When you tear out a man's tongue, you are not proving him a liar, you're only telling the world that you fear what he might say. -George R.R. Martin

Valahogy gondoltam, hogy ha az igeny ott van, hogy valaki ne 8+ eves Macet vegyen, es ne kelljen hozza honapokat olvasnia, akkor arra idovel a kinalat is kialakul.

Sajnos ez közel sem biztos, mert a potenciális ügyfélkört tovább szűri (és persze kifejezetten a fizetőképes érdeklődőket elhappolva) a Mac Pro. Ha neked valóban egy olyan gép kell, amiben 1.5 TB ECC RAM van, és egy 28 magos Xeon W dolgozik benne, és feltétlenül macOS fusson rajta, akkor olyat is vehetsz. Drága lesz, mint a k*rvaélet (11M+ HUF), de akinek ilyen projektre kell gép, az nem biztos, hogy hackintosh-sal fog szórakozni.

igen, mostmar van. miota is kaphato? kb fel eve. 1 eve jelentettek be, elotte 8 evig nem volt csak macmini meg imac meg a laptopok!

az meg vicc, hogy az en kb 400e-bol osszerakott gepem leveri teljesitmenyben az uj mac pro 6000$-os alapmodeljet.

mondom ezt ugy, hogy 2004-ben es 2010-ben is megvettem az akkori csucs mac pro gepet...

When you tear out a man's tongue, you are not proving him a liar, you're only telling the world that you fear what he might say. -George R.R. Martin

Szerencsémre (jaj, most mi lesz, a HUP népének egy tagja szerint olcsójános vagyok), én csak viccnek gondoltam, hogy Mac szart veszek, mert számomra az a gép, amin nem létezik egy rendes, magyar billentyűzet, nem rúg labdába. ;) Így nem fenyeget az a baleset, hogy Ubuntut kell tennem rá.

trey @ gépház

Két hónapja feltettem az új Ubuntut a jónéhány éves macbookomra, mert munkához kell. Azóta azon dolgozom. Hát, nem volt egy könnyű menet. Kb. egy hétbe telt, mire majdnem minden működött rajta. Pl. wifi driver nem volt a telepítőben, webcamhez githubról kellett vadászni drivert, standbye nem ment, hibernálás most sem megy, touchpad letiltása gépelés közben  most sem működik. Nvidia driverrel nem lehetett felbontást lejjebb venni, a teljes felbontás a retina displayen borzasztó apró, a fraction scaling nincs, ha jól emlékszem. A nouveau driverrel van fraction scaling de használhatatlanra lassítja a gépet, de legalább a felbontást le lehet venni, így használható. És ez nem a teljes lista.

Szóval lehet, hogy menő, de inkább tökön szúrnám magam, mint hogy még egyszer mac-re próbáljak linuxot rakni.

ARM-ra forditott Linux mar megy rajta Parallels VM-ben, bemutattak a WWDC-n. Arra en is kivancsi vagyok, hogy pl. pendrive-rol bootolhat-e majd rola egy Linux host OS. A bootcampet ugyanis ugy nez ki feladtak, de a Linux eddig se bootcamppel bootolt, hanem az EFI-nek "szolt" Mac hardveren, hogy "masik boot eszkozt dugtam be". 

Szerkesztve: 2020. 06. 24., sze - 10:51

Nem hiszem, hogy nekem ez jól fog jönni. Több virtuális gépet is használok, ahogyan sokan mások. macOS / VmWare Fusion alatt. Többek között Win XP-től Win 10-ig. Ha megoldja a VMware, Parallels, Oracle VirtualBox, stb. akkor is kompromisszumokkal. Az a gyanúm, hogy Inteles gépet kell majd választania annak, aki hasonlókon fejleszt, üzemeltet vagy használ. Itt is pont ez a téma: https://www.macrumors.com/2020/06/23/rosetta-wont-support-x86-virtualiz…

Messze vagyok a területtől, csak annyit látok hogy egyre másra jelennek meg az ARM szerverek, és a cloud providerek is kezdik behozni (AWS-en például már lehet arm-os gépeket üzemeltetni). Ez nyilván nem azt jelenti hogy itt és most nyert az ARM, csak a folyamat kezdetét.

ARM architektúrák számítási teljesítménye igen sokat javult. Nem véletlen, hogy a japán szuperszámítógép is ARM alapon épült meg. Jobb a hatékonysága, azaz a
   számítás / energiafogyasztás
mérlege és így is világelső lett.
https://www.anandtech.com/show/15869/new-1-supercomputer-fujitsus-fugak…
 

A legacy kod miatt sokaig marad.

Elmeletem szerint vagy "legacy-kod futtato architektura" lesz hosszu tavon az x86/x64-bol (pl amikor valaki Play Station 1-et vagy 2-t tart otthon), vagy megjelenik olyan konnyen kezelheto emulacio Win es macOS ARM hostokra is eveken belul, hogy arra se kell hasznalni.

Ezt a "legacy kod" kifejezést nagyon kedvelem. Addig all fun and game, ameddig az ember zöldfülű, hiszen addig minden legacy kód, amit nem mi írtunk :-). Hiszen mi még nem írtunk semmit. De amikor már a karrierünk elején írt dolgok lesznek a legacy szarok, akkor már másképp néz ki ez a kifejezés.

Egyébként meg mi is tulajdonképpen a legacy kód? Ami már elkészült, tehát nem csak tervezőasztalon (illetve inkább csak valakinek a fejében) létezik, hanem a valóságban is. Ráadásul áltlaában valamennyire már tesztelve is van, tehát végsősoron értékké vált.

Ne ilyen onerzetesen:

Egeszen mast jelent a legacy kod programozo csapatok kornyezeteben: leginkabb olyan kodot, ami csinalja a penzt, de mar reg mindenki felmondott, aki dolgozott rajta, vagy aki 5 eve irta, az is tok mas reszlegen van es nem hajlando hozzanyulni. Az, hogy nehany programozo-hercegnonek nem tetszik, hogy nem az o class es interface strukturajukkal dolgozott egy amugy tok olvashato kodon valaki 2 eve, az meg ehhez a ponthoz is csak remotely tartozik - es ha jol ertem eppen rajuk szeretnel panaszt tenni (egyebkent alapvetoen okkal)

De amikor _hasznalni_ szeretnel dolgokat, akkor az a legacy program, amit utoljara akkor forditottak le, amikor Windows 98 es Mac OS 9 volt. Vagy XP es Mac OS X 10.5. Az, hogy ma futtathatod wine-nal Linuxon, vagy Win10-en, vagy macOS <= 10.14 Mojave-n, azt a joszerencsenek koszonheted. Ettol legacy. Senki nem fogja ujraforditani meg x64-re sem, nemhogy ARM-ra.

Na es ezeknek a programoknak a futtatasara lesz ugymond "orok" technologia az x86 - mert el nem hinned milyen 90-es evekbeli szoftverekhez ragaszkodnak neha emberek. A legerthetobb peldak a jatekok, ahova sokszor az a minimalis 3D emulalas (foleg architekturak kozti), amit igenyelnenek, az is "hianyzik" (minimum nem felhasznalobarat a megoldas, meg ha mukodik is).

Hogy mi az a legacy code? 

“Code without tests is bad code. It doesn't matter how well written it is; it doesn't matter how pretty or object-oriented or well-encapsulated it is. With tests, we can change the behavior of our code quickly and verifiably. Without them, we really don't know if our code is getting better or worse.”

Michael Feathers, Working Effectively with Legacy Code

https://www.goodreads.com/quotes/718460-code-without-tests-is-bad-code-it-doesn-t-matter-how

Ez ugyanolyan, mint az "only valid measurement for coding quality is WTFs / minute"

Keptelenseg ezzel az allitassal is nem-egyeterteni, de ettol meg a valos definiciotol messze van.

Talan ugy mar kevesbe hangozni pseudo-science-esen, ha azt mondanank: "legacy code az, amire kozel lehetetlen unit test-et irni". Ez igy szebb, mint a "legacy kod az, amire nincs unit test". Ha mar a unit test megletehez akarjuk kotni.

Az talán túlzás hogy megvannak számlálva, de tény és való hogy pár éven belül az ARM architektúrával is komolyan kell számolni. Az IBM / Power továbbra is más pályán játszik , PowerPC meg nem tudom van-e még. Másról meg nem tudok, ami felér az Intel/AMD x86-al. 

“Luck Is What Happens When Preparation Meets Opportunity" - Seneca

Nincs vége, csak a docker Rosetta alatt fog futni. Akinek kevés lesz az a két absztrakciós réteg, az vigyázzon, nehogy úgy járjon mint a viccben, és azt mondja nekik az Apple mikor visszaviszi hogy nem tud dolgozni rajta: kár, pedig még lettek volna ötleteink.

Lehet, hogy ők meg azokon röhögnek, akik nem mac-en szerencsétlenkednek virtuális gépekkel.

Kinek mi áll kézre, milyen a feladat, a lehetőség, stb. Én pl. Apple Xserve-n Parallels alatt üzemeltettem az egyik helyen hosszú éveken keresztül virtuális gépeket. Pl. több MS + Citrix terminal servert. Nagyon stabilan, megbízhatóan működött. Hibája és hiányossága persze volt az OS X szerver verziójának, de azokat ki lehetett kerülni. Az ARM-on szerintem nagyon be fognak szűkülni a lehetőségek ez ügyben, de az Apple-nek ez már - úgy látom - nem a támogatott területéhez tartozik. A fejlesztőknél is nagy a szórás. Nagyon sokféle területen dolgoznak, az igényeik, a környezetük is eltérnek. Szóval én nem általánosítanék, de a processzor család váltás miatt sok (nem az Apple gépeire) fejlesztő más környezetet fog keresni. De ezt még sok évre saccolom.

Nincs statisztikám (van ilyen?), de amikor az AWS elkezdte az első ARM-os szervereket (2018-ban? Igen, 2019 elején kezdtünk ilyeneket használni), azért ezt az "armos docker imagek már bőszen vannak" dolgot nem éreztem, jópár dolgot magamnak kellett megcsinálnom, és volt is szívás azért vele...

Hogy kell egyébként ezt a rosettát elképzelni? Az értem, hogy az AMD64 ASM-et át lehet írni nagyjából kompatibilis ARM ASM-re, max 1-1 utasítás nem 1 utasítás lesz odaát. A gondok ott kezdődnek számomra, hogy a vezérlő szerkezetekben a címek nem fognak stimmelni, így az ugrásoknál trükkzni kell valamit. Plusz a stacket teljesen kompatibilisan kell tartani, hogy úgy nézzen ki mintha az x86/AMD utasítások hozták volna létre. És például egy visszatérési cím tuti nem oda fog mutatni, ahol az ARM kód csücsül. Ha meg egy program a stacken illegálkodik - például green threadeket valósít meg, vagy ilyesmi és állítgatja az SP-t, vagy a visszatérési címeket a stacken, akkor pláne káosz lesz belőle. Szóval adott a kérdés: hogy működik ez? Van valami speckó utasításkészlet támogatás erre, vagy simán emulátorként megcsinálták?

És miért nem lesz belőle 32 bit támogatás? Csak simán a plusz effort miatt, vagy pedig van valami elvi korlát, ami miatt nem lehet megcsinálni?

Most sem futnak mar 32 bites appok, miert hoznad ezt vissza az emulatorhoz?

A regi rosetta az futasideju emulator volt, itt most azt mondtak, hogy elore fog forditani az elso futasnal. Ehhez egyebkent mar most is van az Applenal egy technologia. Ha a fejleszto ugy tolja fel az App Store-ba az appot, hogy a "BitCode" be van kapcsolva, akkor az Apple rendelkezik egy olyan binarissal, amit kesobb ujra es ujra le tud forditani. Ezt fel tudja majd hasznalni a jelenleg az App Store-on keresztul terjesztett Mac es iOS alkalmazasokhoz is. Ezt mar demonstralta, amikor 64 bitesitette a Watch appokat a 2018-ban megjelent 64 bites ARM-ot tartalmazo Apple Watch. Link: https://venturebeat.com/2018/10/01/apple-watch-apps-instantly-went-64-b…

Szerintem nem fog kelleni bitcode az AOT-hez, hiszen pont az a lényeg, hogy módosítatlan x86 appok is fussanak Rosettaval, és MacOS-en nem kötelező bitcode-ot mellékelni. Most a WWDC-n biztos lesz / volt erről részletesebb előadás. A futásidejű komponens is megmarad JIT supporthoz egyébként.

Újabb pofon az intelnek az AMD feltámadása után.  Én személyesen örülök minden lépésnek ami megtöri az utóbbi évtized monokultrúráját és felkavarja egy kicsit a poshadt állóvizet az asztali processzorok körül.

:wq

A vicces számomra az, hogy ez már ott volt évek óta a levegőben, az Apple nem titkolta, hogy a processzor gyártással nem csak hobbiból foglalkoznak, a biztonsági hibák nem ma születtek az Intel processzorokban, nyilván túlzás lenne ezt mondani, de hasonló, mint a dead man walking, amik most ütnek mjölnir jellegű kalapácsként, azok már évek óta ott voltak.

Ha nem válaszolnék kommentben, hát küldj privátot!

Kevésbé leszel lelkes, ha kiderül, hogy ha saját oprendszert akarsz futtatni, akkor továbbra is max AMD és Intel marad, mert a normális teljesítményű ARM SoC-ok mondjuk mind secure bootosok, de még ha tudsz rájuk kernelt tákolni, akkor sem mész velük sokra, mert nem lesznek csak binary blob driverek valamilyen jó régi kernel verzióra... kb. mint ami az Embedded Linux / Android világban most is van...

Ne legyen igazam...

Most olvastam ezt: https://sigpipe.macromates.com/2020/macos-catalina-slow-by-design/ Ez komoly? Netről kérdezi meg, hogy futtathatja-e a binárist? Fejben csatoljuk ezt össze a Secure boot technológia lehetőségeivel, merre is tart ez az egész?

Csak nem Stallman-nak lesz megint igaza?

Attól hogy a mai arm procik soc -ok, nem hiszem hogy akadálya lenne olyan arm proci legyártásának ami fizikailag hasonlít a mai desktop procikra, azaz ki-be tehető alaplapba, megengedve hogy modularizált PC-t és tetszőleges OS -t futtassunk rajta. Vagy? (alulképzett vagyok, ezért kérdezem)

Mennyire reális az, hogy egy cég mindenből a legjobbat tudja elkészíteni?

Szóval a legjobb processzort, a legjobb operációs rendszert, a legjobb egeret, fülhallgatót, billentyűzetet, képernyőt, laptopot, akármit. A videokártyát már az Apple gyártja e saját gépeibe, vagy az a következő projekt lesz?

Tudom, hogy felveti őket a pénz, de vajon csak pénz kérdése az, hogy megcsinálják a legjobbat mindenből?

Nem tudom a választ, ha jól emlékszem, az IBM-en kívül eddig nem volt még olyan cég ami magának épített volna processzort, gépet és OS-t. (Illetve voltak talán játék konzolok, úgy rémlik, bár nem tudom, azok mennyire voltak általános vagy célgépek).

Eddig valahogy logikusnak tűnt, hogy ha van egy olyan cég, aminek a fő profilja mondjuk processzor tervezés és van több évtizedes tapasztalatuk, akkor várhatóan a megadott specifikációk alapján jobb terméket tudnak kifejleszteni, mint egy olyan cég, aki a specifikációk megálmodása után eldönti, hogy maguk meg is tervezik és meg is építik.

De persze simán lehet, hogy van valami olyan szempont, amit nem veszek észre, és pár év múlva már ez lesz a trend, a Tesla autóban Tesla által tervezett és gyártott processzor lesz, a HP laptopban HP által tervezett és gyártott, a Samsung telefonban meg a Samsung által tervezett és gyártott.

disclaimer: ha valamit beidéztem és alá írtam valamit, akkor a válaszom a beidézett szövegre vonatkozik és nem mindenféle más, random dolgokra.

Nem tudom a választ, ha jól emlékszem, az IBM-en kívül eddig nem volt még olyan cég ami magának épített volna processzort, gépet és OS-t.

A Commodore gépekre ez rámondható, CPU: MOS Technology 6502, OS: Commodore BASIC, igaz az csak a Microsoft BASIC továbbfejlesztése.

Egyébként ezt úgy hívják hogy vertikális integráció és vannak rá kiváló példák a múltból és a jelenből is.

Nem tudom a választ, ha jól emlékszem, az IBM-en kívül eddig nem volt még olyan cég ami magának épített volna processzort, gépet és OS-t.

Az Intel és az ARM vonalak kivételével gyakorlatilag az összes CPU gyártó köré szerveződött egy gép/OS gyártó is. Az Intelhez ugye ez nem kellett, mert ott volt a PC, mint architektúra, az ARM meg eleve általános célú termékként jött létre, vendorfüggetlen termékként.

Power - IBM - AIX/OS400
SPARC - Sun - Solaris
Alpha - DEC - Digital Unix
VAX - DEC - VMS
PA-RISC - HP - HP/UX

csak ami így eszembe jut elsőre...

Igaz. Nem tudom, miért csak az IBM ugrott be, pedig használtam is ezek közül hármat (és IBM-et pont nem).

Viszont ezek kb. azért múltak ki, mert egy cégnek fejleszteni mindent is nem volt gazdaságilag kifizetődő. Az intel a hatalmas mennyiség miatt jobb árat tudott adni, és olyan sebességgel fejlesztette a processzort, amivel nem tudtak lépést tartani a többiek. Nem? Legalábbis az alpha meg a sparc az megszűnt. Nem tudom fejből, hogy a többivel processzor architektúrával mi lett.

disclaimer: ha valamit beidéztem és alá írtam valamit, akkor a válaszom a beidézett szövegre vonatkozik és nem mindenféle más, random dolgokra.

Szerintem a különbség itt a felhasználói bázisban rejlik. A felsorolt cégek piaca esetében a "rajongói tábor" fogalma értelmezhetetlen, miközben az Apple azért nagyban erre a rétegre alapozta a sikerét. Nem kell a legjobbnak lenniük semmiben, amíg a felhasználóiknak tudják nyújtani a közösségbetartozás élményét.

Legalábbis az alpha meg a sparc az megszűnt. Nem tudom fejből, hogy a többivel processzor architektúrával mi lett.

A SPARC pont még létezik, az Oracle is és talán még a Fuji is gyárt ilyen gépeket. Az Alpha már sehol nincs, ahogy a PA-RISC se, a VAX meg pláne nincs már sehol.

https://www.oracle.com/servers/sparc/m8-8/

Itt a fő probléma, hogy mekkora piacra akarsz lőni. A VAX pl. szerintem ott bukott meg, hogy eleve valami nagyon vékony niche marketet célzott be, ahol aranyáron lehet gépeket eladni, ami a 80-as években még el tudta tartani ezt a produktumot, de az ezredforduló után annyira már nem. A UNIX-osoknál a Solaris kivételével mindenki azt a szerintem hibás koncepciót próbálta meglovagolni, hogy nem csinált az oprendszerből x86-os verziót, mondván, ez valami különleges és drága cucc, és csak a saját platformján lesz tuti. Ezzel rettentően le lehet szűkíteni a potenciális felhasználói bázist, ami viszont vagy oda vezet, hogy igen drága lesz a tesztelés, és sok embert kell erre tartani, vagy fos lesz a kódminőség (egy régi kollegám szavai a Solaris 2.5.1 for PowerPC-re: pont olyan stabil, mint bármely más 5 példányban eladott operációs rendszer), mert a fizetős felhasználókat nézzük bétateszternek - csak ezt egy aranyáron eladott platform egyetlen oprendszerével nem igazán fogják tolerálni a vevők, aranyár nélkül meg nem tud rentábiilis lenni. A Sun-féle stratégia sem biztos, hogy sokkal eredményesebb volt, de az biztos, hogy a "játsszunk otthon valami commercial UNIX oprendszerrel" projekt hobbistái nem RS/6000-eket, DEC Alphákat, vagy PA-RISC-es gépeket vittek haza, hanem felrakták otthon az x86-os Solarist. És ebből lett egy halom ember, aki értett hozzá, meg lett egy halom bétatesztelő is, míg ilyen a többi platformnak nem lett.

Intel a hatalmas mennyiség miatt jobb árat tudott adni, és olyan sebességgel fejlesztette a processzort, amivel nem tudtak lépést tartani a többiek

Az lényeges része volt a problémának, hogy az egy rendszerben értelmes áron megvalósítható kapacitás akkorára nőtt az Intel vonalán, ami már a feladatok jelentős részére elég volt. Tehát míg 2000-ben lehetett kapni 2 CPU-s Intel gépet erős áron, meg 4 CPU-sat már ultradrágán, osztán csókolom (minden ennél nagyobb cucc x86-ból, az kb. egyedi handcrafted megoldás volt, amihez custom hekkelt OS kellett), addig a legnagyobb kapható Sun gép 2000-ben 64 CPU-t tudott magába foglalni, és pontosan ugyanazt a Solarist futtatta, mint az 1 CPU-s Ultra 1 - ehhez képest 2010 táján már jöttek ki a 8-10 core-os Nehalemek, amikből egyszerűen lehetett 8 CPU-s gépet építeni - amire meg 60-70 core/gép nem elég, na olyan feladat nem sok van. Ergó nem volt már meg az az igény a vevők részéről, hogy nagyobb gépet vegyenek, mint amit Intel alapon elő lehet állítani.

A Sun alapvetően pl. ott elbaszta, hogy amikor látszott, hogy az Intel világa mennyire jön fel (ez már 2006 környékén látható volt), akkor nem állt át a tömegtermelésre x86 vonalon. Így viszont nem volt versenyképes a többi x86-os gyártóval szemben (lassan és csak keveset tudott termelni, az egész logisztika nem olyan volumenre volt berendezkedve), a régi vonalon meg nyilván vesztette el a potenciális kuncsaftokat, akiket árban versenyezve tudott volna csak megtartani - erre akkoriban az x86 volt a mondás.

Mostantól a cupertinói cég személyi számítógépeibe is saját fejlesztésű, ARM-alapú processzorok kerülhetNek, az első ilyen Mac pedig már az idei év vége előtte megjelenhet

Beleolvastam az oldalba, és ezen akadtam meg:

RISC OS normally calls folders “directories”. This guide uses “folders” to keep things simple for new users

És erről az jutott eszembe, hogy a Windows elkezdte a directory-kat foldernek hívni, de azért mindenki továbbra is directory néven beszélt róluk. Persze, tudom, közben eltelt mondjuk 20 év, és ezalatt felnőtt egy generáció, akik a folder nevet látták először és ezt szokták meg.

disclaimer: ha valamit beidéztem és alá írtam valamit, akkor a válaszom a beidézett szövegre vonatkozik és nem mindenféle más, random dolgokra.

Az első UNIX-ról szóló könyvemben a könyvtárakat katalógusnak hívták pl. (magyarul, nem tudom, mi lehetett az angol, eredeti).

Inode meg I-bög. De szép is volt.

disclaimer: ha valamit beidéztem és alá írtam valamit, akkor a válaszom a beidézett szövegre vonatkozik és nem mindenféle más, random dolgokra.

> Inode meg I-bög. De szép is volt.

Ha visszamehetnék az időben kijavítani pár szakmai baromságot, amikből mostanra megkerülhetetlen legacy hordalék lett, amikkel kénytelenek vagyunk együtt élni, egy jó erős szívlapáttal a kezemben elkanyarodnék azokhoz a cégekhez is, akik az utolsó lehelletükig próbálkoztak az ilyen nyelvújításokkal.

windows alatt vegyesen hívják őket directorynak és foldernek. Egész pontosan a rendszer directorynak hívja őket (ahogy MS-DOS-ban is volt), a felület meg foldernek. Ilyen volt másutt is, pl. Amigán a WorkBench - többnyire - drawernek hívja őket, a rendszer meg directorynak. (Nem mernék megesküdni, de mintha az Apple is a GUI-n foldernek hívná a directory-kat.)

Egyébként maga a "folder" kifejezés nem a windowsból származik, hanem az ERMA Mk I.-ből (1958).

Ugyan használtam Amigát évekig, de nem emlékszem drawer-re. Ettől még lehetett, csak azóta eltelt majdnem 20 év.

Fogalmazzunk úgy, hogy én először Windows alatt láttam folder-t, már nem emlékszem, de talán a Win95-ben. Azóta Windows alatt a GUI-n folyamatosan folder-t látok, de beszélgetésben a nagy többség direcory-t mond.

disclaimer: ha valamit beidéztem és alá írtam valamit, akkor a válaszom a beidézett szövegre vonatkozik és nem mindenféle más, random dolgokra.

> Ugyan használtam Amigát évekig, de nem emlékszem drawer-re. Ettől még lehetett, csak azóta eltelt majdnem 20 év.

Én még ma is használom.

https://en.wikipedia.org/wiki/Workbench_(AmigaOS)

The desktop itself is called Workbench and uses the following representations: drawers (instead of folders) for directories

Még az ikonjai is fiókok.

> Fogalmazzunk úgy, hogy én először Windows alatt láttam folder-t, már nem emlékszem, de talán a Win95-ben. Azóta Windows alatt a GUI-n folyamatosan folder-t látok, de beszélgetésben a nagy többség direcory-t mond.

Mert az MS-DOS is directory-nak hívta, míg a windowsok (amik csak GUI-k voltak a DOS felett) meg foldernek. De egyébként most lecsekkoltam, az Apple is foldernek hívta a GUI-n, már a Lisa és az első MacOS óta.

Tudja valaki, hogy az Intel mit csinalt cpu fejlesztes cimszo alatt az elmult cca 10 evben?

(vagy inkabb helyette)

Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

Élvezte a Core architektúra okozta piaci előnyét. Aztán jött a Ryzen és 3/4 év ostorral hajtott kapkodás múlva másfélszer annyi maggal szórta az i5-8xxx szériát az i5-7xxx-hez képest. És változatlan áron, amit fél egy évvel később jelentősen csökkentett.
https://www.cpubenchmark.net/compare/Intel-i5-7400-vs-Intel-i5-8400-vs-…

2400/2107 * 3,5 GHz = 3,986 GHz

Turbo Speed Up to 3.5 GHz Up to 4.0 GHz

Egyszálas végrehajtásnál több hőterhelést engedtek meg a mérnökök, így ekkor az előzőnél magasabb órajel lett engedélyezve.
Semmit sem javult az architektúra.

A PassMark Software weboldalán nem így gondolják:

https://www.cpubenchmark.net/singleThread.html
Intel Core i5-8400 @ 2.80GHz (65%) 2,419 $159.99
Intel Core i5-7400 @ 3.00GHz (57%) 2,107 $149.99

Ettől még meggyőző, amit írsz, és egy weboldalon is lehetnek hibás adatok, szóval most már érdekelne, hogy mi az igazság, de nincs módom magam tesztelni ezt a két CPU-t :)

Á, most értettem meg a gondolatodat.

$ cat /sys/devices/system/cpu/intel_pstate/no_turbo
... szerintem root-ként nem echo-zott be az átlag user ide (pontosabban Windowsos megfelelőjébe) 1-et, hogy letiltsa a turbót. BIOS-ból sem elterjedt a tiltása.
A userként elfuttatott, a cpubenchmark oldalról letölthető tesztprogi pedig nem tudja ezt nálad átírni. Vagy rendszergazdai jogokkal akar futni? Ez utóbbi esetben végülis hozzáférhetne, userként viszont nem.

Amiből kiindultunk, a single thread sebességarányok szintén erre a turbó órajel arányra utalnak.

Nem igazán érint ez az egész, de azért véleményem van, azt hiszem:

Tulajdonképpen a fejlesztés/fejlődést részt nem érzem benne. IPad Pro-ból kukázzák az összes jó dolgot, majd ráaggatnak egy billentyűzetet. Melyik user-nek jó ez? (feltételezve, hogy a következő macbook tényleg "csak" a cpu-ban lesz más, mint az idén kapható)

Btw nem feltétlenül lesz nehéz megugrani a jelenleg mac-ekbe épített, hűtés nélküli, 2-4 magos Intel cpu-k teljesítményét. Marketing kicsit hozzáad majd, hogy amúgy is csúnya az Intel, és a kompatibilitási problémák valójában a fejlesztő cégek hibája, hiszen 2020-ban minden kódnak "hordozhatónak" kellene lennie, meg amúgy se érjen már egyetlen platformot se hátrányos megkülönböztetés.

Mit ertessz az iPad Pro-nal billentyuzet raaggatason? Az iPad Pro-n nem macOS van, emiatt sokkal korlatozottabban hasznalhato. Ahogyan az Apple korabban mar atvaltott PowerPC-rol Intelre (van meg par mukodo PowerPC masinam), ugyonugy fog atvaltani Intelrol ARM alapu gepre is. Az OS marad, alatta mas lesz a CPU. A binarisokban egy ideig benne lesz az Intel x86-64 kod mellett az ARM64 kod is, ahogyan a korabbi evekben benne volt az x86-64 mellett az x86-32, elotte pedig a ppc, ppc64 es a ppc7400 is. Egy ideig (szerintem az elso ARM gep megjelenesetol szamitott 2-4 evig) mukodni fognak az Intel x86-64 alkalmazasok, majd ezek szepen elhalnak. Ezen a platformon nincs kompatibilitasi kenyszer, evek ota nem indulnak el mar  macOS alatt az elso idokbol szarmazo Inteles kodok (sem a 64 sem a 32 bites), az elmult oszi frissites ota pedig mar a 4-5 eves 32 bites kodok sem. Tehat ezen siman tul fog lendulni a piac, mert az alkalmazasok ujra lesznek buildelve. Ha valaki rendesen dolgozik, akkor tenyleg csak egy pipa lesz az Xcodeban, ahogyan a PPC idoszakban is sok alkalmazasnal egy pipa volt.

Ez a beszállítói lánc kontrolljáról szól. A durva, hogy ha végignéztek az IT piacon, az Apple az egyetlen jelenleg, ami a teljes HW és SW stacket kontrollálni tudja. Mindenki más (a Google vagy a Samsung is) valamelyik kulcsfontosságú komponensnél külső beszállítóra szorul. 

Persze az Apple is sok külső beszállítóval dolgoztat (chipgyáruk sincs, hanem bérgyártatnak, meg összeszereltetnek ... stb.), de a know-how, a tervek mostmár mind náluk lesznek. Az a pár dolog, ami nem, ott meg gondolom vagy van verseny és tudnak válogatni, vagy kvázi monopolhelyzet van és mindenki más is az ő beszállítójukkal dolgoztat.

Ha csak a szoftver oldalt nézitek, a Google-ön kívül nincs másnak egy kézben:
- OS
- fejlesztőeszközök
- böngészőmotor (az MS most dobta be a törülközőt és váltott Chromiumra)
- App Store 

És a Google-nek nincs saját hardvere...

Szerkesztve: 2020. 06. 25., cs - 12:24

Lehet majd futtatni Raspberry Pi -n a macOS Big Sur-t?

Raspberry Pi 4 Tech Specs:

  • Broadcom BCM2711, Quad core Cortex-A72 (ARM v8) 64-bit SoC @ 1.5GHz
  • 2GB, 4GB or 8GB LPDDR4-3200 SDRAM

Amiről én tudok, az ennél bonyolultabb volt, mert amig volt dobozos MacOS, addig ugye amikor megvetted, nem lehetett megnézni az EULA-t, tehát nem is fogadhattad el, ezért amit ott leírtak (hogy csak Apple HW-n használhatod) az nem volt érvényes. És nem volt egyértelmű, hogy ez csak Németországban vagy az egész EU-ban. Lehet, hogy ez már megváltozott, mindenesetre nem triviális a jogi része szerintem. Ha valahol van link ennek a megnyugtató kifejtésére, örömmel veszem :)

Rátapintottál véletlenül egy csúnya problémára, amely Linus-t is már felb*ta:
   x86: BIOS + egységes boot
   ARM: ahány gyártmány, annyi boot módszer.

Rpi BCM chipje például videóchip részből kezdi a boot folyamatot. Az ismeri az SD kártyán a VFAT-ot és rántja fel az első fájlt, aminek tartalmával berúgja a procit.
De jó lenne, ha egységes lenne az ARM procik bootja, azaz egységes SD/MMC/... -ből be lehetne rántani egy ARMv8-as Linux kernelt + onnan már szelektíven a drivereket.

A server oldalon van ilyen, még némi UEFI is képbe kerül: https://developer.arm.com/architectures/platform-design/server-systems
Tényleg levihetnék konzumer szintre (ez most ugye a mobil/tablet, leginkább, plusz az RPI és klónjai) is, de ott sajnos tényleg kb. rétegigény, hogy bootolható legyen másik rendszer.

BlackY

"Gyakran hasznos ugyanis, ha számlálni tudjuk, hányszor futott le már egy végtelenciklus." (haroldking)

Azota az x86 is "osszekapta" magat es versenykepesen elbaszott UEFI implementaciok jelentek meg, nehogy veletlenul az is egyseges maradjon. Amilyen iranyba haladnak a gyartok, lassan pont akkora szemetdomb lesz, mint az ARM-os bootloader tulkinalat.

A kedvencem pedig az, hogy akkor valt az osszes ekkora szemetdombba, amikor crypto kod kerult bele, mert mindenki maganak akart valami "secure boot" megoldast csinalni.

Megértem rágott almáékat. Le tudnak házon belül fejleszteni intellel kb. azonos teljesítményt, jobb fogyasztással, kisebb melegedéssel. Plusz így az egész Apple-ökoszisztémát egységesítik, ugyanaz a Store és alkalmazások lesznek minden eszközre, akár laptop, akár teló, akár tábla. Az ő zárt ökoszisztémás gondolkodásuknak ez kiválóan megfelel, sok mindenben egyszerűsíti az OS-ek fejlesztését.

Annak ellenére, hogy az ARM szerintem is a jövő lesz hosszú távon, de egyelőre még az x86-nak is olyan erős állásai vannak, van benne még annyi tartalék, hogy egyelőre én maradnék annál. Eddig sem szerettem a zárt Apple-ökoszisztémát, ez az ARM-es elkülönülés még jobban távol fog tőle tartani.

“I didn’t start using Linux so I could have friends.” (Luke Smith, 2019) 🐧

az ARM szerintem is a jövő lesz hosszú távon

Azért a RISC V-vel pl. még nem lejátszott meccs... ha szerencsénk van, kialakul egy három szereplős, tényleges versenyes piac, RISC-V - ARM - x86, akkor nem lesz az, mint az elmúlt években az Intellel (mindhárom mellett vannak pro- és kontra érvek).

BlackY

"Gyakran hasznos ugyanis, ha számlálni tudjuk, hányszor futott le már egy végtelenciklus." (haroldking)

Nekem végül is mindegy, hogy mi veszi át a helyét az x86-nak. Csak valami modern, 64 bites, sok magra is optimalizált RISC architektúra legyen, ami nem hordoz magával egy csomó legacy megkötést. Amúgy a konkrétan az architektúra nekem mindegy, opensource programokat használok, amiket le lehet fordítani bármire, megoldanám magamnak.

“I didn’t start using Linux so I could have friends.” (Luke Smith, 2019) 🐧

Kár, hogy az egykor szép nevű MIPS mára úgy néz ki, végleg esélytelen lett.
Pedig jó lenne nekünk fogyasztóknak egy pezsgő CPU-verseny a apró-kis-közepes-erősebb kategóriákban egyaránt.
A RISC-V feltörekvése üdítő folt lenne, remélem sikerül.

Az ARM64 lapkákat egyébként nagyon szeretem. Az x86 nagyon kihagyta ezeket az apró (openwrt-s cuccok, sbc-k) kategóriákat.