clickbait cím: Az Intel processzorok biztonsági hibájára a kuka az egyetlen megoldás

Hozzászólások

Jó hír ez a tárhely és virtuális szerver szolgáltatóknak, lehet lecserélni a teljes infrát.

Otthoni usernek sem kellemes, de egy minden bolond számára elérhető tárhely és VPS környezetben húzósabb.

Az infók alapján nekem úgy tűnik, hogy ez nem érinti a VPS szolgáltatókat: fizikai hozzáférés kell, hogy a firmware-t valaki módosítsa.

Insufficient access control vulnerability in subsystem for Intel(R) CSME prior to 11.x, 12.0.35 Intel(R) TXE 3.x, 4.x, Intel(R) Server Platform Services 3.x, 4.x, Intel(R) SPS before version SPS_E3_05.00.04.027.0 may allow an unauthenticated user to potentially enable escalation of privilege via physical access.

Szerkesztve: 2020. 03. 06., p – 11:54

Lassan kijelenthetjük hogy az intel nettó szemetet gyárt. Úgy látszik az a szeméthegy amit felhalmoztak a prociban, teljesen kicsúszott a kezük közül.

Az Intel gyenge kábelmodemes chipje miatt perelik az Arrist

Igaz, ez egy régi cikk. Azóta a fw részben javított, de maradtak javíthatatlan hibák.

A ronggyá hájpolt UPC Connect Box is ilyet tartalmaz: CH7465-LG (Arris TG2492LG / Virgin Media Hub 3 / UPC Connect Box )

Az Intel hálózati chipjeitől ments meg uram minket!

Attól függ mire használod :D

Nálunk van pár régi intel X520, aztán most egyik gépnél ahol 7-900e pps menne rá csak 100e tud feldolgozni, a többit dobja. Nem foglalkoztam sokáig a miérttel, cseréltem cisco VIC1225-re ott látom az összes packetet.

Viszont a mobil LTE szegmensben se futottak valami nagyot :D

Fedora 38, Thinkpad x280

Ennek konkrét linuxos vonzata is van. Találkoztam olyan üzemeltetési szakemberrel, aki bizonyos performance problémára javasolta az Intel hálózati csatolót. A cég meg is vette a sokszoros áron. 

Aztán utánanéztem: A GbE RT kártya drivert egy alaplapi 100M driverből hekkelték át, csak rosszul. Naná, hogy ezt a drivert tartalmazó disztróval az Intel jobban bevált! (A történet nem mai.)

Hangsúlyozom, hogy a javaslattevő csak annyit tudott, hogy "az Intel jobb".

Ettől kezdve szájhagyomány útján terjed a dolog, hiába javították közben a drivert.

De itt nem egy ethernet csatolóról, hanem a Puma 6 SOC-ról van szó. A 2017-ben feltárt security és performance hibákat részben orvosolták. (Van igen terjedelmes magyar bevizsgálási jegyzőkönyv is.) A javítás után a hibák egy része megmaradt. Mint felhasználó - mivel az UPC elvette és bezúzta a tökéletesen működő és elegendő sebességű Cisco modememet - egyértelműen lassulást látok, miközben az előfizetett sebesség nőtt. Pedig a régi és új modem 8/4 és 12/8 downstream/upstream-ot tud, és mégis.

Szerkesztve: 2020. 03. 06., p – 12:03

Jól értelmezem, hogy az 5. generációs (Broadwell) és régebbi processzorok nem érintettek benne, csak a 6-7-8-(9?). generációsak?

A szakemberek szerint az egyetlen módja, hogy megszűnjön a fenyegetettség, ha új, 10. generációs CPU-t szerel az asztali gépbe, vagy vesz egy új notebookot.

Vegyünk új intelt, vagy mindjárt új (inteles) gépet jó pénzért, hátha abban nem fognak majd megint egy tonna biztonsági rést és egyéb bugot találni, mint eddig?

Na na, azt nem mondja, hogy melyik processzorgyártótól vegyél 10. generációs procit :) 

Én a "jó nekem az i7-3770" és a "jókat hallani az amd-ről mostanában" közt vacilálok desktopon. A laptopom meg túl drága volt ahhoz, hogy kidobjam. Plusz nem is tudom, hogy van-e értelmes laptop kínálat (13-14-es ultrabook, érintőképernyős, 360 fokban hajlítgathatós, izmosabb féle) nem intel procival szerelve...

nyilvan. de valamivel latni is akarod amit kiszamol a proci :)

van a cpuba beepitett vega, vagy valami amd radeon (fenn is ezt akartam irni, nem vegat) vagy az asusos nvidia

A vegtelen ciklus is vegeter egyszer, csak kelloen eros hardver kell hozza!

"A szakemberek szerint az egyetlen módja, hogy megszűnjön a fenyegetettség, ha új, 10. generációs CPU-t szerel az asztali gépbe, vagy vesz egy új notebookot. "

Az AMD-t, mint alternatívát nem is említik. :)

ARM-ra speciel van ringyóz, szóval oda még átpattanhat aki akar, ott inkább a szoftverpark áthurcolásával lesznek bajok. Máshová valóban nem nagyon fog, de ez meg a mikiszoftot minősíti, nem a többi CPU architektúrát. De értem mit mondasz: nyilván aki intelt használ, az AMD-re tud átállni a legegyszerűbben. Ettől még megemlíthetnék a fújságírók, hogy van más is a világon, mint a wintel, meg az armdroid...

"vagy más i86 alapú chip választása" És máris nem reklám..

Engem inkább az érdekelne, hogy ha esetleg lenne ilyen unsecure intel procim, garanciaidön belül, akkor becserélhetem-e normálisan működőre (ingyen, hasonló vagy jobb teljesítmény, bla-bla)? És mivel nyilván nem, miért nem?  

"Biztos én vagyok a béna, de csak azt sikerül elérnem, hogy kikapcsol a monitor."

  • 6th, 7th, and 8th generation Intel® Core™ Processor Family
  • Intel® Xeon® Processor E3-1200 v5 and v6 Product Family
  • Intel® Xeon® W processor Family

AMD ismét kimarad a "jóból".

Erre gondolsz ha jól tippelek. Ez 2018-ban volt, akkor még azt hitték hogy csak ezek érintettek, erre 2019-ben kiadott egy részleges javítást az Intel (CVE-2019-0090) ami nem oldja meg a megoldhatatlant.

Most ha jól értem ez a CVE-2019-0090 lett frissítve mert kiderült, hogy nem csak azok érintettek amiket felsoroltál, hanem az "összes" (amiben van CSME/SPS/TXE), kivéve a 10. generációt.

Az átlag embernek az a rizikó amit észre sem vesz amúgy. Hogy 5 év alatt csak 30% teljesítmény javulás van, mert nincs technológiai verseny. Amikor meg volt verseny duplázódott a teljesítmény. Emiatt kifejezetten örülök, hogy felkavarodott az állóvíz. Hogy ki jön ki belőle nyertesen, átlag felhasználóként nem is érdekel igazán. Intel vagy amd, x86 vagy arm, lényegtelen. (járt úton maradásra válaszolok, nem konkrétan erre a hibára, meg bulvár cikk kukázós storyra) 

Szerintem az ARM mellett a legnagyobb érv, hogy egyfelől házon belülre kerül a CPU fejlesztés, (amiben az elmúlt időszakban nagyon erősek voltak,) visszaszorul a "hackintosh", és nem utolsó sorban azonos architektúrán fog futni az iOS és az OS X.

Amikor ~7 éve iPadet használtam, az nagyon meggyőző volt sebességre és akkuidőre is, ha hasonlóan jól sikerül összerakni az AMR-es macbookokat is, azzal szerintem komoly piacot szerezhetnek.

Nagy Péter

a félfogyaték Index cím hatására valaki tényleg belebassza a kukába a gépét azon nyomban?

Nem tudom, hogy a cikk fogyatékos-e, vagy az, akinek nem jön át a szarkasztikus hangnem, és nem képes teljes egészében felfogni egy cikket. Pedig vastagon feketével ez is ki van emelve:

HA ÉRINTETT IS, NE DOBJA EL AZONNAL A SZÁMÍTÓGÉPÉT

De persze az újság a fogyatékos, nem az, aki egy cím alapján ilyen drasztikus lépéseket tesz, és nem jut el odáig, hogy legalább egy kicsit (pár extra bekezdést elolvasva) tájékozódjon.

A clickbait a cikk címére utal, hiszen az "vonzza" be az olvasót egy amúgy érdektelen cikk elolvasására. Erről szól a clickbait, szóval nem értem miért a cikket jellemzed a kifejezéssel. 

A cím amúgy tényleg az, ezt nem is cáfoltam volna. De ha neked nem fér bele egy ilyen, akkor lényegében ne olvass semmit, mert nehezen fogsz találni olyan hírportált, ami nem él vele. Max a kedvenceiddel elfogult vagy, és nem zavar.

A cikk tartalmával pedig azt leszámítva, hogy a témát lebutítja átlag user számára semmi baj nincs. Ezt viszont a te kedvenc hírportálod (legyen az bármelyik is) is ugyanúgy megteszi.

Ps: Nem az indexet védem, nyilván olyan, amilyen. Csak az idióta elfogult fikázódásodat nem értem. 

Van adatod arról, hogy mennyi a panaszkodók vs. nem panaszkodók aránya a teljes olvasótáborra vetítve? BTW: nálam még senki sem panaszkodott, a kommentcicaharcosokat (ilyenek mindig is voltak és lesznek is az oldalon, jellemzőjük, hogy a személyemmel vannak leginkább elfoglalva, nem azzal, amit mondok) pedig kérlek ne tedd ide, mert teljesen komolytalanná válsz.

trey @ gépház

Mi ez a nagy adatbekérés mánia nálatok? Basszus, ha te nem veszed észre statisztikák gyártása nélkül azt, hogy sokan elégedetlenek a hozzáállásoddal, akkor veled van a baj, és nem nekem kellene KSH-t játszani a kedvedért.

A személyeddel pedig azért vagyunk elfoglalva, mert néha nagyon bicskanyitogató stílusban sikerül másokat elmondanod mindenféle hülyének csak mert kicsit máshogy gondolkodnak dolgokról, mint te. 

Valóban nem. Mindenkinek megfelelni nem lehet és nem is célom. Továbbiakban az észrevételeket - amire érdemi reakciót is vársz - ne flame topik kommentben, a flame hevében, felfokozott állapotban, hanem a hivatalos visszajelzési formon szíveskedj megtenni. Hátha akkor komolyan is veszem.

Érdekes megfigyelés: a visszajelzésekben mindenki tud kulturált hangot megütni.

trey @ gépház

lol, lemaratál, már régen felvásárolta a hwsw. 

Mielőtt valaki azzal jönne, hogy nem is igaz, még mindig a hwsw szerepel kiadóként:
https://sajtopub.nmhh.hu/sajto_kozzetetel/app/search.jsp

És persze
https://www.hwsw.hu/storage/HWSW_mediaajanlat.pdf

Desktop-ra az zsákutca volt.. Volt egy darab gyártó (ibm), és egy darab vevő (aapl), ráadásul eléggé kicsi piaci részesedéssel (százalékban 1 számjegy, ha jól emlékszem). Nyilván nem tudott olcsóbb lenni a piac 90+ %-át uraló x86-nál/amd64-nél, mert a fejlesztési költséget ennyi terméken kellett teríteni. Így aztán túl sok pénzt se tettek a fejlesztésébe, ezért még csak jobb se volt, mint az x86/amd64. És a drágábban lassabb, többet zabáló proci nem akkora főnyeremény...

> Desktop-ra az zsákutca volt..

Akkor a többi területen miért nem? x86 minden szegmensben van.

> Volt egy darab gyártó (ibm), és egy darab vevő (aapl), ráadásul eléggé kicsi piaci részesedéssel (százalékban 1 számjegy, ha jól emlékszem). Nyilván nem tudott olcsóbb lenni a piac 90+ %-át uraló x86-nál/amd64-nél, mert a fejlesztési költséget ennyi terméken kellett teríteni.

Ezek nem technológiai, hanem gazdasági problémák, az állítás pedig az volt, hogy technológiai zsákutca volt.

> Így aztán túl sok pénzt se tettek a fejlesztésébe, ezért még csak jobb se volt, mint az x86/amd64. És a drágábban lassabb, többet zabáló proci nem akkora főnyeremény...

Az intel brosúrák/PR cikkek helyett inkább a topicot kellett volna végigolvasni, ugyanis már két napja be lett linkelve, hogy pont a fordítottja az igaz: a soron következő POWER6 ugyanakkora órajelen is gyorsabb volt, nemhogy azoknál a Core/Core 2 CPU-knál, amikre az Apple váltott, de még a Xeonoknál is, miközben kevesebbet evett. Hogy drágább volt a POWER, az lehet.

Megtaláltad a szarva közt a tőgyit. Ha nem is technológiai, de zsákutca volt.

Ott és akkor nem lehetett vesenyképes terméket csinálni a power* desktop és - főleg - notebook procikból. Legalábbis erre utal az, hogy az aapl inkább bevállalt egy architektúraváltást, mint hogy a power vonallal szerencsétlenkedjen tovább. És ebből a szempontból a kutyát nem érdekli, hogy egy power szerverproci SAP és egyéb tesztekben hogy kalapálta el az épp aktuális xeon szerverprocit.

Amúgy linkelnél nekem 65W és 45W TDP osztályú Power6 procit? Köszi.

Csakhogy az állítás magára a technológiára vonatkozott, nem a gazdasági szempontokra. Bírom mikor van egy konkrét állítás, arra érkezik egy cáfolat, mire az a reakció, hogy de ha még ez is, meg az is, meg amaz is, amiknek semmi köze nincs az eredeti állításhoz, na akkor.

Hogy szerintem miért váltott az Apple, azt itt már leírtam; cáfolat nem érkezett rá. Egyébként a POWER a desktopon is elkalapálta az intelt, nem csak szerveren. G5 vs. P4 benchmark is volt linkelve.

A TDP-nek igazából köze nincs a fogyasztáshoz.
A marketinghez annál inkább.
Főleg ha az intel csinálja.
Ami pedig a 45W ill. 65W-os TDP-vel bíró POWER6 CPU-kat illeti; semmilyen hivatalos infót nem találtam, hogy mi a POWER CPU-k TDP-je, de még cikkeket sem. Úgy látszik az IBM nem foglalkozik a marketinggel. Ez összecseng az inteles "gazdasági" érvekkel. Ha technológiai érveket szeretnél a POWER6 teljesítményfelvételről és leadásáról, akkor az IBM pl. az 595-ös manualjában tart egy kis fejtágítást, az 2.3.7-es fejezetben.

Ha jól tudom, a POWER6 ez első olyan ezen a platformon, amelynek részegységenként lehet a teljesítményét és sebességét szabályozni.

Ezzel a különböző (mind számítási, mind elektromos) teljesítményű rendszerek kialakítására alkalmas.

A 45W ill. 65W-os TDP ma már nevetséges, hiszen a legócskább okostelefon töltője is többet tud. :-D

Elfelejtettem kapcsolgatni a troll_mode bitet. :(

Vajon miért rugózunk egy 12 éves eszközön? Van itthon POWER4+ is, léccilécci beszélgessünk róla, mert magányos! :-)

> Ha jól tudom, a POWER6 ez első olyan ezen a platformon, amelynek részegységenként lehet a teljesítményét és sebességét szabályozni.

Mintha a POWER5+ is tudta volna, de nem esküszöm meg rá.

> Vajon miért rugózunk egy 12 éves eszközön?

A szálindító állítás az volt, hogy technológiai zsákutcából menekült az Apple. Nem, a POWER nem volt technológiai zsákutca.

Valahogy úgy volt, hogy a POWER4 memória órajele coreX2, a POWER5 - ami a csövön kifér, és a POWER6 nem túl nagy változást hozott, de beépült a mainframe támogatás és a teljesítmény menedzsment.

Aki a POWER-t szidja, az még soha nem dolgozott rajta. (Na jólvan, tudjuk, hogy az rpi cluster leveri, mint a cölöpöt. :-D)

A Motorola vonalat nem ismerem, de az IBM egészen más irányba indult el.

Vegyük például a 2004-es POWER4+ szerveremet. "Kikapcsolva" 60W a fogyasztása, mert megy a két tápegység és a szervizprocesszor. Van a seggén egy dupla csavart érpáras interfész (közvetlenül a CPU-ból jön), amire még 4db (vagy több?) bővítő dobozt lehet rákötni, dobozonként 12 diszk és 16 teljes méretű kártya. Az alapgépet telerakva 8 diszk, és mondjuk 360 vonalas telefonközpont DSP-vel együtt.

Vajon milyen Intel alapú kiépítés tudja ezt így? És kell-e laptopba ilyen fajta szerkezet?

Avagy egy hűtésre szerelt 16 CPUx2 core kiépítést csináltak-e sokan? (Egy hűtőfelületen.)

Tudom, hogy a traktort, a talicskát, a marsjárót és a rollert össze lehet hasonlitani, hiszen mindegyik jármű. :-D

Hidd el, elég jól olvasok. ;)

Csak ért írtam, hogy tudd: az Apple nem a barátom, de a POWER a kedvencem.

Ezért most PIC18-at programozok assemblerben. A 8080, 8085, x86 után ez is egy élmény. Szóval tudom mi az arch váltás. ;)

Most el kell mennem, addig emuláljatok nélkülem. ;)

Lehet, hogy az a zsákutca nagyrészt gazdasági okok miatt (értsd: drága), és kisebb részt technológiai (értsd: szar) okok miatt lett zsákutca, vagy hogy épp baromi drága lett volna azt a fejlesztést kifizetni, hogy ne legyen szar. De az aapl kiszállásával kb. a kutya nem fejlesztett power6 (7-8-9-whatever alapú) desktop és notebook procit. Az aapl pedig abban utazott, szóval neki pont mindegy, hogy szerver oldalon mennyire jó vagy szar a power.

TDP-t pedig nyilván nem találsz, azt a közvetlenül piacra szánt prociknál érdemes keresni, mert egy fontos igazodási pont az arra építő OEM-eknek. Az IBM a Power6-nál pedig komplett gépeket adott el, nem procikat - ők pontosan tudták, hogy mekkora hűtést, tápot és satöbbit kell odatenni. A potenciális vevőt pedig az érdekelte, hogy a villanyórája mennyire pörög, ha hajtják a gépet, vagy épp ha nem hajtják.

> Lehet, hogy az a zsákutca nagyrészt gazdasági okok miatt (értsd: drága), és kisebb részt technológiai (értsd: szar) okok miatt lett zsákutca, vagy hogy épp baromi drága lett volna azt a fejlesztést kifizetni, hogy ne legyen szar.

Jó, akkor leszel szíves forrást linkelni arra, hogy technológiailag szar volt. Addig neked ezzel kapcsolatban minden agymenésed érdektelen. Pont.

> De az aapl kiszállásával kb. a kutya nem fejlesztett power6 (7-8-9-whatever alapú) desktop és notebook procit.

Akkor a Raptor mit fejleszt? Citromízű sajtburgert? Mert nekem úgy tűnik, hogy POWER(7-8-9-whatever) alapú desktopokat, több, mint egy évtizede. Legalább néznél már utána, mielőtt bármit kijelentesz.

> TDP-t pedig nyilván nem találsz

Nem is hiányzik. Úgy látom nem sikerült elolvasni/megnézni amiket belinkeltem: a TDP marketingbullshit. Nem mérvadó egy CPU valós fogyasztásának esetében. Sem akkor, ha az intel írja rá, sem akkor, ha az AMD, sem akkor, ha az ARM, sem akkor, ha az IBM, csak ők nem is tesznek ilyet. Tényleg nem olvasod el a kapott forrásokat?

Jó, akkor leszel szíves forrást linkelni arra, hogy technológiailag szar volt. Addig neked ezzel kapcsolatban minden agymenésed érdektelen. Pont.

Majd nyilván linkeket fogok neked túrni, csak hogy elhidd ami nyilvánvaló. A piac kb. 5%-át (se) tette ki az apple a maga powerx architektúrájával, vajon hányszor annyi fejlesztési költséget kellett volna az apple-nek kicsengetni, mint tetszőleges intel procit használó OEM-nek? Nyilván kurvajó volt és versenyképes, azért cserélték le..

Akkor a Raptor mit fejleszt? Citromízű sajtburgert? Mert nekem úgy tűnik, hogy POWER(7-8-9-whatever) alapú desktopokat, több, mint egy évtizede. Legalább néznél már utána, mielőtt bármit kijelentesz.

Elmondom mit fejlesztenek: egy kerekítési hiba nagyságrendű niche piacra fejlesztenek speckó gépeket. Azokat a ránézésre 4 rack unit méretű dobozokat azért nem nevezném desktopnak, notebook-nak pedig nem csak én nem, de még te se. És főleg ugye erről volt szó, az volt a fő prior, és ott volt fontos az alacsony fogyasztás, ami a power procik felhasználói közül egyedül az apple-nek volt fontos. Az intel notiproci pedig ootb tudta.

Nem is hiányzik. Úgy látom nem sikerült elolvasni/megnézni amiket belinkeltem: a TDP marketingbullshit. Nem mérvadó egy CPU valós fogyasztásának esetében. Sem akkor, ha az intel írja rá, sem akkor, ha az AMD, sem akkor, ha az ARM, sem akkor, ha az IBM, csak ők nem is tesznek ilyet.

Ehhez képest ott van az általad linkelt raptor oldalon a TDP, just sayin'

Tényleg nem olvasod el a kapott forrásokat?

Amit tőled kaptam azt egy ideig megnézegettem, aztán inkább leszoktam róla.

> Majd nyilván linkeket fogok neked túrni, csak hogy elhidd ami nyilvánvaló.

Nyilvánvaló? Mi? Hogy a POWER architektúra technológiailag szar? Ez nem nyilvánvaló, ez a te ex-katedra módon tálalt magánvéleményed, ami kb. annyira mérvadó, mint egy döglött kecskéé a mélytengeri olajfúrás kapcsán. Ezt nem kötelező elhinnem, meg amúgy sem szoktam csak úgy elhinni bármit is. Ez olyan, mintha én azt mondanám, hogy az intel CPU-knak minden nyavalyája van, aztán nem adnék rá forrást...vagy várj...én adtam. Úgyhogy várom a linkeket, amik a POWER architektúra fatális technológiai hibáit taglalják; biztonsági rések, CPU-crash bugok, stb., azaz bármi ami igazolja, hogy a POWER egy technológiai zsákutca. Lehetőleg többet, mint amennyi az intel lelkiismeretét terheli, hiszen ha az nem technológiai zsákutca, akkor ennek nyilvánvalóan több technológiai nyűgjének kell lennie, ha ez viszont az. Ne csak állítsd, hogy nyilvánvaló, bizonyítsd is.

> Elmondom mit fejlesztenek: egy kerekítési hiba nagyságrendű niche piacra fejlesztenek speckó gépeket.

És? Állításod szerint az Apple kiszállásával véget ért a POWER, mint desktop. Ennek a cégnek a puszta létezése is cáfolat erre az állításra és mindegy, hogy ezer POWER alapú desktopot adnak el, vagy egymilliót: van. És ez csak egy cég volt. Ott van még a Genesi, az ACube, az AEon, stb.

> Azokat a ránézésre 4 rack unit méretű dobozokat azért nem nevezném desktopnak, notebook-nak pedig nem csak én nem, de még te se.

Mert ugye a doboz számít és nem az, ami benne van...te jó ég... Ha én beszerelek egy VIC-20-ast egy ilyen 4 rack unit méretű dobozba, akkor az szerver lesz? Meg lehet venni az alaplapot is; EATX méretű, amihez tonnájával van desktop ház. Úgy is van hirdetve, hogy ez egy workstation gép és nem szerver. A felhasználók is annak használják.
Notebookot én pedig sehol nem említettem, én egyszerűen desktop felhasználásról beszéltem, ami meg, amint látod, van.

> És főleg ugye erről volt szó, az volt a fő prior, és ott volt fontos az alacsony fogyasztás, ami a power procik felhasználói közül egyedül az apple-nek volt fontos. Az intel notiproci pedig ootb tudta.

Ha alcsony volt a fogyasztásuk, akkor mitől voltak olyan melegek, mint egy alternatív nemi irányultságú vulkán? Linkeltem Mac-esek panasztopicját, ahol ezért anyáznak, de ha kinyitod a wikicikkét a MacBook Pro-knak, akkor láthatod, hogy a melegedési problémák nem korlátozódtak az első generációs gépekre; rengeteg reklamáció volt emiatt. Ehhez képest kérdezz meg egy PowerBook G4 usert. Az intel "notiproci"-ra meg belinkeltem lentebb egy hupos topicot, ahol annak a line-nak a nyomorai voltak kivesézve, hogy mennyire is volt jó az az intel "notiproci", amire az Apple sok észzel váltott. További linkek Theo leírásaira a topicban. Választ nem adtál rá. Biztos az is "nyilvánvaló", hogy nem igaz, azért derült ki tíz évvel később, hogy de.

> Ehhez képest ott van az általad linkelt raptor oldalon a TDP, just sayin'

So? Tök mindegy, hogy ki írja ki, attól még marketingbullshit marad. Lehet, hogy kérték a felhasználók, ők meg mértek valamit, aztán kirakták. Vagy nem. Kérdezd meg tőlük.

> Amit tőled kaptam azt egy ideig megnézegettem, aztán inkább leszoktam róla.

Azaz: nem. Azt ugyan már nem fejtetted ki, hogy miért is nem, de igazából mindegy is, a lényeg, hogy nem. Bármi cáfolatot kapsz a véleményedre - mert hiába próbálod ténynek beállítani, nem az - azt ignorálod. Na, ezt hívják echo chamber-nek. Olyanban pedig a fanboyok szoktak üldögélni, nem a szakemberek.

Nyilvánvaló? .. tl;dr

Ha hallucinálsz fordulj orvoshoz.

Állításod szerint az Apple kiszállásával véget ért a POWER, mint desktop

Gyakorlatilag igen. A mainstream power desktop és laptop kihalt, attól még niche piacok léteznek. Bár ezeket inkább neveznék workstation-nek, de ha szerinted desktop, akkor legyen. Lényegtelen.

Linkeltem Mac-esek panasztopicját, ahol ezért anyáznak

Mennyien is? Százan? Hány százezerből? Anno a P4 korszak hajnalán magam is találkoztam komplett szériákkal (más brand), ahol a gyártó elcseszte a hűtést. Az meg egy másik kérdés, hogy az epül szerint a design fontosabb, mint a funkcionalitás, ezt látjuk a butterfly (vagy mi a tököm) billentyűzeteknél is, Ilyen hűtéssel ennyit lehet kihozni. Legyen könnyú és vékony, ezek a fő szempontok, minden más másodlagos.

Választ nem adtál rá.

Nem fogok minden fasságodra/képzelgésedre/mániádra érdemben reagálni. Elég jól látható ebben a topic-ban (is), hogy neked mindenki szembejön az autópályán...

attól még marketingbullshit marad

Konkrétan ezen "marketingbullshit" alapján méretezik a hűtést (már ha nem írja felül más szempont).

Konkrétan ezen "marketingbullshit" alapján méretezik a hűtést (már ha nem írja felül más szempont).

Tudsz erre valami forrást adni? Mert eléggé fura lenne, ha ez így lenne. Egy szerverben pl. elég nagy hiba lenne TDP alapján méretezni a hűtést, ha nem szeretnéd azt, hogy folyamatosan throttlingoljon. Mivel hogy az intelnél a TDP nem a maxot jelenti, hanem... Hát igen, mi is a TDP?

A TDP a thermal design power rövidítése, vagyis definíció szerint az adott proci hűtését minimum erre kell méretezni. Szerver prociknál amúgy simán találni 200 Wattos TDP osztályút is, ez nyilván nem a 25 vagy 45W TDP osztályhoz tervezett hűtéssel megy.

Aztán a hűtést tervező mérnökök lehet, hogy máshogy csinálják...

Ebben az esetben méretezni nem minimumra szoktak, hanem maximumra. Legalábbis workstation/szerver környezetben biztosan.

 

definíció szerint az adott proci hűtését minimum erre kell méretezni

Hol van ez az definíció leírva?

 

Aztán a hűtést tervező mérnökök lehet, hogy máshogy csinálják...

Igen, szinte biztosan. Csak erre próbáltam felhívni a figyelmedet. Hogy sajnos a TDP az valóban marketing "bullshit", nem ez alapján tervezik a hűtést, ebben szinte biztos lehetsz (persze ha tudsz forrást adni az ellenkezőjére, akkor azt szívesen veszem).

Pár éve volt valahol egy jó kis cikk erről a neten, ahol szépen elmagyarázták, hogy az Intel TDP meghatározása a cpu átlagos terhelésnél elfűtött hőjét jelenti, amit túlléphet amikor all core turbo működik.

Tehát egy 75W TDP-jű Intel cpu elfűthet ám 100+ W-ot is, úgy tervezd a hűtést.

Az AMD TDP értéke pedig a maximálisan elfűtésre kerülő hőmennyiséget jelenti, és pont.

 

Forrást ne kérj, nem könyvjelzőztem el anno.

A Linux nem ingyenes. Meg kell fizetni a tanulópénzt.

Az emberek 66 százaléka nem tud számolni! Gondoljatok bele, ez majdnem a fele!!

Mindenki jó valamire. Ha másra nem, hát elrettentő példának.

"Az udvariasság olyan, mint a nulla a számtanban. Egymagában mit sem jelent, de sokat változtat azon, amihez hozzátesszük." - Freya Stark 1893 - 1993

Én nem így tudom. Az Intelnél pont azt jelenti a TDP, hogy mekkora hűtést kell ráméretezni. Tehát egy 75W TDP-s procira 75W TDP-re tervezett hűtés kell minimálisan. Se a ténylegesen elfűtött hő, se a ténylegesen felvett teljesítmény nincs köszönőviszonyban egyik gyártónál sem.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

Most írjam, hogy szerintem rosszul tudod? Olvasd el polesz linkjét, de a saját tapasztalataim is azt igazolják, amit fentebb írtam. Ez van.

A Linux nem ingyenes. Meg kell fizetni a tanulópénzt.

Az emberek 66 százaléka nem tud számolni! Gondoljatok bele, ez majdnem a fele!!

Mindenki jó valamire. Ha másra nem, hát elrettentő példának.

"Az udvariasság olyan, mint a nulla a számtanban. Egymagában mit sem jelent, de sokat változtat azon, amihez hozzátesszük." - Freya Stark 1893 - 1993

Igen, most írjad. Arra meg azt fogom írni, hogy a linkelt cikk nem ért velem egyet, de az sem tud hiteles forrást felmutatni.

Mondom, nem akarok ebbe a kérdésbe annyira mélyen belemenni, mert olyan mélységben nem érdekel, nem a szakterületem. Pár dologra hívom fel csupán a figyelmed. Netes tesztekben, ahol rendes fogyasztásmérővel mérik a fogyasztást, több W-t kapnak, mint a hivatalos TDP. AMD-nél közelebb áll a valósághoz, Intelnél eléggé szór felfelé ahhoz képest. Másrészt több különböző órajelű és magszámú, de azonos generációba tartozó proci is sokszor ugyanazzal a TDP-vel van megadva (pl. Ryzen 2600 és 2700 a dupla magszám ellenére egyformán 65 W TDP, meg sok mobil Intel i5-i7 proci TDP száma is tök egyforma), ami már önmagában mutatja, hogy a több mag, meg a magasabb órajel ellenére nem lehet ennyire azonos az érték, és általában 5-10-15-tel osztható, tehát 67,58 W TDP-s procit még nem láttam, bezzeg ilyen gyanúsan „kereken” 35, 45, 65, 95, stb. W-os meg sok van. Harmadrészt a TPD-nek már a neve is mutatja, hogy az elfűtött hővel van összefüggésben (thermal), nem a fogyasztással. Negyedrészt senki nem tudja, hogy hogyan méri le a gyártó, a linkelt cikk is találgat, hogy AMD-nél ízé, „valami” belső fejlesztésű programmal mérik, ami minden porcikáját maximumon járatja, és vízből veszi ki az oxigént, teljesen érthető. Intelnél meg ennél is ködösebb, ilyen meg olyan programokból összeállított csomag, de kiugró értékeket eldobják, teljesen konkrétumok nélküli humbug az egész, aki ezt komolyan elhiszi, hogy így van, azt nem lehet komolyan venni.

Tehát megegyezhetünk abban, hogy teljesen felesleges ebben a kérdésben ölre menni, mert senki nem tudja, hogyan mérik le pontosan, meg hogy mit jelentenek a számok, és a valósághoz se fogyasztásban, se hőtermelésben nincs sok köze semmihez. Ugyanolyan marketingkamu, mint a csíkszélesség, ahol az előző gyártástechnológia számát osztják automatikusan négyzetgyök 2-vel, és már nagyon messze vannak a valóságtól, a tényleges tranzisztormérettől. Ez is csak arra jó, hogy a fanokat bevadítsák, hogy öcsém, 7 nm, nem 10-12, meg 14++ mínusz integrál koszinusz iksz nanométer, közben meg ilyen 30+ nm-esek átlagosan tranzisztorok elektronmikroszkópos mérés alapján. Arra viszont valóban jó, hogy netes márkafanbolyok tűkön ülve várják az 5 nm-es végső határt jövőre, meg lehessen valamin flame-elni.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

"Netes tesztekben, ahol rendes fogyasztásmérővel mérik a fogyasztást, több W-t kapnak, mint a hivatalos TDP."

A TDP NEM fogyasztás hanem hőtermelés mutatószám. Kevered a szezont a fazonnal.

A Linux nem ingyenes. Meg kell fizetni a tanulópénzt.

Az emberek 66 százaléka nem tud számolni! Gondoljatok bele, ez majdnem a fele!!

Mindenki jó valamire. Ha másra nem, hát elrettentő példának.

"Az udvariasság olyan, mint a nulla a számtanban. Egymagában mit sem jelent, de sokat változtat azon, amihez hozzátesszük." - Freya Stark 1893 - 1993

Ezt írom én is már mióta, nem keverek seemit. A fogyasztást csak azért említettem, mielőtt abba is belekötne valaki, hogy ahhoz van köze, mert sok ember él abban a tévhitben, hogy azt jelenti. Nem, nincs ahhoz SEM köze. Pont ez a lényeg, hogy igazából semmihez nincs köze, szimpla marketingbullshit az egész. Teljesen dobniuk kéne a gyártóknak, és kitalálni helyette valami tényleges mért fogyasztási adatot vagy ilyesmit, egységesített szoftverrel, módszerrel, hogy tényleg jelentsen is valamit.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

Pedig az enerigamegmaradás törvénye elég egyszerű ebben az esetben. Ami energia bekerült a CPU-ba (fogyasztás), annak valahol ki kell jönnie. Ez esetben meglehetősen nagy részben melegedés formájában (véleményem szerint erősen közelíti a 100%-ot, tehát a fogyasztás és a disszipáció közel azonos.

Én nem ismerek "elvégzett művelet" típusú energiát.

De energiamegmaradás törvénye: a prociba befolyik X energia a táplábakon keresztül és (ettől nagyságrendekkel kisebb) Y energia az adatlábakon keresztül. A prociból kimegy (becslésem szerint Y-nal összevethető mennyiségű Z energia az adatlábakon keresztül, és ennyi, nincs tovább. A többivel mégis mi történik? Mert nem lesz belőle helyzeti energia, nem lesz belőle mozgási energia, fénnyé se alakul, stb.

Intel TDP meghatározása a cpu átlagos terhelésnél elfűtött hőjét jelenti

Nem teljesen az biztos. Sima kódot futtatva általában nagyjából jó teljes terhelésen. De pl. ha minden mag AVX-et számol akkor nagyon el tud szállni. Konkrétan a T420-as thinkpadem frissen pasztázva is túlmelegszik az AVX-től.

> tl;dr

> Ha hallucinálsz fordulj orvoshoz.

Hát ezt aztán kőkeményen odamondtad. Érvet, szakmai levezetést, vagy bármi egyebet ismét nem tudtál adni arra, hogy technológiailag miért is szar a POWER, csak higgyük el neked, hogy ez nyilvánvaló, mert te azt mondtad.
A TL;DR-t nem is minősíteném: te nem olvasol, te tudsz. Csak úgy, magadtól. És mindig jól. Ezt bizonyítani sem kell, ez egy szakrális axióma.

> Gyakorlatilag igen. A mainstream power desktop és laptop kihalt, attól még niche piacok léteznek.

Csakhogy te nem azt mondtad, hogy a mainstream, hanem azt, hogy a kutya nem fejlesztett ilyet, ami alapból hamis, hiszen vagy egy tucat kisebb cég csinálja és ez pedig azt jelenti, hogy megéri csinálni, mert üzlet van benne, tehát nem is halhatott ki. Marginalizálódott az lehet, de nem halt ki.

> Bár ezeket inkább neveznék workstation-nek, de ha szerinted desktop, akkor legyen.

Huh, ez már tényleg a legalja. De ez akkor sem desktop, ez workstation. POWER desktop nincs, mert csak. Punktum. De ha annyira akarom, akkor megengeded, ROFL.

@https://en.wikipedia.org/wiki/Workstation

A workstation is a special computer designed for technical or scientific applications.

@https://en.wikipedia.org/wiki/Desktop_computer

A desktop computer is a personal computer designed for regular use at a single location on or near a desk or table due to its size and power requirements.

Magyarán egy munkaállomás lehet asztali is. Ki gondolta volna? Mégis mi a fárast értettél te itt azon, hogy ez workstation és nem desktop?

> Mennyien is? Százan? Hány százezerből?

Jó reggelt kívánok, még a wikicikkben is benne van, hogy melegedési bajai voltak a Macbook Pro-knak, több generáción át. Azt se olvastad el ezek szerint.

> Anno a P4 korszak hajnalán magam is találkoztam komplett szériákkal (más brand), ahol a gyártó elcseszte a hűtést. Az meg egy másik kérdés, hogy az epül szerint a design fontosabb, mint a funkcionalitás, ezt látjuk a butterfly (vagy mi a tököm) billentyűzeteknél is, Ilyen hűtéssel ennyit lehet kihozni. Legyen könnyú és vékony, ezek a fő szempontok, minden más másodlagos.

Az nem zavar, hogy előtte az Apple számos notebook szériát bocsátott ki POWER és 680x0-es CPU-kkal? Azoknál miért nem cseszte el a hűtést 15 éven keresztül? A pre-inteles Apple notebookok közül egyedül a 68040-es notebookoknak volt melegedési problémája és ott sem a hűtés volt a probléma forrása: a 68040-es közismerten villanykályha volt (hozzáteszem a 680x0-esek közül egyedül). Ehhez képest az intelre váltás után évekig kínlódtak a melegedéssel. No comment. Hát tutti a hűtés volt az oka, biztos nem megfelelő TDP értéket írt az intel a CPU-ra és ezért alulméretezték a hűtést! Több szérián át! :)))

> Nem fogok minden fasságodra/képzelgésedre/mániádra érdemben reagálni.

Ezzel csak egy baj van: te érdemben eddig semmire nem reagáltál. Te csak kijelentettél dolgokat, anélkül, hogy bármit alátámasztottál volna. Neked olyat nem kell. Mert nyilvánvaló. Mert te azt mondtad. És ha te mondod, akkor az tény. Források nélkül is. Csak higgyük el. Ha meg én mondom, akkor tök mindegy, hogy mennyi forrást hozok a bizonyítására, az fasság/képzelgés/mánia, a lényeg, hogy POWER sux, igaz? Szerintem neked kéne orvoshoz fordulnod.

> Elég jól látható ebben a topic-ban (is), hogy neked mindenki szembejön az autópályán...

Ez nem érv, ez személyeskedés. Kérdeném, hogy az érvek hol vannak, tán elfogytak-e, de azok eddig sem voltak, mivel eddig egyetlen elfogadható forrást nem tudtál mutatni, hogy miért is technológiai zsákutca a POWER, inkább megpróbálod görcsösen bizonygatni, hogy én hülye vagyok, tehát nem lehet igazam, tehát a POWER szar.

> Konkrétan ezen "marketingbullshit" alapján méretezik a hűtést (már ha nem írja felül más szempont).

Ja, tényleg. :))) Aztán mindenki azt ír rá a CPU-ra is, meg a hűtőre is TDP-nek, amit akar, akár a macskája személy számát is; a valósághoz ugyanannyi köze lesz.

Érvet, szakmai levezetést, vagy bármi egyebet ismét nem tudtál adni arra,

Arra, hogy leírsz valami baromságot amit én nem mondtam, aztán nekiállsz ezzel vitatkozni. Erre definíciót mondtam, nem "érvet, szakmai levezetést, vagy bármi egyebet". Szerintem pontosan.

Csakhogy te nem azt mondtad, hogy a mainstream, hanem azt, hogy a kutya nem fejlesztett ilyet

My bad, tévedtem. Van legalább 1 darab kis cég, ami marginális mennyiségben gyárt ilyen gépet. Kurvára nem hallottam róla, nem is akartam, nem is érdekel, és nem is érdekes a témában. A piaci jelentősége így nem 0, hanem _csak_ közel 0.

még a wikicikkben is benne van, hogy melegedési bajai voltak a Macbook Pro-knak, több generáción át. Azt se olvastad el ezek szerint.

Persze hogy nem. Leszarom.

Az nem zavar, hogy előtte az Apple számos notebook szériát bocsátott ki ...

Egy kicsit sem zavar.

És most el, dolgom van

> amit én nem mondtam

Mit? Hogy zsákutca? De, mondtad. Hogy technológiailag szar? De, mondtad. Akkor?

> Van legalább 1 darab kis cég, ami marginális mennyiségben gyárt ilyen gépet.

1? Többet is felsoroltam. Látom megint sikerült az értő olvasás nevű műveletet hiba nélkül elvégezni.

> Kurvára nem hallottam róla, nem is akartam, nem is érdekel, és nem is érdekes a témában.
> Persze hogy nem. Leszarom.
> Egy kicsit sem zavar.

Igen, pontosan erről beszélek. Szarsz a a forrásokra, szarsz a mérésekre, szarsz az érvekre, szarsz a tényekre, szarsz az egészre, POWER sux és kész, mert te így akarod és kész és ha te azt akarod, akkor a POWER sux és kész. Így egy szakember nem gondolkodik, csak egy fanboy.

> És most el, dolgom van

Mert ugye egy asztalnál beszélgetünk és nem pedig egy internetes fórumban posztolunk már vagy három napja. De azért csak kőkeményen, like a boss. Szánalmas vagy.

A Motorola PowerPC  ugyanaz az architektúra, mint az IBM PowerPC? Mert ha igen, akkor a Cell Broadband Engine magasan fejlettebb volt az x86-os processzoroknál.

A processzormagok összteljesítménye 230,4 GFLOPS, ami a megjelenés időszakában kiugrónak számított, nagyjából 3-4 szerverprocesszor teljesítményét jelentette. 

Egyrészt PS3-ból eladtak kb. 90 milliót, benne van az öt legsikeresebb konzolban, tehát a Cell-t sikertelennek nevezni elég erős. Másrészt a piaci teljesítménynek és a marketing hatékonyságának nem sok köze van a technológiai rátermettséghez; ha ez így lenne a windows 10 lenne a legjobb OS a világon, márpedig távolról sem az.

Azt nem tudom, hogy mennyire volt olcsó, de az intel sem olcsó. Többszöröséért kapsz azonos teljesítményű intelt, mint AMD-t. A Sony és a mikiszoft sem intelre váltott a hetedik generációs - POWER alapú - konzolok után, hanem AMD-re.
Oszladozik lassan a Megahertz mítosz, amivel az intel évtizedek óta hülyíti a vendorokat és a usereket is.

Az Apple is ezért váltott, nem azért, mert a POWER technológiai zsákutca lett volna.
Indoklásuk szerint a G5 nagyon melegedett és nem tudott 3 GHz fölé menni. Ez az indoklás csak azért érdekes, mert az akkori Core/Core 2-es CPU-k - amikre nagy ésszel váltottak - azok aztán brutál melegedtek és nemhogy 3 GHz fölé, de még a közelébe se tudtak menni, miközben a POWER ág új tagja a POWER6, az 5 GHz-ig is fel tudott menni, ha nagyon akart, de az alap órajele is 3.6 GHz volt és nemhogy a Core/Core 2 CPU-kat, de még az akkori Xeonokat is überelte, úgy, hogy olcsóbb is volt, meg kevesebbet is evett. (Egyébként a G5-ös Mac-ek kijövetelekor a leoltott G5 alacsonyabb órajelen is gyorsabb volt, mint a vele egyidős akkori intel zászlóshajó P4-es.)

Úgyhogy nem, nem a POWER volt technológiai zsákutca, hanem az Apple hülye. Vagy kapzsi. Vagy mindkettő.

Helló,

Utánaolvastam volna, de a google nem hozott ki semmi relevánsat az IBM, Apple, Domino és Notes szavakra.
Viszont ha a két vezetőség zördült össze és emiatt dobták a POWER-t, akkor pláne nem beszélhetünk technológiai zsákutcáról.

Az Apple látókörében az IBM 64 bites PowerPC processzora

https://www.hwsw.hu/hirek/17583/az-apple-latokoreben-az-ibm-64-bites-po…

Az Eweek tegnap arról számolt be, hogy az Apple már jó ideje teszteli az IBM új 64 bites PowerPC processzorát.

A POWER6-tal (meg a Cell-el is) az a baj, hogy in order proci. Így aztán hiába megy 5 GHz-en, kb. fele akkora teljesítményt nyújt úgy általában, mintha out of order lenne. Hiába erős a Cell papíron (még a mai procikkal szemben sem kell szégyenkeznie különösebben, ha GFLOPS-ról van szó), ha nagyon nehéz kiszedni belőle a teljesítményt.

Hát az lehet, hogy saját magához képest fele olyan gyors, mint ha OoO végrehajtású lenne, de in order létére is gyorsabb volt, mint a vele egykorú - és az Apple gépekbe került - OoO intelek. A Cell programozhatósága miatt már annak idején is panaszkodtak, hogy nehéz kisajtolni belőle a teljesítményt, de azért volt, akiknek sikerült. (Miért lett ez törölve a pouet-ről?)

Hát, attól függ, hogyan nézzük. Az tuti, hogy azonos órajel mellett a cell PPU-ja jóval lassabb (egy szálon nézve - mert viszont a 2 HW-es szál jobban működik a cell-ben, mint az inteles HT), mint az akkori intel procik. Azonos teljesítményfelvétel mellett nem tudom, mi lehet az ábra.

 

Amúgy ja, ki lehet belőle szedni a teljesítményt nyilván, csak kérdés, mekkora munkával. Ill., az se mindegy, hogy milyen feladatra. Amihez sok FPU kell, oda nyilván jó, minden másra meg nem annyira.

Én most csak a cell-ről (és azon belül is a PPU-ról, mivel csak ez az egy mag az, ami általános célú. Az SPU-k kb. semmi másra se jók, csak floating point számolásra) beszélek. A többi POWER-rel kapcsolatban (amiben van OoO, vagy ha éppen nincs is, de jóval magasabb órajelen megy) simán lehet, hogy gyorsabbak, mint az x86.

 

Konkrét benchmarkot nem tudok felmutatni (bár lehet, hogy lehetne találni). A saját tapasztalatomról beszélek, amit egyébként alátámaszt az is, hogy: az órajele a cell-nek kb. ugyanaz, mint ami ebben a korban szokásos x86 volt. Viszont in-order CPU, tranzisztorszáma jóval alacsonyabb, mint az akkori intelek. Szóval nem sok esélye van, hogy gyorsabb legyen, mint az intel.

Hát az lehet, hogy a cell-t jóval hamarabb kezdték el tervezni, mint a Q6600-t :). De amennyire emlékszem, eléggé hasonló időpontban jöttek ki. De egyébként szerintem ez mind1, mert megkockáztatom, hogy egy még korábbi intellel összehasonlítva is hasonló lenne az eredmény (nyilván kisebb lenne a különbség).

Ez azért így nem teljesen igaz.

In place of speculative out-of-order execution that requires costly circuit renaming, the design concentrates on providing data prefetch.

Limited out-of-order execution is implemented for FP instructions.

Ez 8/4 r/w pipeline-t jelent, ami a RAM frekvenciának a négyszeresével működik.

Az utóbbi meg a fix frekvenciájú FPU műveletekhez kell.

Már a POWER5-től kezdve ezek a cuccok kicsit nagyon nem úgy működnek, mint a többiek. ;) Minden részük kicsit kisebb, kicsit rövidebb, de sokkal ravaszabb szervezésű. Tán ettől olyan gyors.

Azt már szinte meg se merem említeni, hogy van egy másik tulajdonsága a többiekhez képest: Kétszer annyi thread, méghozzá teljesen kevert átlapolással. Vagyis thread váltáskor akár mind a négy thread is működhet részben - igény szerint.

"Tán ettől olyan gyors.". Nem, nem gyors. Azonos órajel mellett az akkori intel simán gyorsabb volt. FPU-ban erős, igen (pláne ha hozzáveszed az SPU-kat, akkor nagyon durván), de ezen kívül az in order jelleg miatt labdába se rúghat az intel mellett. Értem ezt úgy, hogyha nem állsz neki kézzel optimalizálni a kódot, hogy pont úgy tálald a dolgokat a PPU-nak, ahogy jó neki (és még ilyenkor se tudod kihasználni a lehetőségeket általában). Ha csak simán fogsz egy nem FPU-ra kihegyezett kb. bármilyen programot, cell-en lassabban fog futni, nem is kicsit. Az OoO jelleg nagyon sokat számít.

De egyébként elég, ha csak megnézed a tranzisztorszámot: a teljes cell olyan 200m tranzisztor (amiből a PPU mindössze olyan 30m-40m lehet max.). Nekem akkoriban Q6600-am volt, ami 580m tranzisztor, most bután leosztva 4-gyel a 4 mag miatt: 145m. Cache-ben is sokkal gyengébb a PPU: 0.5MB vs. 4M (2 magra). PPU meglehetősen buta egy intel proci mellett. Ravaszabb szervezésű? Dehogy. Pont az ellenkezője. Sok mindent kihagytak belőle. A kedvencem az, hogy nincs direkt átjárás a floating point és integer regiszterek között. Csak a memórián (cache-en) keresztül lehet megoldani. Amire bejön ugye a load-hit-store penalty.

> de ezen kívül az in order jelleg miatt labdába se rúghat az intel mellett

Peches volt az időzítés, a POWER6 az egyetlen a sorozatban ami nem OoO, előtte és utána is az az összes. Az lehet, hogy az intelnél pont akkor vezették be az OoO-t, de cserébe nyögtük és azóta is nyögjük az intel féle OoO implementációból eredő bugokat, sechole-okat. Volt, aki már akkor megkongatta a vészharangot, igaza lett. Ironikus módon, most pont az intel issza meg végül a levét, ahogy mind az OS-ek felől, mind a mikrokód felől egyre több kényszerű "kerülgetés" válik szükségessé, mert úgy olvad el az AMD-vel szembeni erőfölény is. Mi lett volna, ha akkor hallgatnak Theora és már akkor patchelni/workaroundolni kényszerültek volna? Erről nekem mindig az a régi vicc jut eszembe, hogy kérdik az intel CPU-t, hogy 2x2? 5! Ez nem jó! De gyors voltam!

> A kedvencem az, hogy nincs direkt átjárás a floating point és integer regiszterek között.

Az lfixxx/stfixxx parancsok csak a memórián keresztül üzemelnek? A PowerISA manualban nem tértek ki rá így, bár az EA számításnál csak memóriás példa volt. Vagy ez a bekezdés most csak a Cell-ről szólt és ott van így?

Nem, az intel már sokkal korábban OoO volt, már a 2000-es évek előtt. Szerintem a sechole-ok leginkább a speculative executionból adódnak (ami nem ugyanaz, mint az OoO). Bár ezügyben nem vagyok annyira képben.

 

Igen, csak a cellről beszéltem, a többi POWER-nél nemtom mi a helyzet. Az instructionok nevére már nem emlékszem, régen volt. De arra azért igen, hogy a korábban említett LHS miatt (ami amúgy nem lett volna, ha lett volna átjárás a float és integer regiszterek között) egy csomó dolog lassú volt.

Fogalmad sincs, hogy 2006 körül (pontos évszámot most lusta vagyok nézni) mibe került az epülnek egy intel proci és mibe egy ibm. Épp ezért az AMD-s agymenésed érdektelen. Akkoriban nagyon jött fel a noti téma, jó notiprocit pedig az intel gyártott akkoriban, pont.

A Core/Core2 pedig baromira nem melegedett, az az előtte levő generáció volt, a P4-ek. A Core-ral ezt az architektúrát dobták, és visszaálltak a P3 idején használtra, persze nyilván alaposan áttervezve. A GHz meg baromira nem számít általános esetben, bizonyos workload-nál jól jön, máshol tök mindegy. Ami számít, az a számítási teljesítmény és a fogyasztás. Nyilván mások a szempontok szervernél és mások notinál, tehát baromi mindegy a power6 is, mert nem jelent meg notiban

> Fogalmad sincs, hogy 2006 körül (pontos évszámot most lusta vagyok nézni) mibe került az epülnek egy intel proci és mibe egy ibm.

Neked van? Akkor miért nem linkelsz rá forrást?

> Épp ezért az AMD-s agymenésed érdektelen.

Az AMD mindig is töredékárú volt az intelhez képest. Ha annyira az ócsóság volt a szempont (még mindig az Apple-ról beszélünk: nem valószínű), akkor ennyi erővel akár azt is rakhattak volna bele. Az lehet, hogy gyengébb lett volna a teljesítménye az intelhez képest, de legalább nem melegedett volna annyira.

> jó notiprocit pedig az intel gyártott akkoriban, pont.

Jó "procit" az intel soha nem gyártott, csak bugoktól és/vagy egyéb problémáktól hemzsegőket. Pl. amikor az összes Pentiumot operációs rendszertől függetlenül merevre lehetett fagyasztani négy byte-ból. És ez már nem az első ilyen volt náluk. Hogy mennyire voltak jók azok a "notiprocik", arról képet kaphatsz, ha elolvasod ezt a topicot, meg a linkeket, hogy mit mondott Theo de Raadt a Core 2 CPU-król, ugyanis igaza volt, az egész architektúra hemzseg a javíthatatlan bugoktól, a koncepciós hibáktól (és ez a leszármazottakra is vonatkozik), csak 2007-ben a kutya nem hitt neki és mindenki leszarta, aztán bő tíz évvel később jött a Meltdown, majd a többi. Az eredmény ma már látható: lassítópatchek garmadája, a régi intelek visszalassultak a régi AMD-k szintjére, az új intelek meg már egyértelműen lassabbak, mint az AMD. Mindezt többszörös árért. Ennyire voltak jók, azok a "notiprocik". Erre váltott az Apple.
A POWER CPU-k pedig végig gyorsabbak voltak.

> A Core/Core2 pedig baromira nem melegedett, az az előtte levő generáció volt, a P4-ek.

Bakker, be volt linkelve, ahol panaszkodnak a júzerek, hogy melegszenek az első inteles Macbookok, márpedig azokban pedig Core/Core 2 volt és nem pedig P4. Semmit sem olvasol el, ami forrást kapsz? Mire alapozod akkor a véleményedet? Az intel marketinganyagára?

Ismerem ezeket a 20 év alatt 100-szor felhozott érveket. Odáig kéne eljutni, hogy sem az fajok közti evolúcióban, sem a technológiai világban nem a "magasan legjobb" terjed el, vagy él túl, hanem a legalkalmazkodóbb. Ez lehet éppen a tömegben legegyszerűbben gyártható vagy "legolcsóbb" is. A "magasan legjobb"-nak azt az aspektusát is meg kell vizsgálni, hogy miben magasan a legjobb.

trey @ gépház

Technológia zsákutca?

Kétprocesszoros környezetben azonban a Power Mac G5 41 százalékkal nyújt jobb teljesítményt SPEC_fp alatt és 3 százalékkal SPEC_int alatt, mint a kétprocesszoros, 3,06 GHz-es Xeon processzorral szerelt Dell Precision 650 munkaállomás. Egyes alkalmazások (Adobe Photoshop, Logic Audio, Genentech Blast) futtatása során a Power Mac G5 előnye még látványosabb. A grafikusok sem hülyék, akit ismertem, az mind az x86 PC-k helyett a sokszorosan drágább Mac gépeket vette. Mellesleg szemet gyönyörlüdtető látvány a design.

Power Mac G5: a világ leggyorsabb asztali számítógépe?

https://www.hwsw.hu/hirek/21747/power-mac-g5--a-vilag-leggyorsabb-aszta…

Úgy gondolom, az Apple I és Apple II még nem az a kategória, ami itt számítana, az első igazi oprendszere az Apple-nek a System 1 volt, ami Motorola 68000-esen futott. A korábbi gépek inkább a C64 és a ZX Spectrum kategóriájába estek, a 68000-es CPU választásával teljesen más útra tértek, de nyilván igaz, amit írsz, mert tényleg váltottak 6502-ről, csak az szerintem nem mérhető a későbbi váltásokhoz.

Mit nevezünk "igazi" oprendszernek? A memóriavédett, (preemptív?) multitaskos LisaOS nem számít annak? Csak mert az volt az Apple első 68k-s OS-e, nem a Mac-es System 1. De egyébként meg IMHO OS az, ami működteti a gépet; akkor is, ha C64 vagy ZX Spectrum szintű. A CP/M futott Z80-assal bővített C64-en, vagy C128-on, az nem igazi OS?

Hogy nem mérhető a későbbi váltásokhoz, az fix, mert sokkal nagyobb volt az impact, akkor kb. mindent nulláról kellett újragondolni, újraszervezni, újraírni, később meg nem. :]
A backward-compatibility-re is ez igaz; az x86-os OSX-ben ott volt a Rosetta a PPC emulációhoz és a Classic Environment a MacOS API wrappinghez, a PPC-s MacOS-ekben pedig a Mac 68k emulator a 68k emuhoz. Ehhez képest sem a LisaOS-ben, sem a System 1-ben nem volt semmilyen visszamenőleges kompatibilitás.

Nem vitázni akarok, írtam, hogy igazad van a 6502-essel, viszont továbbra is úgy gondolom, nagyon nem érdemes összehasonlítani egy olyan gépet, ami bejelentkezés után a BASIC interpreter kurzorát villogtatja, a későbbiekkel, mert ég és föld a különbség a ZX Spectrum oprendszere és pl. a CP/M között, mivel volt alkalmam mindegyiket használni. A LisaOS is igazi oprendszer, arról megfeledkeztem, az Intel CPU-k előtti Macintosh-okon futó oprendszerek közül csak a System 6-os és 7-es sorozattal volt találkozásom.

A BASIC interpreter egy dolog, de ott van a GEOS, ami az Apple II-es (és a 8-bites Commodore) gépeken futott; kooperatív multitaszkos, GUI-s OS volt, az azért nem egy BASIC interpreter szintje, az is van olyan kaliber, mint a System 1. (Olyan nincs, mint a LisaOS, az sokkal jobb volt, mint ezek, csak az Apple kukásította...)
Nem az összehasonlításon volt a hangsúly, hanem azon, hogy volt igazi OS a 8-bites Apple gépeken is. (Oké, az Apple I.-esen tényleg csak BASIC interpreter volt.)

Történetesen pontosan tisztába vagyok mindegyikkel.

Azért is irtam így. No, meg csaltál. :)

A 6502 párja a 8080 lenne. Igaz, a 8086 úgy készült, hogy a 8080 programok crossassemblerrel áttehetők rá. Tehát  ugyanaz az architektúra, csak nem teljesen. ;)

A 6502->68000 váltás tényleg nagy lépés, mert egy "egyéb kategóriáról" - az én szóhasználatomban - a "sokregiszteres Motorola típusú" processzorra váltottak. De ez egyben teljesen más rendszert is jelentett, ráadásul a 6502 idején még nem volt 8086, se 68000.

A következő lépés az x86 család. Bátran állíthatom, hogy egy 8086 és egy Core i7 architektúrában annyi a közos, mint a mackósajtban... Bár mindkettőben van olyan regiszter, ami "a" betűvel kezdődik. ;) (vagy valami hasonló:)))

Egy PPC->x86 váltás, - figyelembe véve azt is, hogy nem a legfrissebb PPC - csak C fordító kérdése. És ekkorra már van olyan fordító, amivel ez mindegy. A PPC meg egy sokregiszteres Motorola-szerű csak risc. A Motorola PPC->x86 váltás egyszerűbb, visszafelé pl. csak IBM POWER6 menne, mert alatta nincs Altivec, míg a PPC és x86 tartalmaz ilyet.

A lényeges különbség az, ha fejlettebb PPC vagy POWER architektúrát (!) használsz, az már csak szerver körítéssel, azaz egy harmonikus elemekből épített rendszeren mutatja meg az igazi teljesítményét. A felhasználók meg a laptopok irányába fordultak, így még egy bika desktopot sem lehet csinálni. Ez okozta a fajlagosan olcsóbb Intel váltást, és talán ez fogja okozni a sláger ARM váltást is.

A fentiek miatt úgy gondolom, hogy az architektúra nem csak a regiszterkészletet, hanem a külvilághoz (hardverhez) kapcsolódást is jelenti. A többit intézi a fordító. Persze a Core i7 is bootol a DOS floppiról, hiszen ugyanaz az architektúra. ;)

Asszem nem ment át, hogy a backward compatibility itt a kulcskérdés; az x86-os CPU váltásoknál ez mindig megvolt, míg az Apple architektúraváltásainál nem.

> Azért is irtam így. No, meg csaltál. :)

> A 6502 párja a 8080 lenne. Igaz, a 8086 úgy készült, hogy a 8080 programok crossassemblerrel áttehetők rá. Tehát ugyanaz az architektúra, csak nem teljesen. ;)

Te 8086 és 486 CPU-t említettél, 8080-asról nem volt szó, de ott is legalább assembler szintű kompatibilitásról beszélhetünk, míg a 6502->680x0->PPC->x86 esetén arról sem.

> De ez egyben teljesen más rendszert is jelentett, ráadásul a 6502 idején még nem volt 8086, se 68000.

Pont az a lényeg, hogy az Apple-nél minden ilyen váltás új rendszert jelentett, míg a PC oldalon nem.

> Bátran állíthatom, hogy egy 8086 és egy Core i7 architektúrában annyi a közos, mint a mackósajtban...

Hardware téren lehet, de opcode téren kompatibilisek egymással, ergo az x86 egyes lépcsői között a létező szoftverpark futtatása sosem okozott gondot. Ami ment 8086-on, annak mennie kell i7-esen is, maximum az OS-ből hiányzik már a meghívott funkció, de maga a program fut.

> Egy PPC->x86 váltás, - figyelembe véve azt is, hogy nem a legfrissebb PPC - csak C fordító kérdése.

Főleg, hogy pl. a Photoshopot eredetileg Pascalban írták... Továbbá mi van, ha nincs forráskód? A megvásárolt szoftvereiddel mit fogsz kezdeni? Veheted meg őket újra?

> A PPC meg egy sokregiszteres Motorola-szerű csak risc.

A 68k-nak és a PPC-nek opcode szinten semmi közük egymáshoz, a PPC nem fogja tudni natívan futtatni a 68k-s programokat.

> A felhasználók meg a laptopok irányába fordultak, így még egy bika desktopot sem lehet csinálni. Ez okozta a fajlagosan olcsóbb Intel váltást, és talán ez fogja okozni a sláger ARM váltást is.

Ehhez képest az Apple-nek utána is voltak szép számmal desktop gépei. Azonfelül a PowerBook-okban G4-es volt, ami sokkal olcsóbb volt, mint a Core vagy a Core 2 CPU-k.

> A fentiek miatt úgy gondolom, hogy az architektúra nem csak a regiszterkészletet, hanem a külvilághoz (hardverhez) kapcsolódást is jelenti.

Ja. És ennek a kapcsolódásnak az egyik sarokpontja az opcode. Ha az felülről kompatibilis, rengeteg probléma azonnal meg van oldva.

> A többit intézi a fordító.

Főleg ha másban írták, vagy nincs forrás...

Elég lett volna egy mondatban leírni, úgy is megértem.

Ja, a backward compatibility, de máskor meg a bárhova hordozható kód a cél, ha kell hordozni, ha nem. ;)

Ez csak akkor áll, ha régi desktop (==windows) programot akarsz futtatni egy új rendszeren. Persze a biztonság kedvéért nem árt, ha a dotnet -∞ - +∞ verziókat is felrakod hozzá, meg egy DOS emulátort és egy virtuális flopit, stb. Aztán úgy jársz mint én, amikor a win program csak egy helyen indult el: linux text parancssorban. :-)

Vannak ilyenek, de azok megtalálják maguknak a régi rendszereket. Nem csak a Windows tud ilyet, hanem az AIX is, mert ott is ügyelnek az időtállóságra, meg a cross platform kedvelőire is.

A fordításnál ("nincs forrás") nem arra gondoltam, hogy majd Te fordítod. Ha nincs forrás, akkor eddig is más fordította, és fogja ez után is. Vagy nem, de az majd kiderül.

Hiába a backward compatibility, mert pl. az Outlook Express elhalt az XP után. Az Outlook meg teljesen másra való. Szóval nincs, tehát így jártunk. Van a Thuderbird, de azt már vagy hatszor próbáltam fel. :(

Egy régi kis kis kitérő az opcode birodalmába: Írtam assembler programot 286-ra, V20-on (~8088) .186 direktívával. Ami kb. annyit tesz, hogy 286 protected mód nélkül. A V20 kissé gyorsabb is volt, kicsi többet is tudott, mint a 8088. Sőt, volt natív 8080 üzemmódja is, így pécén közvetlenül lehetett futtatni az Intel Isis-II rendszert, ami 8080-ra készült. Nnna, ez a backward compatibility! ;)

> Ez csak akkor áll, ha régi desktop (==windows) programot akarsz futtatni egy új rendszeren. Persze a biztonság kedvéért nem árt, ha a dotnet -∞ - +∞ verziókat is felrakod hozzá, meg egy DOS emulátort és egy virtuális flopit, stb. Aztán úgy jársz mint én, amikor a win program csak egy helyen indult el: linux text parancssorban. :-)

Itt opcode szintű backward-compatibilityről volt szó, lévén CPU-król volt szó... Nyilván, ha nincs meg az OS-ben, ami kell, akkor nem fut.

> Vannak ilyenek, de azok megtalálják maguknak a régi rendszereket. Nem csak a Windows tud ilyet, hanem az AIX is, mert ott is ügyelnek az időtállóságra, meg a cross platform kedvelőire is.

Tud ilyet több rendszer is, ahol ügyelnek arra, hogy ne törjék el az API-t lépten nyomon; ez inkább csak Linuxon divat. (Ugyanitt: olcsó AIX alá való desktop vasat keresek. :P )

> Hiába a backward compatibility, mert pl. az Outlook Express elhalt az XP után.

Na, azzal inkább csak nyertél... Volt windows alá is normálisabb levelezőszoftver, tucatjával és nem a Thunderbirdre gondolok.

> Egy régi kis kis kitérő az opcode birodalmába: Írtam assembler programot 286-ra, V20-on (~8088) .186 direktívával. Ami kb. annyit tesz, hogy 286 protected mód nélkül. A V20 kissé gyorsabb is volt, kicsi többet is tudott, mint a 8088. Sőt, volt natív 8080 üzemmódja is, így pécén közvetlenül lehetett futtatni az Intel Isis-II rendszert, ami 8080-ra készült. Nnna, ez a backward compatibility! ;)

Assemblert én is írtam, de az inkább forward compatibility, mert úgy lett megtervezve, hogy bővíthető legyen a CPU "készlet", adott családon belül akár felülről is; most pl. 65xx->65Cxx van benne. (Mondjuk most már nem így írnám meg, ahogy most meg van írva...)

Itt opcode szintű backward-compatibilityről volt szó, lévén CPU-król volt szó...

Célozgattam rá, tán nem elég drasztikusan, hogy az OS és a CPU váltásakor - ha ez egyszerre történik - néha úgyis mindegy.

Néha "'igy jártunk" lesz, néha meg pozitív a változás.

A linux tényleg nagy élmény. Fordítottam már két egyforma rendszeren is más opciókkal. Máig sem értem.

> Célozgattam rá, tán nem elég drasztikusan, hogy az OS és a CPU váltásakor - ha ez egyszerre történik - néha úgyis mindegy.

> Néha "'igy jártunk" lesz, néha meg pozitív a változás.

Tény, de a szál onnan indult, hogy egy végig x86 alapú vonalnak a váltásai nem egyenértékűek a többszöri teljes architektúraváltásokkal, OS nem volt a képben. (Egyébként Apple-nél többször volt példa a csak CPU/csak OS és mindkettő egyszeri váltására is.)

Innen indult ki a szál. Az állítás annyi volt, hogy nem egy súlycsoport az x86-on belüli ugrálás a teljes architektúraváltással. Ennyi és nem több.
Hogy mit futtatok? Mondjuk az egész OS-t? Megfogtam pl. az MS-DOS X.Y-t és fel tudtam rakni bármilyen IBM-PC kompatibilis gépre, mert az újabb CPU ugyanúgy tudta futtatni ugyanazt a kódot, mint az előző és ezzel mindjárt az OS függőség is megoldódott a "hurrá! opcode szintű backward-compatibility segítségével". Ehhez képest az Apple különféle (fentebb belinkelt) emulátorokat adott ki, hogy a visszamenőleges kompatibilitást megőrizzék, ill. 680x0->6502 esetén még az sem volt. Én erről beszéltem. A különféle OS függőségeket, C fordítót és egyebeket már te öntötted bele, feleslegesen, mert nem arról volt szó. De ha már OS és fordítók: szerinted mikor van egyszerűbb dolga a cégnek? Amikor a következő gép ugyanolyan architektúrájú CPU-val lesz szerelve, vagy amikor teljesen mással? Kinek volt egyszerűbb, az MS-nek, amikor kijöttek a 286-osok, vagy az Apple-nek, amikor a Lisa-t csinálták? Az MS-nek nem kellett semmi extrát csinálnia, mint lefejleszteni az új verziót, ami már le tudja kezelni az új hardware eltéréseit és ezt a régi gépen a régi fordítóval leforgatni, majd az újon egyszerűen használni. Ehhez képest az Apple-nek pl. a 6502->680x0 váltáskor elő kellett állítania mind a hardware-es, mind a szoftveres eszközöket, hogy a Lisa-ra fejleszthessenek. Én erről beszéltem. Miféle sarokbaszorulásról beszélsz? Vagy nem érted, hogy mit mondtam, vagy direkt kötekedni akarsz.

Ezt írtad:

Hardware téren lehet, de opcode téren kompatibilisek egymással, ergo az x86 egyes lépcsői között a létező szoftverpark futtatása sosem okozott gondot. Ami ment 8086-on, annak mennie kell i7-esen is, maximum az OS-ből hiányzik már a meghívott funkció, de maga a program fut.

Rögtön engedd meg, hogy a második mondatot facepalm kíséretében ignoráljam! A program megy, de nem működik, tehát kompatibilis.  :-D

A 6502 mellé azért kevertem oda teljes joggal a 8080-at is, mert az is egy olyan platform váltás volt, amikor ... nem voltak a frissen megjelent pécére programok! Itt az egy pont a MSnek (Intelnek), hogy crossassemblerrel gyorsan át lehetett tuszkolni a programokat.

A 286 korszakban már voltak DOS alá programok. Az új CPU előnye - eltekintve néhány kivételtől - csak a gyorsaság volt. A korszakváltás akkorra tehető, amikor elkezdődött a protected mód kihasználása, de már csak a 386-on. Ettől kezdve létezhetnek a Multiuser DOS (-ok) modernebb Windows verziók és a linux. És ekkor jelent meg a PowerPC is, no meg a WNT is futott rajta.

Pontosan ezért keveredett bele a C fordító is, hiszen a DOS még assemblerben készült. Viszont utána olyan kódbázis alakult ki, amely - esetleg némi befektetéssel - platformok között hordozható lehet.

Mos ugorjunk egy nagyot! Éppen ott tartunk, hogy a MS a múlt héten vásárolt processzoromat a jövő héten nem fogja támogatni. :-D

Igaz, a DOS az fut rajta, de ki a francot érdekel? Hát a könyvelőket, akik DOS és flopi emulátoron futtatják a Petőfi Sándor által írt könyvelőprogramot. Bár ezt akármin emulátorral is meg lehetne tenni.

Az első mondatodnak ma már kizárólag az "x86 egyes lépcsői között" van értelme. Ha a szoftverparkod már két lépcsős, az sok is lehet. Ilyenkor a gyártó alaposságán múlik a platformváltás zökkenőmentessége. És ebbe beleértendő az is, hogy felmérést készít a felhasználók által kialakított szoftverparkról, konzultál az egyéb szoftvergyártókkal. Ez a zárt kód és idegen CPU(k) hátránya.

De akár vissza is lehetne fordítani a dolgot. Jó dolog-e az, ha az Intel kompatibilis a 40 évvel ezelőtti opkódokkal. Vajon nem okoz ez valamilyen hátrányt?

Tehát nem kötekedek, csak egyrészt nem látom akkora problémának a váltást. Másrészt meg nincs teljesen igazad az "egyes lépcsőkben" sem. Belátom, a DOS az adu, bár értelme nincs. Ha az egy lépcsőből véletlenül kettő is lesz, akkor az oprendszer jelenléte (és a driverek hiánya)  miatt erősen megkérdőjelezhető a kompatibilitás. Mert ugye a 10 éves gépemre rakhatok DOS-t - de minek, viszont se Windows se linux környezetben nem fognak futni a 386-os programok. Az opcode pipa, csak nem megy. Ez a második mondatod.

> A program megy, de nem működik, tehát kompatibilis. :-D

Valóban, feltételes módban kellett volna azt az egy mondatvégi szót írni: "maximum az OS-ből hiányzik már a meghívott funkció, de maga a program futna". Nyugodtan ignoráld facepalmok vagy akármik kíséretében az egész mondanivalót egy hiányzó toldalék miatt; szerintem enélkül is tökéletesen érthető volt, hogy opcode kompatibilitásról beszélünk.

> A 6502 mellé azért kevertem oda teljes joggal a 8080-at

Utólag. Na, az a csalás. Utólag belerakni valamit. x86-ról volt szó előtte, nem másról. A másik szálon meg 4 féle arch-ról. (Nem mintha egyébként ez változtatna a többin, ezt csak a "csaltál" kitételedre írtam.)

> Itt az egy pont a MSnek (Intelnek), hogy crossassemblerrel gyorsan át lehetett tuszkolni a programokat.

Igen, mert volt olyan. 6502-ről 68000-re hogy tuszkolták át a programokat? Sehogy. Írhatták meg újra. 6502-esen. 68000-esre. Biztos egyszerűbb dolguk volt, mint a mikiszoftnak.

> A 286 korszakban már voltak DOS alá programok.

Mert előtte nem. Előtte csak maga a DOS volt, programok nélkül. Még kommandkom sem volt.

> Az új CPU előnye - eltekintve néhány kivételtől - csak a gyorsaság volt.

Irreleváns. Nem az előny volt a lényeg, hanem a váltási nehézségek minimalizálása, ami az x86-os vonalon belül megvolt.

> Pontosan ezért keveredett bele a C fordító is, hiszen a DOS még assemblerben készült. Viszont utána olyan kódbázis alakult ki, amely - esetleg némi befektetéssel - platformok között hordozható lehet.

Az Apple cuccai meg Lisa ill. Apple Pascalban. Ott a C-vel nem is foglalkoztak. Többek közt ezért is irreleváns a C fordító. Persze a Pascal is hordozható, ha van a túloldalon/túloldalra fordítód, de az Apple-nek nem volt, amíg meg nem írták.

> Éppen ott tartunk, hogy a MS a múlt héten vásárolt processzoromat a jövő héten nem fogja támogatni. :-D

Csakhogy ennek semmi köze az x86 CPU-k egymás közti opcode kompatibilitásához, amiről szó volt. Porszívót nem vettél véletlenül a múlt héten? Tudod mikiszoft félét, amivel sosem fogsz szívni... Esetleg azt is besuvaszthatnád ide érvnek.

> Az első mondatodnak ma már kizárólag az "x86 egyes lépcsői között" van értelme. Ha a szoftverparkod már két lépcsős, az sok is lehet. Ilyenkor a gyártó alaposságán múlik a platformváltás zökkenőmentessége. És ebbe beleértendő az is, hogy felmérést készít a felhasználók által kialakított szoftverparkról, konzultál az egyéb szoftvergyártókkal. Ez a zárt kód és idegen CPU(k) hátránya.

Bármilyen régebbi x86-os opcode-ra forgatok le egy programot, az 99%-os valószínűséggel futni fog a mostani gépemen is, hacsak nem hajítottak ki valami utasítást. Én még nem találkoztam ilyennel, de shit happenz.

> De akár vissza is lehetne fordítani a dolgot. Jó dolog-e az, ha az Intel kompatibilis a 40 évvel ezelőtti opkódokkal. Vajon nem okoz ez valamilyen hátrányt?

Nekik? Biztos. A szoftverfejlesztőknek és a felhasználóknak? Lehet. De ha okoz is, előnye messze több van.

> Tehát nem kötekedek, csak egyrészt nem látom akkora problémának a váltást.

Ez a mondat értelmezhetetlen. Nem látod akkora problémának, mint mit? Vagy csak úgy simán, nem akkora probléma? Utóbbi esetén értelmezhetetlen, hogy hogy kapcsolódik ide, mert én sehol nem állítottam olyat, hogy ez aaakkkora probléma, hogy világvégemindmeghalunk; azt mondtam, hogy nehezebb egyik archról átállni a másikra, mint egy archon belül egyik modellről a másikra. Ennyi volt az állítás, amiből ez az egész szál elindult és nem több. Ezt azóta sem cáfoltad, csak belehoztál a szálba olyan elemeket, amiknek köze nem volt az egészhez, pl. C fordító, mert más nyelv nincs is; hát az Apple-nél meg pont nem C-ben ügyködtek anno.

> Másrészt meg nincs teljesen igazad az "egyes lépcsőkben" sem. Belátom, a DOS az adu, bár értelme nincs. Ha az egy lépcsőből véletlenül kettő is lesz, akkor az oprendszer jelenléte (és a driverek hiánya) miatt erősen megkérdőjelezhető a kompatibilitás.

Az MS-DOS-t azért hoztam fel, mert amikor az Apple váltogatta az architektúrákat, akkor a "túloldalon", az x86-os világban az MS-DOS dívott. De akkor hagyjuk az MS-DOS-t; mondok mást: WINE. Azért tudja a virtuális gépeknél sokkal nagyobb teljesítménnyel "emulálni" a windowst, mert nem kell a CPU-t is emulálnia. És működik a vindózos cucc Linuxon, BSD-n, Solarison, meg ahova le tudod forgatni a WINE-t. Az "oprendszer" (esetünkben a windows) jelenléte nélkül. Fogod a windózos binárisodat, átrakod akárhová, az API wrappingot a WINE (elméletileg) biztosítja és az opcode kompatibilitásnak köszönhetően futni fog. (Már, ha a WINE bugmentesen implementálta a szükséges interface-eket és értelemszerűen ez a hordozhatóság csak azonos architektúrán belül értendő.) És - bár nem tudom, milyen hatékonysággal, de - ugyanezt csinálja a mikiszoftnak a WSL, vagy mi a rosseb nevű Linuxos rétege. Nekik is mennyivel egyszerűbb a dolguk, hogy a CPU emulációjával nem kell bajlódniuk. (Egyébként WINE még windowsra is van és sok esetben sokkal kompatibilisebb a korábbi windózokkal, mint maga a host windows. Na, többek között ezért is irreleváns, hogy az ms nem akarja a múlt héten vett CPU-dat támogatni.)

> Mert ugye a 10 éves gépemre rakhatok DOS-t - de minek, viszont se Windows se linux környezetben nem fognak futni a 386-os programok.

A DOS-osak? windowson egy részük futni fog. Itt egy kis DOS-os karaktertáblaprogram. Xp-n még fut, Win7-esen már nem, ugyanazon a gépen. Nem a 386-tal van a baj (főleg mivel nem 386-os kód), hanem az API-val.

> Az opcode pipa, csak nem megy. Ez a második mondatod.

Mint mondtam: köss bele egy hiányzó toldalékba. A szövegkörnyezetből elég egyértelmű volt, hogy miről beszélek. Ahogy mondják: értsd jól. Te nem akartad érteni, inkább belekötöttél egy lemaradt szótagba, több kB szövegben. Baromira nem az újabb OS-ből már hiányzó részek okozta breakage volt a lényeg, hanem az, hogy a régebbi programokat egyszerűbb az új rendszeren életrekelteni, ha az architektúra azonos. Nem, még az OS sem feltétlen kell hozzá, ld. WINE.

Látom, a ragon rugózol, pedig nincs különbség. A futna is azt jelenti, hogy nem fut.

Ugyanúgy nem fut a karaktertábla program sem (XP SP2):

A következő programot nem lehet futtatni: F:\DOKUMENTUMOK\LETöLTéSEK\CHARS3SE.EXE

Amit nemrég kipróbáltam: sourcer (commenting disassembler), ami szintén futna csak nem bír a diszkre írni és nem csak az NTFS-re nem.

Talán nincs felrakva a 16 bites API. - Ez is egy emuláció, mint a WINE.

Fogalmam sem volt, hogy az Apple pascalban dolgozott, de nem lep meg. Mióta láttam PHP tűzfalat, és a Windows dll a BIOS-ból töltődik már nem jöhet új. ;)

azt mondtam, hogy nehezebb egyik archról átállni a másikra, mint egy archon belül egyik modellről a másikra

Ez tényleg igaz, nem is akartam cáfolni. Csak annyit állitotam, hogy a mai fordítókkal nem lehet nagy durranás.

A gyártók, - még az Apple is - átfedéssel váltanak arch-ot. A felhasználók viszont szívhatnak vele, nem vitás.

Ennek ellenére pozitívnak tartom az egyre szaporodó kompatibilis rétegek elvetését, ami alatt persze nem a jó dolgok megtartását értem.

Amit x86 platformon látsz, az nem csak az opcode hasonlósága, hanem a CP/M öröksége is. Elvégre a 8080 "A" CP/M képes CPU, és a foszlányai bizosan megtalálhatók a W10-ben is.

Véleményem szerint a 8->16 bites átállás volt a legkomolyabb, minden gyártónál. Most utána is néztem, hogy az Apple sem a 6502->68k átállást lépte meg, hanem 6502->65C816->68k->PPC. Vagyis 8->16, 16-arch váltás->32, 32->64. A 16 bitről és a 32 bitről is azért is kellett továbblépni, mert az az arch megszűnt. Tehát a nyomorult Apple az első lépésént rosszul választott CPU-t, míg a MS (DR) a korábbi CP/M alapot folytatta. Az első döntés végig kísérte mindkét gyártót.

A név meg pont olyan, mint a Conchita Wurst. ;)

Benne van, hogy lány vagy fiú, és ez különösen lényeges, amikor énekel. :-D

Ha pedig olyan legacy windows kódot vált ki, amit nem pont ugyanúgy írtak meg, akkor az a része  relatime hardware emulator, amire persze csak azt mondod: szoftver.

Itt meg a következőről van szó:

A eset: program -> OS == nem megy

B eset: program -> entitás -> OS == megy

Az entitás korrekt magyar megfelelője: izé. ;)

Az izét helyettesítheted a következő szavak bármelyikével: emulátor, kamulátor, szimulátor, imitátor, wrapper, csaló, színész, hazudós, stb.

Ráadásul pont olyan környezetben, ahol opcode kompatibilitás is fennéll, tahát CPU-t végképp nem kell emulálni.

Bizony, az ember szókincse szegényes, ezért a műszaki életben előfordul, hogy

- többféle entitásra ugyanazzal a névvel hivatkozol (ekkor néha magyarázni kell a fókuszt, vagy

- ugyanarra az entitásra többféle néven hivatkozol (a fókusz, konstelláció, vagy egyéb entitás függvényében).

És mégis butaság nem emulátornak hívni, mivel az. Emulátor is. Érdekes módon, mikor megszületett a WINE, akkor még azért volt az a neve, mert "Windows Emulator". A usenet-en az emulator csoportba tették. Ha elolvasol egy régi faq-t, akkor:

1.2: Why call it 'Wine'?

The word Wine stands for one of two things: WINdows Emulator, or Wine
Is Not an Emulator. Both are right. Use whichever one you like best.

Itt még azt mondják (1997 környéke), hogy mindkettő név helyes. Ami azért érdekes, hogyan lehet valami az is, meg nem is.

De legfőképpen, ha elolvasod a mostani faqnak az erre vonatkozó részét, akkor semmi értelmes érv nincs ott, hogy miért is ne lenne emulátor a WINE. Attól még, hogy a WINE esetlegesen több, mint egy emulátor (a full WINE project), attól még mégis emulátorként viselkedik, mikor beírom, hogy wine <exe>. Az, hogy itt nincs a "szokásos" "inherent loss of speed", teljesen irreleváns (arról nem is beszélve, hogy: de, van sebességcsökkenés. Egy csomó dolog lassabban fut WINE-ban, mint windows alatt). Ott volt a dosemu. Akkor az se emulátor, mert ott se nagyon volt sebességcsökkenés? Butaság azt a kritériumot felállítani az emulátorral szemben, hogy egy emulátornak muszáj komoly sebességcsökkenést okoznia. És ha nem okoz, akkor máris nem lehet emulátornak hívni. Ennek inkább az ellenkezője igaz az emulátorra: ha olyan mértékű sebességcsökkenéssel tud csak működni, ami nem teszi lehetővé a realtime futtatást, akkor valszeg nem hívhatnánk teljes értékű emulátornak.

Azért a rendkívül vicces dologért, hogy a WINE is legyen a GNU mintájára rekurzív rövidítés, nem kellene összezavarni az embereket.

> Butaság azt a kritériumot felállítani az emulátorral szemben, hogy egy emulátornak muszáj komoly sebességcsökkenést okoznia. És ha nem okoz, akkor máris nem lehet emulátornak hívni.

Ilyen kritériumot nem is szabott senki, mivel nem is a sebességcsökkenésen van a hangsúly, hanem arról, hogy a WINE semmi olyat nem csinál, amit emulációnak - azaz utánzásnak - lehet hívni, sem hardware-esen, sem szoftveresen, mivel nem emulál sem virtuális gépeket sem fake windows kernelt, csak átfordítja az API hívásokat az adott OS hívásaira.

Wine (originally an acronym for "Wine Is Not an Emulator") is a compatibility layer capable of running Windows applications on several POSIX-compliant operating systems, such as Linux, macOS, & BSD. Instead of simulating internal Windows logic like a virtual machine or emulator, Wine translates Windows API calls into POSIX calls on-the-fly, eliminating the performance and memory penalties of other methods and allowing you to cleanly integrate Windows applications into your desktop.

API-emulátornak talán lehetne hívni, de nem annak szokták, hanem API-wrappernek.

A wine faq-ban pedig hivatkoznak a sebességre:

When users think of an emulator, they tend to think of things like game console emulators or virtualization software. However, Wine is a compatibility layer - it runs Windows applications in much the same way Windows does. There is no inherent loss of speed due to "emulation" when using Wine, nor is there a need to open Wine before running your application.

 

WINE semmi olyat nem csinál, amit emulációnak - azaz utánzásnak - lehet hívni

Akkor mégis mit csinál a WINE? De, pont ezt csinálja. Leutánozza a windows-t, a windows API-t, és ennek segítségével tudsz windowsos programokat futtatni. A futtatandó program szempontjából a WINE emulálja a windowst. Hiszen a program fut, és mégse windows van alatta.

 

mivel nem emulál sem virtuális gépeket sem fake windows kernelt, csak átfordítja az API hívásokat az adott OS hívásaira.

Már hogyne emulálna windows kernelt. Ott van az összes windows kernel hívás szépen leimplementálva. Az, hogy ez az implementáció a host OS hívásait is használja, teljesen irreleváns. Ennyi erővel semmi se emulátor, hiszen a végén minden SW (azaz minden emulátor) az OS-t használja.

 

API-emulátornak talán lehetne hívni, de nem annak szokták, hanem API-wrappernek.

Miért, a windowsra írt programok mit látnak a windowsból? A windows API-t. Ez már filozófiai vita, hogy akkor a WINE most a windows-t, vagy a windows API-t emulálja. Wrappernek kicsit lealacsonyító lenne hívni, látva a WINE forráskód méretét. Ez már bőven nem a wrapper kategória.

 

Attól még, hogy a virtuális gépek egyfajta módon emulálják a gépet (és emiatt emulátornak hívjuk őket), még nem kell egy másképpen működő megoldást nem emulátornak hívni. A virtuális gépek magát a teljes számítógépet emulálják, a WINE pedig csak a windows-t. Ezért hívjuk windows emulátornak, és nem pedig virtuális gépnek.

Ecsedi István-Pojják Tibor: Sornyomtató emuláció a Videoton lézerxerografikus nyomtatójával

/Magyar Elektronika, 1986 III. évfolyam 2. szám/

Ezt is boncolgathatnánk!

Megjegyzem, a szerzők Amerikát és Indiát (Dataproducts) megjárt fejlesztőmérnökök, és egyben nyelvi szaklektorok is.

Ja, a cikk ellenére a nyomtató daisy wheel nyomtató emulátor is egyben.

Ez akkor most interfész, emuláció, szimuláció, API, wrapper vagy API wrapper? :-D

Gyorsabb, vagy lassabb?

A lézersugár emulálja-e a sornyomtató kalapácsát vagy sem. XD

És ha ZX81-ről hajtom meg?

Ezt csak ellenpéldának hoztam, hogy a WINE, mint emuláció egyszer csak hol igen, hol nem. ;)

Pedig ez a kifejezés nem pont azt jelenti, amit a WINE fejlesztői az elmúlt 5 percben gondoltak.

Ha tényleg érdekel, akkor beszkennelem és felrakom valahova. Csak jelezd, mert lusta vagyok...

Bár sokkal érdekesebb lenne élőben a 300 tokból álló 16 bites bipoláris processzor.

Hát, egy hivatkozásból még az se derül ki, hogy most mi mellett/ellen lehet esetleg benne info. Ha nem nagy macera, akkor igen, kíváncsi vagyok, mi lehet abban a cikkben, légyszi tedd fel valahova!

 

Bár sokkal érdekesebb lenne élőben a 300 tokból álló 16 bites bipoláris processzor.

Bizonyára. De ez olyan dolog, amiről nem tudok semmit. Rákeresve magyarul egy találatot hoz ki a google (valami buckó hozzászólást a hup-on :) ), angolul pedig ~500-at, és ezek se nagyon írják le, miről is van szó. Bipoláris tranzisztorokból álló CPU?

Úgy látszik, nem vagy az a hardveres fajta. ;)

gogle -> "bipolar processor"

The circuitry of a single bipolar processor requiring over 400 bipolar chips ...

A leírás a régi IBM System/390 felépítését ismerteti. Ezt az áramkört a későbbiekben kiváltották 4 CMOS + egy kicsit jobban integrált csippel.

A rejtélyes "bipolar chips" esetünkben a texas LS/S TTL sorozatából választott logikai és aritmetikai áramkörök. (Amelyek tényleg bipoláris tranzisztorokat integrálva készültek. ) A 4db 4 bites ALU (SN74181) párhuzamosan, no meg némi körítéssel egy 16 bites bit slice processzort alkot. Az ALU és környezetét már akkor integrálták, pl. az Am2900, Am29000 sorozat.

Mi volt ennek az értelme? Létezett a 8080 3MHz, a 8085 5MHz órajellel, mint 8 bites általános CPU. Egy 8086 ugyan 16 bites, de egy rendszer elemeként alakították ki. Tehát csak olyan utasításokat tud, csak annyi buszművelettel és az előírt kiegészítő áramkörökkel, mint amit a gyártó megálmodott egy bővíthető univerzális számítógéphez. Tehát nem azt tudja amit szeretnél és még drága is. (Ne feledd az évszámot, a szocialista tábort, a dollárhányadot beleszőni a gondolatokba!)

A megoldás egyedi processzor. "Hány video ciklust kell végrehajtani egy karakter alatt? Mi a maximális órajel és video frekvencia?" Ebből kijön a 8 bites CPU, 20 bit utasításszóval, 8Mhz órajellel. Az elkészült szerkezet nem csak a 12 lap/perces lézernyomtatót, de egy 60 lap/perces ionnyomtatót is ki tudott szolgálni, az akkori 240 dpi felbontással.

Tehát ez volt a GPU, csak nem egy csipbe integrálva.

Nem annyira programozható? Inkább sokkal jobban programozható!

Ilyenkor be szoktam linkelni az "igazi RISC" processzort: 8X300

Mindössze 8 utasítás, igaz egy utasítás alatt egy input, két módosító és egy outputot tud végrehajtani. Az alkalmazás területeinek felsorolása ne zavarjon meg! A mai napig gyártják, változalan formában - rakétairányító rendszerekhez. ;)

Ha nem magasszintű programnyelvet és operációs rendszert kell támogatni, akkor általában rosszabb megoldás az "általános célú" processzor. Megfordítva pedig pont nem az az általános.

A bipoláris abban az időszakban a gyorsabb működést jelentette. Az NMOS technológia nyűgös a 3 tápjával és lassú is. A fejlettebb egy tápos 8085 max. effektív órajele 5MHz, de a legrövidebb utasítás 4 órajelnyi, ami csak 1,25MHz. Az említett bipoláris processzor elment 8MHz/3 fázisig. Tehát a bipoláris processzor ebben az esetben 8/1,25x gyorsabban működik. Mellékesen pont azt csinálja, amire tényleg szükséged van.

A működési mód többnyire Harward, mert minek bekötni az utasításokat az adatbuszra.

És tessék, itt egy szelet történelem: printer és formatter

Cserébe linkelj egy olyan CPU adatlapot, ahol a TDP nem tetszk. Majd jól megszakértem. ;)

Úgy látszik, ez a bipoláris processzor gyakori dolog volt korábban, csak valszeg más lehetett a neve, mert az ~500 google találat a "bipolar processor"-ra nem túl sok.

 

Köszi hogy bescannelted a cikkeket, érdekes volt elolvasni! Ez a Pojják Tibor elég tehetséges lehet, eléggé fiatalon elvégezte az egyetemet, mindössze -4 éves volt.

Mondjuk a témában nem mondott túl sokat, csak egy példát hozott, hogy mit is hív emulátornak (arról, hogy mit is hívunk emulátornak, nem esik szó).

 

TDP-vel kapcs. elég, ha megnézel bármelyik inteles adatlapot. Van rá csomó példa, hogy ugyanazt a procit eladják ugye különböző frekivel, de TDP-nek mégis ugyanazt adják meg. De maga a TDP leírásából is látszik, hogy ezzel az értékkel komolyan nem lehet méretezni (max., ha megveszed az ugyanilyen TDP-re szánt intel hűtőt, akkor kb. minden OK lesz. De ez nem azt jelenti, hogy a proci ennyi hőt disszipál el max.):

 

Thermal Design Power (TDP) represents the average power, in watts, the processor dissipates when operating at Base Frequency with all cores active under an Intel-defined, high-complexity workload. Refer to Datasheet for thermal solution requirements.

 

Most hirtelen ezt találtam, de biztos van olyan példa, ahol még nagyobb a különbség a frekiben, de a TDP meg ugyanaz. Mind2-re 65 W-ot mondanak: 

https://ark.intel.com/content/www/us/en/ark/products/88185/intel-core-i5-6400-processor-6m-cache-up-to-3-30-ghz.html

https://ark.intel.com/content/www/us/en/ark/products/88184/intel-core-i5-6500-processor-6m-cache-up-to-3-60-ghz.html

 

Szóval érted: "Intel-defined workload". Emiatt butaság másik gyártótól adott TDP-jű procit kérni. Nyilván nagyságrendileg kb. össze lehet hasonlítani a dolgokat, de kb. ennyire jó.

Igen, inkább a bit slice a gyakoribb. A bipolar inkább zsargon, miszerint tényleg bipoáris technológiával készült, egyben magyarázat, hogy nem NMOS és nem CMOS technológiával. Nyilvánvalóan csak egy bizonyos korszakban volt értelme kiemelni ezt a tulajdonságot.

A "cmos processor" 17k, a "cmos cpu" is csak 77k találatot eredményez. Pedig manapság mindenki ilyet használ.

Pojják Tibin mi is jót röhögtük. Ráadásul valami leánykori képet szedett elő a cikkhez. :)

A mai munkamódszerekhez képest azért érdekesebb a "hogyan készült?" Mindössze 2-3 hét firkálás és lapozgatás után következett egy hét rajzolás. A műszerésznőnk 2 nap alatt összedobta a 300 tokot. Közben Tibi egy bőrönd méretű szerkezeten bitenként bekattogtatta az 5db 1kx4 PROM-ba a programot. (Nem lett tele.) Utána 1-2 nap méricskélés, ami alatt kiderült a max 3 elkötés, amit a műszerész elvétett. Utána működött minden.

Teszteléskor feltettem egy kérdést: Mi van, ha kétszer adom ki a döntőtt írás parancsot?

Kb. 5 másodperc múlva kész volt a válasz: Nem volt specifikálva, hogy csak egyszer lehet. Működnie kell.

Asszem, a mai szoftveresek is így dolgoznak. ;)

A sornyomtató emuláció itt azt jelenti, hogy a nyomtatókábelt átdughatod az egyik szerkezetből a másikba, és kb. ugyanazt a nyomtatatási képet fogja adni, ugyanazokkal a parancsokkal vezérelve. Persze a fizikai eltérés miatt vannak apró különbségek. Pl. a sornyomtatók általában több oszlopot tudnak nyomtatni. Ettől eltekintve, egy szoftverrel bármelyik nyomtatóra nyomtatva ugyanazt a képet fogod látni. A nyomtatás sebességét a sornyomtatónál a mechanika, a lézernyomtatónál a xerografikus rendszer sebessége a korlát. Az utóbbi a kisebb.

A WINE esetében elindítasz egy szoftvert és ugyanazt teszi, mint Windows alatt.

Nem bonyi, mindkettő emuláció. Hogy miként teszik a dolgukat, az részletkérdés. Elvégre a videoformattert sem hívjuk BSI interfész TO lézersugár, vagy a sornyomtatót TO kalapács wrappernek. :-D

 

A TDP specifikációja szerintem teljesen jó, mert

- átlagos/közepes használat mellett

- az alap órajelen

- az összes magot működtetve

éppen annyi, amennyi.

Ha érdekel a "mennyi az annyi", akkor letöltesz egy adatlapot, (ami tán nem is ugyanaz a proci, de ez most mindegy): Intel® Core™ i5-600, i3-500 Desktop Processor Series, Intel® Pentium ® Desktop Processor 6000 Series

Ebben több helyen 73W és 87W TDP-re hivakoznak. Egyes helyeken meg a számított tipikus max. teljesítmény 154W-ra jön ki, de ez csak a core teljesítménye. (7-1 ábra, Vcore=1,4V) Ha egy adott felhasználásra szeretnéd kiszámítani a fogyasztást, illetve méretezni a hűtést, akkor go to 18. oldal!

Regisztrálj, és töltsd le azt a két dokumentumot, aminek a vége ...Thermal and Mechanical Specificaitons and Design Guidelines!

Bar nem tudom, hogy közemberek regiszrálhatnak-e. Régen az adatlapok nyilvánosak voltak.

Szerintem egy desktop gyári hűtő általában >TDP teljesítményre való, egy szerverbe még nagyobbat tesznek és nem desktop processzort. Meg ezek elég bonyolult szerkezetek a komplex thermal és power management miatt...

Igen, az emulációval kapcsolatban ugyanazt gondoljuk.

 

Viszont a TDP-vel kapcsolatban nem. Ha neked kellene megtervezned a hűtését a CPU-nak, akkor meg tudnád tervezni, hogy azt mondják, hogy TDP 65 W? Nyilván nem. Mivel nem az átlagos/közepes használatra kell a hűtést tervezni, hanem a maximumra (amúgy a TDP nem átlagos érték, hanem azért durván leterhelve a CPU-t. De azért nem a maximum). Legalábbis, ha workstationhoz tervezek hűtést, akkor oda a maximumra kell tervezni. Hiszen nem azért veszek workstationt, hogy utána throttlingoljon, ha leterhelem. Itt egy link egy Thermal and Mechanical Specifications and Design Guidelines doksira: https://www.intel.com/content/dam/www/public/us/en/documents/guides/xeon-e7-v3-thermal-guide.pdf. Konkrétan írják benne: 

 

TDP is not the maximum power that the processor can dissipate.

Most nincs kedvem átnézni a teljes doksit, lehet írnak benne valamit, valami képletet/szorzót, amivel a TDP-t korrigálva már tervezni lehet, nemtom. De egyelőre nekem ez a TDP továbbra is egy marketing eszköz, nem pedig mérnöki munkára alkalmas szám

(és ha van is ilyen képlet, akkor is megkérdezem: miért nem a maximumot jelenti a TDP? Nyilván azért nem, mert összehasonlítva másokkal, jobbnak tűnik a CPU, mint valójában).

 

Van értelme nyilván a TDP-nek is, csak rossz a neve. Mert amúgy sima felhasználóként (ha a villanyszámlát nézem), inkább valami átlagos/valamennyire leterhelt érték érdekel, nem pedig a maximum. De hűtés tervezésre inkább a max-ot kellene alapul venni.

Viszont a TDP-vel kapcsolatban nem. Ha neked kellene megtervezned a hűtését a CPU-nak, akkor meg tudnád tervezni, hogy azt mondják, hogy TDP 65 W?

Meg tudnám tervezni, nézegesd meg azt, amit linkeltél! Részletesen kifejtik a méretezés.

Két fő módszer van:

- hőmérés a beépített szenzorral

- teljesítményméres, szintén a beépített szenzorral

Részletes példa van a "hűtőtorony" méretezésére és a ventillátor vezérlésére.

Ahogyan megjósoltam, mindebbe belekeveredik a CPU belső mendzselése is. A dokumentáció mindenre kiterjed. Külön leírják, hogy a felső hűtés nem tökéletes modell, mert nem az összes hő távozik a felső hűtőrendszeren, ezért vigyázni kell a foglalat hőmérsékletére is - erre is van valami számítás.

A TDP = hőtervezési teljesítmény, azaz egy mértékadó teljesítmény, amit felhasználhatsz a hőtechnikai számitásoknál.

A valós teljesítmény ennek a másfél-kétszerese is lehet. De mi az a teljesítmény?

- Egy időintervallumra átlagolt energiafelvétel.

A CPU felülete nagy. Írhatok olyan programot is, amikor

- csak 1 core, és/vagy

- + csak a cache, és/vagy

- + csak a buszmeghajtó

stb. működik és melegszik jobban. Szélsőséges esetben túlterhelhetem a CPU "egyik sarkát", miközben a másik hideg marad?

Igen is, meg nem is. A hő nem fénysebességgel terjed, mert itt alacsonyabb hőmérsékletekről és hővezetésről van szó. A hővezető elemnek tömege van, tranziens melegedésnél átlagolódik, tartós terhelésnél meg van egy késleltetése és egy beállási ideje.

Szerencsére a gyártó nem hagy nyitott kérdést. Pl. a maximális terhelés 75A, de a tartós terhelés csak 60A lehet, stb. Még olyan adat is van, hogy 360 óra/év vagy /élettartam  engedhető meg egy bizonyos fajta túlherhelésből.

A szerverek hűtését másképp tervezzük?

Is. Nem mindegy, hogy egy fájlszerver vagy egy computing node, vagy egy video konverter a kérdéses szerver. Persze az igénybevétel kitöltési tényzője és a nagy terhelésű intervallumok hossza is számít. De nincs probléma, mert a CPU terhelése és hőmérséklete mérhető. Annak alapján pedig el lehet dönteni, hogy növelni kell-e a hűtést, vagy a rendszer eleve alkalmatlan az adott igénybevételre.

Végezetül a TDP alkalmas összehasonlításra, ha

- felépítésében hasonló CPU

- hasonló terhelés

- megegyező foglalat

- megegyező hűtőrendszer

esetén a nagyobb TDP-vel rendelkező többet fogyaszt.

A "villanyóra sebességét" csak méréssel lehet megállapítani. Persze a tipikus terhelésen, amivel üzemeltetni fogod az adott gépet, ami nem csak a CPU-ból áll.

Itt a lényeg:

De nincs probléma, mert a CPU terhelése és hőmérséklete mérhető. Annak alapján pedig el lehet dönteni, hogy növelni kell-e a hűtést, vagy a rendszer eleve alkalmatlan az adott igénybevételre.

Szóval nem elég a TDP.

De kb. az egész hozzászólásod arról szól amúgy (nemtom észrevetted-e), hogy nem elég a TDP, nem elég csak egy sima szám arra nézve, hogy milyen hűtés elég, mert az egész ennél bonyolultabb. Nem azt vontam kétségbe, hogy van-e az intelnek doksija, amiben leírja azt, hogy kb. hogyan kell hűtést tervezni egy adott CPU-hoz. Hanem azt, hogy a TDP önmagában, mint 1 db szám, elég-e. Össze lehet-e hasolnítani két CPU-t, amit 2 gyártó csinál, TDP alapján. Nyilván nem, mivel nem ugyanazt az eljárást használják a TDP megállapítására. És itt még ez az eljárás is kérdéses, mennyire alapos.

 

Végezetül a TDP alkalmas összehasonlításra, ha

Nem, nem alkalmas, még az általad leírt dolgok fennállása esetén se. Linkeltem pár hozzászólással ezelőtt, hogy ugyanaz a CPU, csak más órajelen, és ugyanazt a TDP-t adják meg hozzá. Ha a CPU nem throttlingol (mert pl. rendes hűtés van rajta), akkor nyilvánvalóan többet fog fogyasztani a magasabb órajelű. És itt nem kis különbségről beszélünk, mivel az órajellel a lineárisnál gyorsabban nő a fogyasztás.

Hát persze, hogy nem elég a TDP. Ennek ellenére sokkal bonyolultabb a helyzet.

Kezdjük az alapokkal! (Vigyázat, mélyen színvonal alatti ismeretterjesztés következik!)

A CPU-ban MOSFET-ek vannak. Ez a primitív modell szerint egy félvezető rudacska, amely nem vezet. A vezérlőelektródát előfeszítve egyre jobban kezd vezetni, a végén egy kis ellenállása marad csak. Sajnos a "nem vezet" csak vágyálom, mert bizony marad szivárgási árama, ha csak néhány nA nagyságrendben is, és pozitív a hőmérséletfüggése. Itt meg milliárdnyi FET szivárogtat, és ez független az órajeltől! Tehát a fogyasztás egyik része ebből adódik. Egy napelemes pc tervezésénél is számszerűsitik a következő energiamérleget. Ha nagyobb teljesítményt fektetsz be a ventillátor meghajtásába, az többlet fogyasztást jelent. Ha ezzel sikerül annyira lehűteni a CPU-t, hogy a szivárgási áram elegendően csökken, akkor a többletfogyasztás ellenére energiát takaríthatsz meg.

az órajellel a lineárisnál gyorsabban nő a fogyasztás

Persze, mert az átfolyó áram a következőkből áll össze.

- kapacitások töltéséből és kisütéséből (ami arányos az órajellel),

- a töltő- és kisütő áram okozta veszteségből a soros ellenálláson,

- és a szivárgási áramból (ami a melegedéssel tovább nőhet),

- a nagy frekvencia miatt nyilvánvalóan lehet rádiófrekvenciás és skin effektussal összefüggő hatás (de ehhez már kevés a tudásom).

Az középső két tagot csökkentik az overclockerek a túlhűtéssel. Ott a határt meg a rendszer hőellenállása és tömege szabja meg.

Befejezvén a felesleges hablatyot, a következő igazság adódik:

Az utóbb linkelt (xeon-e7) képletei alapján, a 2.3.6 Thermal Solution Performance Characterization-tól kezdve, az Equation 2-1. mit ír le?

A TDP, a Tcase és a processzorhűtő hőmérséklete megegyezik. Az órajel meg nagyobb. Ebből csak az következhet, hogy a nagyobb órajellel működtethető processzornak kisebb a vesztesége. Miért? Hát mert így válogatták! Az eltérés csak 18,5%.

Induljunk ki megint az egyedi MOSFET adataiból!

Ha adott egy tok, azzal kb. definiált a hőellenállás értéke, elég a feszültség osztályt és a maximális áramot megnézni, rögtön tudjuk az RDSON értékét. (Az RDSON az az ellenállás érték, ami a vezető állapotba vezérelt szilícium darabka maradék ellenállása.)

Ha a félvezető hőmérséklete maximált, a tok hőellenállása adott, akkor a RDSON*I^2 értéke állandó. Persze ez csak egy tranzisztor, meg néhány dolgot figyelmen kívül hagytam. Az RDSON értéke a szilícium tisztaságával szórhat, így az azonos felépítésű processzorokat "RDSON szórás szerint" válogatják.

A gyorsabb (nem órajel) CPU általában nagyobb cache mérettel rendelkezik, ami miatt nagyobb a fogyasztása. Ugyanakkor a felülete is nagyobb lesz, ezért kisebb a hőellenállása. Így aztán nagyobb mennyiségű hőt tud leadni ugyanazzal a tokozással. A TDP nagyobb, és ugyanakkora felületről csak nagyobb  hűtőborda képes ezt elvezetni.

A TDP ebben az esetben is egyszerűsíti a számításokat. A tok hűtőfelületére (mint tudjuk nem eghészen pontosan) ez a teljesítmény kerül, amit el kell vezetni. Ezt tudjuk, de csak ennyit, és nem tudjuk a hőellenállást. (Persze tudjuk, mert (110-71)/65.)

Tehát két egyező TDP-jű processzorhoz átlagos esetben elegendő hűtő. Ennyit tudunk, nem többet!

Írtam, hogy "API-emulátornak talán lehetne hívni, de nem annak szokták, hanem API-wrappernek." De hívjuk API-emulátornak.

A kernelben tkp. igazad van, az utánzás a lényeg (mert az emulátor ezt jelenti), az meg tényleg mindegy hogy egy fake win kernellel, vagy wrappinggal csinálja, ez jogos.

Viszont az eredeti téma az opcode-kompatibilitás volt - hogy miért volt egyszerűbb dolga annak, aki csak architektúrán belüli modellt váltott és nem architektúrát - amit ugye a WINE nem biztosít; csak a host architektúrájával azonos archra való windowst tud emulálni. Mondjuk ez már inkább buckonak szól, mert ő hozta bele a szálba.

Igen, ez tök egyértelmű, nem is értem hogy gondolhatja ezt valaki másképpen. Akkoriban még kevesebb software-t írtak könnyen hordozhatóra. Meg (leginkább a windows előtt) egy csomó minden assemblyben (meg csak x86-ra forduló megoldás) volt. Driverek, stb. Egy ilyen sokféle HW-rel, és eszement mennyiségű SW-rel rendelkező platformnak, mint a PC, eléggé betenne, ha hirtelen megváltozna a CPU.

> Látom, a ragon rugózol, pedig nincs különbség. A futna is azt jelenti, hogy nem fut.

A végeredmény szempontjából nincsen, de a belekötésed szempontjából van, mert a feltételes mód explicit kijelenti, hogy nem fut, csak futna, ha meglenne a backend, míg nélküle fennáll az a logikai anomália, amibe belekötöttél.

> Ugyanúgy nem fut a karaktertábla program sem (XP SP2):

A hiba az ön készülékében van. Még be is linkeltem a printscreent, hogy nálam megy Xp alatt.

> Talán nincs felrakva a 16 bites API. - Ez is egy emuláció, mint a WINE.

Ez nem emuláció, hanem absztrakció. A kettő nem ugyanaz. A WINE még a nevében is WINE Is Not (an) Emulator. Csak egy API wrapper. Xp alatt sem emulálnak egy 8086-ost, csak wrappeli a hívásokat a win32-nek.

> Fogalmam sem volt, hogy az Apple pascalban dolgozott, de nem lep meg. Mióta láttam PHP tűzfalat, és a Windows dll a BIOS-ból töltődik már nem jöhet új. ;)

Nem véletlenül dolgoztak Pascalban; az egyik legjobb programnyelv. A C-nek csak annyi az előnye, hogy baromi pici és gyors binárisokat eredményez. Illetve - de ez már újkori eredmény - hogy mivel szinte mindenütt elérhető, ezért az abban írt kód a leghordozhatóbb. De ez nem a nyelvből jön, hanem az elterjedtségből.

> Csak annyit állitotam, hogy a mai fordítókkal nem lehet nagy durranás.

Még szerencse, hogy a történelemről beszéltünk, nem arról, hogy mi van ma.

> Ennek ellenére pozitívnak tartom az egyre szaporodó kompatibilis rétegek elvetését, ami alatt persze nem a jó dolgok megtartását értem.

Akkor mit csodálkozol, hogy az MS már egy tegnapi gépet sem akar támogatni? Amúgy meg a backward compatibility kiszórása nagyon ocsmány szokás.

> Most utána is néztem, hogy az Apple sem a 6502->68k átállást lépte meg, hanem 6502->65C816->68k->PPC. Vagyis 8->16, 16-arch váltás->32, 32->64.

Mondjuk a 65C816 valamilyen szinten opcode kompatibilis volt visszafelé, de amúgy ja. Még az is ott volt egy köztes lépésnek. Viszont, akkor már 8->16->32->32->64->64, mert 6502 (8) -> 65816 (16) -> 680x0 (32) -> PPC -> (32) -> PPC64 (64) -> x86_64 (64). Ugyan a 68000-es belülről 16-bites felépítésű volt, de maga a koncepció, a logika és főleg az utasításkészlet full 32-bites volt már a legelején is. Az a CPU család ékes példája a forward compatibilitynek.

> Tehát a nyomorult Apple az első lépésént rosszul választott CPU-t

Miért is? Amikor Wozék elkezdték, csóró egyetemisták voltak. A 6502-es a legolcsóbb 8-bites CPU volt. Ezért is volt olyan népszerű. Mit választottak volna, amikor még a kocsijukat is el kellett adni, hogy legyen pénzük az első pár lapot legyártani?

> Az első döntés végig kísérte mindkét gyártót.

Az Apple-t? Ők az OS-t is eldobták többször. GEOS -> LisaOS -> MacOS -> OSX. Már a Mac-ek idején sem volt semmi a 6502-es örökségből.

Köttött ám bele a nyavaja! Nem akarod érteni amit írok, ezért kötekedsz. Pedig sokkal hatákonyabb lenne, ha a leírt gondolatok sorozatára koncentrálnál!  Helyette egy-egy félmondatomat elmagyarázod ugyanúgy, ahogy én is elmagyarázom a következő mondatomban, amit persze szintén elmagyarázol. Vagy csak nekem tűnik igy? ;)

És a hiba tényleg az én készülékemben van, mondom: Nem raktam fel a 16 bites API-t. És erről is lehetne vitatkozni, hogy része-e az OS-nek, vagy sem. De minek.

Az emuláció és társai.

Olvasd el innen kezdve a végéig:

Amit x86 platformon látsz, az...

és rájössz miért választott a nyomorult Apple rosszul. Sőt, még occsó kocsit is választottak. ;)

A Pascal tényleg jó nyelv, csak abban programoztam pécét még DOS alatt. A C akkori megnevezése "struktúrált assembler". Azóta fejlődtek a fordítók, aminek a lezárását 2000 környékére teszem. Tehát nem a mai fordítókra gondolok, és tudom mikori a POWER6. POWER-en 33MHz-es korától 1,5GHz-ig (POWER5+) dolgoztam. A 80-as években megszokott technológia - megírod, majd assemblerben optimalizálod - a fejlett fordítóknál értelmetlen, mert megteszik ők maguk. No, akkor ez már történelem? ;)

> Vagy csak nekem tűnik igy? ;)

Csak neked.

> És a hiba tényleg az én készülékemben van, mondom: Nem raktam fel a 16 bites API-t. És erről is lehetne vitatkozni, hogy része-e az OS-nek, vagy sem. De minek.

Hívd akkor emulációnak, de opcode volt a kérdés, hardwares emulációt a WINE meg nem csinál, ld. egyel feljebb.

> Olvasd el innen kezdve a végéig:

Elolvastam még egyszer. Nem lettem okosabb. Az összefüggést sem értem. A win10-ben a mai napig kísért a CP/M szelleme, ez tény, de a macOS-ben hol lehet látni a régi 6502-es rendszer örökségét?

> A Pascal tényleg jó nyelv, csak abban programoztam pécét még DOS alatt. A C akkori megnevezése "struktúrált assembler". Azóta fejlődtek a fordítók, aminek a lezárását 2000 környékére teszem. Tehát nem a mai fordítókra gondolok, és tudom mikori a POWER6. POWER-en 33MHz-es korától 1,5GHz-ig (POWER5+) dolgoztam. A 80-as években megszokott technológia - megírod, majd assemblerben optimalizálod - a fejlett fordítóknál értelmetlen, mert megteszik ők maguk. No, akkor ez már történelem? ;)

Hogy kapcsolódik ez a korábbi szálhoz? Opcode kompatibilitásról volt szó, ami az Apple-nél nem volt az arch-váltásoknál, abba te még behoztál egy C fordítót, mint a kompatibilitás záradékát, ami megint csak nem volt az Apple-nél. Vagy arra célzol, hogy ami 2000 előtt volt azt felejtsük el? Az érdekes lenne, lévén ahonnan indult, ott te is messze 2000 előtti x86 verziókról beszéltél.

A hardveres emuláció a mániád. ;) Igaz, opcode kompatibilitás a téma, de azért nem kell egy kifejezést ennek alárendelni!

Ha nem lettél okosabb, megpróbálom mégegyszer elmagyarázni a történelmet - napjainkig, különös tekintettel az opcode kérdésére.

A) Az IBM PC keletkezésekor az IBM és DR tárgyaltak. A CP/M-86, mint a PC új opredszere volt a cél, de nem jött össze. A CP/M kötött a 8080 arch-hoz. Lényegében ennyi az az információ, ami elegendő ahhoz, hogy megértsd, hogy ez az irányvonal a mai napig meghatározza az opcode kompatibilitást. Továbbá a CP/M-re rengeteg program volt, a pécére meg semmi. A DOS is úgy állt össze, hogy CP/M kompatibilis rendszerhívásai voltak, így csak egy crossassembler kellett, aminek nem túl sok dolga akadt, mert még a regiszterek is hasonlóak voltak. Ez a "mégsem CP/M" ellenére megkönnyítette a pécé kezdeti programellátását. Talán még W10-re is át lehet tuszkolni egy 8 bites CP/M programot!

B) Az Apple meg választott egy olcsóbb - akkoriban jó és népszerű - 8 bitest, amit csak 16 bitig tudott vinni, mert a gyártó megszűnt. Ekkor arch váltás, béke, de a gyártó váltott és mehetett utána. Később előretörtek a laptopok, de egy szever processzor nem oda való, különösen, ha nincs is, vagy csak drágán jut hozzá. Tehát megint váltás.

Indiana Jones kereszteslovagja azt mondaná: A - bölcsen döntöttél, B - ostoba választás volt. ;)

Mindkét esetben számíit a több beszállító is. (A sok dumát meg elolvashatod különböző cikkekben.)

A C fordító (a tudatlansáomon kívül) talán azért jött be, mert valaki azt állította, hogy most jön az ARM...

> Ha nem lettél okosabb, megpróbálom mégegyszer elmagyarázni a történelmet - napjainkig, különös tekintettel az opcode kérdésére.

- Az Apple 1975 elején kezdte fejleszteni az Apple I-et, a CP/M-et alig fél éve fejezték be és az intelnek sem kellett, visszadobták, a DR pedig a piacon forgalmazni csak 1975-ben kezdte, bőven azután, hogy az Apple I fejlesztése elindult; mégis hogy vehették volna figyelembe a CP/M kompatibilitást, mint tényezőt a CPU választásnál? Ha tudtak is róla, hogy van olyan, hogy CP/M, akkor az még csak egyike volt a 70-es évek számtalan OS-csírájának.
- Az IBM nem egyszerűen a CP/M kompatibilitás miatt választotta a 8088-at. Több alternatívát is átnéztek, többek közt a 6502-est is és éppen azért dobták el, hogy ne legyen Apple-kompatibilis. A 8088-at csak a 68000-essel szemben választották, mert több tool volt rá, de egyébként a választásában bilgéc adta a végső lökést, aki szaros 50k-ért megvette a SCP-től a CP/M klónjukat, majd rávette az IBM-et, hogy vegyék meg.

> A) ...

Képzeld, ezt én is tudom.

> B)...

Magyarán az Apple-nek a többszöri architektúraváltással sokkal nehezebb volt, mint az IBM/intel/ms triumvirátusnak az architektúrán belüli modellváltogatással. És egyébként ez nem magyarázat a korábbi állításodra, hogy az első döntés miért kíséri végig az Apple-t. Az első váltásig kísérte, aztán elfelejtették. Hol van a 6502-es korszak öröksége a mai Apple rendszerekből?

> Indiana Jones kereszteslovagja azt mondaná: A - bölcsen döntöttél, B - ostoba választás volt. ;)

Ld. első bekezdés, a törioktatásodra...

- Az Apple 1975 elején kezdte fejleszteni az Apple I-et

Ugyanekkor a MS már 8080-on dolgozott, bár ez lényegtelen, mert nem befolyásolta az IBM PC-t. Csak később.

Az első váltásig kísérte, aztán elfelejtették. Hol van a 6502-es korszak öröksége a mai Apple rendszerekből?

Nem mondtam ilyet. Csak annyit, hogy az egyes ach-ok hol ezért, hol azért, de sorozatosan "kiszerelődtek" alóla. És nem csak a 70-es években.

többek közt a 6502-est is és éppen azért dobták el, hogy ne legyen Apple-kompatibilis

Ami csak bullshit, mert

He also felt the the 68000 didn't have as good software and support tools, and the similar register model allowed the porting of 8080 tools to the 8086/8088.

ugye a 6502 az igazán 8080 kompatibilis volt. ;)

Az Intelnek meg miért kellet volna os, amikor volt sajátjuk. Amikor kellett, akkor raktak bele diszket is. Ennek az emulált verziójával dolgoztam 286-on, és natív módban V20-on, kb. 15 ével később.

Tán 84-85-től meg már volt unix is. Ettől kezdve már nem túl érdekes az opcode.

> Ugyanekkor a MS már 8080-on dolgozott, bár ez lényegtelen, mert nem befolyásolta az IBM PC-t. Csak később.

Az a kisebbik, hogy az IBM PC-t nem befolyásolta, de az Apple-t sem. Egyébként az MS dolgozott mindenen, lévén a BASIC-jüket mindenhova portolták. 6502-esre is.

> Nem mondtam ilyet.

De mondtál: "Az első döntés végig kísérte mindkét gyártót." Erre mondtam, hogy az Apple-nél max az első váltásig.

> Ami csak bullshit, mert

He also felt the the 68000 didn't have as good software and support tools, and the similar register model allowed the porting of 8080 tools to the 8086/8088.

> ugye a 6502 az igazán 8080 kompatibilis volt. ;)

WTF? Ki mondta, hogy a 6502 8080 kompatibilis volt? A cikk arról szólt, hogy a 6502 is szóbakerült, mint az első IBM PC CPU-ja, csak eldobták, mert nem akartak Apple kompatibilis CPU-t. Nem értem, hogy mit akartál itt mondani.

Linkeltél valamit, amiből idéztél.

Én meg elolvastam. Ennek alapján (amit idéztem, ugyanabból amit linkeltél) jogos a 8086-ra váltás, a "nem 6502, mert apple" pedig csak duma.

Ekkor már az Intelnél nyilvánvalóan tervezés alatt volt a 286 és a 386 is. Ez azt jelenti, hogy nem egy processzor, hanem az iAPX rendszer(ek) mellett döntöttek. A PC dokumentációját azonnal  publikussá tették. Ez olyan folyamatot indított el, ami még mindig tart.

Ha belegondolsz, a 60-as évektől halódó mainframe, a későbbi AS400, és a 90 óta halódó POWER platform kódjai még ma is futtathatók. Szóval az IBM biztosan azért dobta a 6502-t mert Apple. ;)

Itt egy kicsit két malomban őrlünk, mert az Apple pont akkor kezdett, amikor a CP/M még pont nem jött be. A nagy dobás a PC CP/M továbbvitele (6 évvel később), ami után pár évvel (83?) az Apple pont eladási rekordot állítot be. Viszont közben a CP/M (már korábban) és a PC is ipari szabvány lett...

WTF? Ki mondta, hogy a 6502 8080 kompatibilis volt?

Lefordítom a kacsnitós szmájli értelmét: Nem volt az, ezért a kutyát sem érdekelte.

A BASIC ugyan népszerű volt a 80-as években is, de ez lényegtelen. A 80-as évek közepén a PC-n ment pl. a Turbo Pascal 3, Macro 80, WordStar stb. Ha kiírtam flopira, akkor akár otthon is tudtam dolgozni az Enterprise 128 gépemen, mert ugyanezek a programok mentek CP/M alatt is. Aztán a munkahelyemen rádugtam egy terminált a Dolch logikai analizátorra és MP/M alatt programozhattam a 8db Z80-at. (Az alapgép 2MFt volt, a fizetésem meg már akár 8eFt is. ;))

Az Apple jó dötése a UNIX volt, amitől kezdett nem túl lényegessé válni az arch-ok közötti ugrabugra. Apple szivat, júzer jó pénzért mosolyog. Hol itt a gond?

Érdekes, hogy a MS nem tudta stabilizálni a UNIX irányvonalat, mert a Xenix és SCO is elég gyorsan megszűnt. A linuxot meg nem tartom MS terméknek. ;)

> Szóval az IBM biztosan azért dobta a 6502-t mert Apple. ;)

A te spekulációd az első IBM PC-t megalkotó csapat vezetőjének állításával szemben. Ó jaj, most kinek higgyek?

> Itt egy kicsit két malomban őrlünk, mert az Apple pont akkor kezdett, amikor a CP/M még pont nem jött be. A nagy dobás a PC CP/M továbbvitele (6 évvel később), ami után pár évvel (83?) az Apple pont eladási rekordot állítot be. Viszont közben a CP/M (már korábban) és a PC is ipari szabvány lett...

Nem, nem őrlünk két malomban, pontosan erről beszéltem idáig, hogy azt kéred számon az Apple-ön, hogy miért nem választottak egy CP/M-kompatibilis CPU-t, a CP/M megjelenése előtt. De akkor végre átment.

> Lefordítom a kacsnitós szmájli értelmét: Nem volt az, ezért a kutyát sem érdekelte.

Azt értettem, hogy szarkazmus volt, de ilyet senki nem is állított, hogy a 6502 8080 kompatibilis volt. Se én, se a linkelt levelezés. És az meg nettó WTF, hogy szerinted azért bullshit, hogy az IBM az Apple kompatibilitás miatt dobta a 6502-őt, mert a 6502 nem 8080 kompatibilis... A két dolognak az ég egy adta világon semmi köze nincs egymáshoz!

> A BASIC ugyan népszerű volt a 80-as években is, de ez lényegtelen. A 80-as évek közepén a PC-n ment pl. a Turbo Pascal 3, Macro 80, WordStar stb. Ha kiírtam flopira, akkor akár otthon is tudtam dolgozni az Enterprise 128 gépemen, mert ugyanezek a programok mentek CP/M alatt is. Aztán a munkahelyemen rádugtam egy terminált a Dolch logikai analizátorra és MP/M alatt programozhattam a 8db Z80-at. (Az alapgép 2MFt volt, a fizetésem meg már akár 8eFt is. ;))

Honnan kellett volna az Apple-nek tudnia tíz évvel korábban, hogy a még ki sem adott CP/M ekkora hordozhatóságot fog jelenteni? Ez nem bölcs, vagy balfasz döntés kérdése volt a hetvenes évek közepén, hanem lutri.

> Az Apple jó dötése a UNIX volt, amitől kezdett nem túl lényegessé válni az arch-ok közötti ugrabugra. Apple szivat, júzer jó pénzért mosolyog. Hol itt a gond?

A UNIX nem az Apple döntése volt, hanem az Apple-től kirúgott Jobsé, amikor a NeXT gépeket csinálta, annak volt Darwin kernelű UNIX OS-e. Az OSX-nek semmi köze nincs a korábbi MacOS vonalhoz, Jobs kukázta az egészet és átültette a NeXTSTEP-et a POWER alapú Apple gépekre. Az Apple pedig nem szívatásból választotta előtte a 6502-őt és a 68000-et, hanem előbbit azért, mert olcsó volt, utóbbit meg azért, mert jó.

> Érdekes, hogy a MS nem tudta stabilizálni a UNIX irányvonalat, mert a Xenix és SCO is elég gyorsan megszűnt.

Nem tudták megoldani a backward compatibility-t, ami náluk a fő megtartóerő volt.

Ó jaj, most kinek higgyek?

Tisztelhetnéd a szakma nagy öregjeit. ;)

Nem hinném, hogy az első IBM PC-t megalkotó csapat vezetője húgyagyú lett volna. Nyilvánvalóan nem kívántak egy ZX Spectrum vagy C64 kvalitású gépet készíteni új IBM termékként. Akkoriban csak a 68k és az iAPX rendszer jöhetet szóba, míg a Z8000 rossz választás. Az Intelnél már tervezőasztalon volt a 286 és 386. Az iAPX nem egy processzor, hanem nagyszámítógép kiépítésére is alkalmas elemeket (iAPXxx/xx) felsorakoztató rendszer, pl. FPU és IO processzor. Végül a PC nem ment el ebbe az irányba, de mehetett volna. Figyeld csak meg, hogy a PC első verziójában már ott virít az FPU foglalat! A rendszer modulárisan bővíthető, márpedig az elavult 8 bites platformok nem alkalmasak ilyen rendszer gazdaságos kiépítésére. (Bár az akkori szinten így is egy kicsit alkatrésztemető lett.)

Tehát elhiszem, hogy akár még a 4 bites processzorokat is megvizsgálták, és akár beszéltek is róla... :-D

Én pedig 83-89-ben egy - az adott szakterületen - világszínvonalú hardveres csapat tagja voltam, mondjuk 86-tól teljes értékű tagja. Találkoztam a 8085, Z80, 65xx (de nem az, amit az Apple használt), 68xx processzorokkal. (A bold, amivel dolgoztam és egy- vagy többprocesszoros gépet is terveztem.)  Használtam iAPX elemeket is. A szomszéd szobában készült ez a navigációs rendszer, ami legfeljebb egy fél diplomatatáska méretű lehetett volna,... ha engedélyezték volna a 286-287 használatát. Alattunk két emelettel készült a VT32 68k, sőt több alapon. Akkoriban nem volt hup és internet, ezért a szakmai információkat szóban cseréltük. :-D

Bár más területek specialistája voltam, de terveztem több PC kártyát és írtam hozzájuk BIOS extensiont, amit Turbo Pascalban vagy assemblerben írt programokkal lehetett használni. Az ismereteim nem a bulvársajtóból származnak, akár megalapozott szakmai véleményt is kialakíthatok arról a korszakról, amikor a PC keletkezett.

Ha ez nálad hit kérdés, abba nem tudok beleszólni.

Az Apple-nek nem kellet volna 10 (6) évvel előre gondolkodni. Akkor éppen a legolcsóbbat választották (mint több esetben), és kényszerpályán voltak a 16 bites verzióval. Ennek a megszűnése nem is érte őket annyira váratlanul. Amit leírsz, az is arra utal, hogy jobbra-balra kanyargás történt. Szinte ugyanaz, amit ma olvastam az ARM átállásról az Appleblogon. ;)

Korábban is azt állítottam, hogy a CP/M a győző, de nem csak. Az IBM sikeresen választott egy olyan rendszert, ami a 486-ig abszolút töretlenül haladt előre. Hangsúlyozom, hogy most nem a piaci részesedést (stb.) szemlélem, hanem csak a műszaki szempontokat. Ha nincs a MS egyeduralma, akkor lehetett volna POWER irányába nyitni, és ma is lenne POWER a laptopban. Ez viszont tényleg csak spekuláció. Tán nem csak nekem jutott eszembe, hiszen pont akkor fordítottak NT-t PowerPc-re!

A NeXT, mint nyomtatósnak is roppant figyelemre méltó. Feltűnt, hogy akkoriban egyre több interfészt gyömöszölnek a nyomtatókba. És erre olvasok egy olyanról, amely video interfészen nyomtat. (Mint ahogy mi is kapcsolódtunk a VT32 grafikus munkaállomáshoz.) Persze pont akkoriban kopirájtolta a HP a digitális helyett a kvázi analóg modulációt a finom íráshoz. Persze csak saját karakterek, csak saját interfészen. ;)

Tisztelem is. Ezért írtam - ha kicsit szarkasztikusan is - hogy az mérvadó az IBM PC CPU választásáról, amit az IBM PC atyja írt az emlékirataiban, nem egy hupos kolléga spekulációi. Az lehet, hogy az ismereteid nem a bulvársajtóból származnak, de nem is első kézből; az IBM PC tervezésének részleteit csak az tudhatja, aki ott volt. És nem, ez nem hit kérdése.

Impresszív az önéletrajzod, csak nem értem, hogy hogy jön ide. Érezzem magam kevesebbnek, mert túl későn születtem? Vagy írjam le, hogy 89-ben, három évesen írtam az első programomat C128-on és elsőként programoztam le egy adott környezetben működő virtuális gépet, amit előtte (tudtommal) senki nem tudott? Hogy kapcsolódna ez az opcode kompatibilitáshoz, vagy ahhoz, hogy az Apple ostobaságból, vagy szemétségből választotta ki az első CPU-ját, vagy csak éppen az volt elérhető áron két csóró egyetemistának?

A jobbra balra kanyargásban egyetértünk, erről beszéltem már a legelső posztban, hogy nekik nehezebb volt az architektúraváltást végigzongorázni, mint az IBM világnak. De nem azért, mert hülyék vagy köcsögök voltak.

Az lehet, hogy ha nincs az MS egyeduralma, akkor ma POWER gépek előtt ülnénk. Nekem nem hiányozna az x86, elhiheted.

A NeXT gépek baromi jók voltak. Kár, hogy csak baromi ritkán és akkor is gyémántárban elérhetőek, már vettem volna egyet...de ez off.

Ebből a hozzáállásból tényleg látszik két dolog: Nem dolgoztál ilyen projektben és angyalian naív vagy. ;) Persze egyik tényező sem róható fel, és nem is bűn.

Bocsánatot kérek, mert most tanítani szeretnélek egy kicsit a világ dolgaira!

Emlékiratot, önéletrajzot bárki írhat. Sőt vezető is lehet.

Első példa Videoton Számítástechnikai Gyár - Termékkatalógus - Lézernyomtató, és a Főkonstruktőr Baráth István. Aki későbbiekben a Gória (VIDEOTON CD gyár) igazgatója lett. Akár emlékiratokat is írhatna. ;)

Na, ő volt az, akit rövid időre fölénk raktak, mint projektmenedzsert. Azért rövid időre, mert az öregek elég hamar berágtak és kijelentették, ha marad akkor ők mennek el. Hiába volt még szakmérnöki diplomája is, ahhoz se nagyon értett. A lézernyomtatóhoz a takarítónő több értéket adott hozzá, mint ő. :-D

A második példa Prof. Dr. Szirányi tamás, az MTA doktora, akinek az önéletrajzában olvashatod:

Az általa vezetett csoport, illetve később 24 fős osztály fejlesztette ki az első hazai CD-ROM prototípusát...

A három fős csoport, aki az első és utolsó hazai CDROM fejlesztője volt, az jómagam, és a feljebb linkelt "formatter" cikkben szerplő két szakember. (Azt, hogy nem készült másik, konkrétan a Philips-től tudjuk. Ugyanis részben illegális volt a tevékenységünk, tudtak róla, de nem foglalkoztak vele.) A nagysikerű bemutató 1989 közepén volt, ami után egy SZTAKI-s szakember még egyszer gratulált, és megpróbált egy példányt kölcsönkérni nagygépes kipróbálásra. Halkan elmagyaráztuk neki, hogy ketten a jövő héten mondunk fel, nincs és nem is lesz még egy példány. Tibi egy év múlva jött ugyanoda dolgozni. A terveimet a VT32 csoportból kivált kolléga dolgozta át SMD alkatrészekre, egy betű modosítása nélkül. Na, ő Tibi után egy évvel jött utánunk.

A szerkezet úgy készült hogy Pisti szerzett egy gyártásba nem kerülő Thomson (=VIDEOTON haveri cég) CD31 optomechadecket, Tibi tervezte a nagysebességű dekódert, én a vezérlőt és programoztam - néhány kritikus algoritmust Tibi tervei alapján. Lopott, embargós CDROM szabványból dolgoztunk. A doktor úr két hozzádott értékkel büszkélkedhet. Írt egy benchmarkot, ami nem működött. Mint kiderült, a mikroszekundumos interfészműveletek közepette FPU nélkül holmi lebegőpontos szorzásokat végzett egy 4,77MHz-es XT-n. A második esetben részt vett egy olyan spektrumanalizátoros mérésben, - egy fizikus dr. és egy kandidátus között ülve, - amikor megállapították, hogy nem kerül sor a másodlagos hibajavításra. Majd az asztalom sarkára hónapok óta oda.szott kopasz optomechadeck (asszem a takarítónő egyszer ráborította a kávét) fogaskerekeit egy gépész kolléga megmosta alkohollal. Ekkor csökkent a hibaszám.

Az öregek úgy dícsértek (vagy nem is engem dícsértek?): Te nem úgy dolgozol, mint a DOKTOR ÚR, hanem befejezed a munkát. És még működik is! ;)

És természetesen ő soha nem volt a csoportvezetőnk...Legfeljebb kettőnk kilépése után, de akkor meg nem készült CDROM.

Persze joggal modhatod, hogy akkor még "szocialista" cégek voltak, de ebben a pillanatban is tudok említeni egy csomó, szakmához sem értő és hibás dötéseket hozó informatikai vezetőt. Nem az a baj, hogy ÉN hülyének tartom, hanem a dötések nyomán nem születik eredmény, de kár az keletkezik.

Ha már így elferdültem, lássuk hogy keletkezik a bullshit! Éppen fejlesztjük-fejlesztgetjük kis lézernyomtatónkat, miközben Paulinszky Karcsi megjelenik egy szovjet minisztériumi küldöttséggel. (Lásd a "printer" cikk végén! Karcsi nem "csak" osztályvezető, de tényleg mindenhez értő zseniális mérnök is volt. Ezen kívül...) A küldöttségnek tetszett a cucc és kérdeztek is: Hogy állunk a színes verzióval? Karcsi meg rezzenéstelen arccal, folyékon oroszsággal magyarázta: Nekiálltunk a fejlesztésnek, de leállítottuk. Sajnos a piackutatás alapján nincs még rá igény. - Aha. :-D

Igaz, a világon először az Apple hozott forgalomba színes lézernyomtatót, tíz év múlva. Ennek ellenére szovjet emberünk simán írhat a tíz évvel korábbi Videotonos fejlesztésről, hiszen az osztályvezető mondta, sőt, még a főmérnök is mellette állt!

Nyugodtan állíthatom, hogy az IBM a leginnovatívabb cégek közé tartozik. Egy új projekt úgy kezdődik, hogy megvizsgáljuk a piacon levő termékeket, a konkurrenciát és a lehetőségeket. Ja, és a felhasználókat is. Néha bejön, de semmiképpen nem jó ötlet, hogy akkor mi is nyomtassunk bébiyodás pólót! :-) Nyilvánvalóan ezen szempontok szerint megvizsgálták az Apple termékeit, berakták a táblázatba a 6502-t is. Aztán azt mondták, hogy ezt nem, hiszen valaki már sok-sok éve ezzel dolgozik, miért gyártanánk bármi újat 8 bites régi processzorral?

De a zseniális húzás mégis a dokumentáció nyilvánosságra hozása volt. Csináltunk egy univerzális, bővíthető gépet, de se szoftver, se periféria, se másodgyártó. Az eredményt mutatja, hogy amíg ez beérett, az Apple elért egy eladási csúcsot - aztán soha többet. 

Mit jelent az az "ilyen" project?

Kösz a tanítást, az mindig jól jön. Tehát az eddigiekből és ebből az ideerőltetett analógiának szánt sztorizgatásból a következő két következtetést levonni:
- Az IBM PC egy innovatív készülék volt, amit bölcs előrelátással terveztek.
- Az első IBM PC tervezője egy idióta volt.
Ez tulajdonképpen teljesen logikus. Mondjuk ebből még mindig nem derül ki, hogy az Apple miért lett volna hülye, vagy köcsög, mert 6502-őt, meg 68000-est választott, hogy miért szopatta volna ezzel a felhasználóit, dehát ez van. Az ipar viszont évtizedek óta az x86-ot nyögi.

Az "ilyen" project lásd: Egy új projekt úgy kezdődik...

Ebből következően pont nem hinném, hogy az IBM PC tervezője papája idióta volt, hiszen számba vette mindazt amit kell.

Az Apple-t nem én dícsértem ennyire, de kérdésedre a válasz - már amennyit olvasgattam róluk - a mai napig ők mondják meg, hogy mi kell a felhasználónak. Ezt sokan be is nyelik, boldogan. Pedig régen is az adott kort meghaladó műszaki megoldásokat csináltak. Aztán ebből húzták a hasznot, amíg csak lehetett. Még akkor is, amikor már rég nem csóró egyetemisták voltak. OK, még nem vesztek éhen, üzleti tanácsot meg csak legutoljára kérjél tőlem. ;)

Tehát az a hibájuk, hogy nem úgy, nem akkor váltottak, amikor kellett. A 6502-vel semmi bajom, csak ami utána jött.

Az ipar viszont évtizedek óta az x86-ot nyögi.

Semmiben nem különbözik az Apple hozzáállásától! Van egy olyan süket duma, amikor a mennyiségi változás átmegy minőségibe...csak itt negatív értelemben.

> Ebből következően pont nem hinném, hogy az IBM PC tervezője papája idióta volt, hiszen számba vette mindazt amit kell.

Akkor meg mire fel volt a Videoton-sztori, meg a kiselőadás, hogy miért is nem kell komolyan venni a véleményét, miszerint az IBM az Apple kompatibilitás elkerülése végett dobta a 6502-őt? Megmondták neki fentről? És még 25 évvel később is azt mondja, amit anno fentről mondtak neki?

> Az Apple-t nem én dícsértem ennyire, de kérdésedre a válasz - már amennyit olvasgattam róluk - a mai napig ők mondják meg, hogy mi kell a felhasználónak. Ezt sokan be is nyelik, boldogan. Pedig régen is az adott kort meghaladó műszaki megoldásokat csináltak. Aztán ebből húzták a hasznot, amíg csak lehetett. Még akkor is, amikor már rég nem csóró egyetemisták voltak. OK, még nem vesztek éhen, üzleti tanácsot meg csak legutoljára kérjél tőlem. ;)

Ja, értem már mi a problémád. Nem, nem vagyok Apple fanboi. Csak épp annak, hogy az Apple mit művel mammutcégként, annak semmi köze ahhoz, hogy a két Steve szakadt gatyában mit alkotott a hetvenes évek közepén.

> Tehát az a hibájuk, hogy nem úgy, nem akkor váltottak, amikor kellett. A 6502-vel semmi bajom, csak ami utána jött.

A 68000-essel? Akkor már tellett rá, választhattak erős CPU-t. Mi a baj ezzel? Hogy nem x86-ot, vagy CP/M kompatibilis CPU-t választottak? A LisaOS egy klasszissal jobb OS volt, mint a CP/M. Csinálták a sajátjukat. Szerintem meg nincs ezzel semmi baj. Az már inkább minősíti őket, hogy a LisaOS-t kukázták a sokkal gagyibb System 1.0-áért.

> Semmiben nem különbözik az Apple hozzáállásától! Van egy olyan süket duma, amikor a mennyiségi változás átmegy minőségibe...csak itt negatív értelemben.

Ez itt már nem hozzáállás kérdése, hanem kényszeré. Az ipar nem tud megszabadulni tőle, mert akkor levesbe menne a windózos szoftverpark... (Még ARM-on is épp, hogy csak megvetették a lábukat, mármint az MS.)

A Videoton sztori rendre:

- Lehet egy információ téves.

- Lehet rossz emlékezet és hazugság is.

- Lehet vaskos tévedés.

Ami kimaradt: Leírtam ki nem volt a főnökünk, de azt nem, hogy ki volt. Pedig rengeteg műszaki diplomás, rengeteg nyelvet tudó, értelmes és roppant lelkes vezető volt, istenítette a csapatát is. Aztán mindig le kellett állítani, amikor eljutott a CDROM kérdésében odáig: "Leverjük a japánokat, mint a cölöpöt."  :-D

A mottó: Inkább higgy annak, aki akkoriban csinálta, mintsem a főnökének. ;)

A választ pedig többször, több szempontból leírtam. Ha nem érted amit írtam, olvasd el az iAPX rendszer és rendszerlemek dokumentációját! Én már a 80-90-es években megtettem, egyes elemeket használtam is.

Ezt a 6502 sztorit sem értem teljesen, mert ez a CPU, illetve a 16 bites utóda 1993-ig ment. A 68000 vonal meg 1983-ban kezdődött és 1996-ban ért véget. A PowerPC 1994-2006 között.

Ezek szerint a 6502 kódokat 1976-1993 között lehetett futtatni.

A 68000-re váltás csak az AT megjelenésekor indult.

A LisaOS-ről nem tudok vitázni, mert nem ismerem. De a Windowst is csak 2001-ben kezdtem "használni" internet, zene, film, skype - amíg meg nem vette a tudodki ;) - és sok-sok putty ablak. A LisaOS és a CP/M összehasonlítása meg butaság. (Írtam erre is példát.) A CP/M nem csak konzumer rendszer volt, illetve főként nem az. Egy csomó ipari rendszer használta, így a vásárlók köre teljesen más. Van ipari PC és van ipari Apple? De sajnos van ipari Windows. (A vakbélműtétemnél fekszek a műtőben, fejem fölött indul az XP: Úristen! Meghalok!)

Az ipar nem tud megszabadulni tőle, mert akkor levesbe menne a windózos szoftverpark...

Tudom miről beszélsz. Én, aki a parancssorhoz szokott, meg még DOS alatt használtam IDE-t (Turbo), de ott is már paranccsor lett. Most meg PIC18-ra fejlesztek, és nem akarom a netbeans alapú IDE gyönyöreit élvezni. Persze nekem akarnak jót, hogy átmehessek akár linuxra is szívni vele, de NEM. Sajnos a driver ellátottság is jobb.

Miért nem tud összeülne egy csomó okos és egy csomó gazdag ember, és csinálhatnának 4 OS-t: Konzumer grafikus, ipari grafikus/ipari, RT és embedded?

> A Videoton sztori rendre:

> - Lehet egy információ téves.

> - Lehet rossz emlékezet és hazugság is.

> - Lehet vaskos tévedés.

Lehet, lehet, lehet...látod, erre írtam, hogy spekuláció.

> A mottó: Inkább higgy annak, aki akkoriban csinálta, mintsem a főnökének. ;)

És van kéznél olyan ember véleménye, aki részt vett az első PC tervezésében és ellentmond az egykori górénak?

> Ha nem érted amit írtam, olvasd el az iAPX rendszer és rendszerlemek dokumentációját!

Lehet, hogy kiváncsiságból elolvasom, bár hirtelen nem igazán értem, hogy hogy kötődik az Apple/IBM szálhoz...

> Ezt a 6502 sztorit sem értem teljesen, mert ez a CPU, illetve a 16 bites utóda 1993-ig ment. A 68000 vonal meg 1983-ban kezdődött és 1996-ban ért véget. A PowerPC 1994-2006 között.

> Ezek szerint a 6502 kódokat 1976-1993 között lehetett futtatni.

> A 68000-re váltás csak az AT megjelenésekor indult.

Szó szerint azt írtad. "A 6502-vel semmi bajom, csak ami utána jött." Ezért kérdeztem rá, hogy pontosan mivel is van bajod. A 68000-essel? Vagy az OS irányzattal?

> A LisaOS és a CP/M összehasonlítása meg butaság. (Írtam erre is példát.) A CP/M nem csak konzumer rendszer volt, illetve főként nem az. Egy csomó ipari rendszer használta, így a vásárlók köre teljesen más.

Viszont az Apple az homecomputereket gyártott. Tehát nem volt ostobaság, hogy nem CP/M vonalon indultak el. Nem a LisaOS vs. CP/M volt a lényeg, csak próbáltam kipuhatolni, hogy mivel volt a bajod, ld. előző bekezdés. Sajnos most sem lettem okosabb.

> Van ipari PC és van ipari Apple?

Miért, ipari windóz van?

> De sajnos van ipari Windows.

Na tessék; hát ha az iparinak számít...

> (A vakbélműtétemnél fekszek a műtőben, fejem fölött indul az XP: Úristen! Meghalok!)

Ne aggódj, a windóz előbb hal meg. Kéken.

> nem akarom a netbeans alapú IDE gyönyöreit élvezni

Ezt maximálisan át tudom érezni, de ez már végképp ködös, hogy hogy a búbánatba jött ide...

> Miért nem tud összeülne egy csomó okos és egy csomó gazdag ember, és csinálhatnának 4 OS-t: Konzumer grafikus, ipari grafikus/ipari, RT és embedded?

Csináltak. (Milyen az az "ipari ipari"?)

Igen, létezik spekuláció, meg összeesküvés-elmélet is. Meg műszakilag indokolható vélemény is.

A 6502 alkalmazása egy ipari célokra is alkalmas gépben, 1981-ben abszolút nem indokolható. Ezt csak akkor vélheted valamilyen elborult hitnek, ha nem értesz hozzá.

Tessék az indoklás:

Az IBM PC bevezette a Industry Standard Architecture (ISA) buszt.

A fejlesztést az Intel IAPX architektúrára alapozták.

Az iAPX nem csak CPU család, hanem mellette komolyabb követelményeknek megfelelő komplex és multiprocesszoros rendszer kialakítására alkalmas támogató csipeket is tartalmaz: Support chips - Ezeket egy-két kivétellel használtam is. 

Mellékesen az x86-ot kihegyezték a "magasszintű nyelvek támogatására".

Ezek mind léteztek 1981-ben, a két nagyobb CPU meg félkész vagy előrehaladott terv állapotban.

Nálad a labda, hogy bizonyítsd volt értelme 6502-ben gondolkozni, mert ilyen tulajdonságokkal rendelkezett!

Ha nem megy, akkor linkelhetsz egy NASA vezető visszaemlékezést, miszerint: A Holdra utazás tervezésekor figyelembe vettük möszjö Verne ágyús megoldását is... Azt elhiszem. :-D

Van még egy tény. Az Apple a 6502 köré is épített védett üzemmódot. Ez nem nagy durranás, én is építettem egy egyszerűsített verziót 8085 köré. Viszont sok alkatrész kell hozzá. Az első pécét takarékossági okokból csak 8 bites busszal építették, és a későbbiekben sem lett túl "szószátyár" az áramkör.

 

Mivel volt bajom? Vagy nem is az én bajom?

- A 6502 és a 16 bites változata a sikeressége ellenére kihalt.

- A 68k előremutató tulajdonságai ellenére kihalt.

- A PowerPc motorola vonala kihalt.

- Most az Intel vonal is megszűnik.

Kérdés?

Miért, ipari windóz van?

Windows XP Embedded

Windows Embedded Industry

Ezek annyira halottak, hogy nem is olyan régen hivatalos MS drivert töltöttem le az XP SP2 rendszeremre. Ők ajánlották, hogy az embedded platformhoz kiadott driver alkalmas a rég nem támogatott rendszerhez - és így is volt. És nem, nem vagyok MS fan! ;)

A hupon is láthattál néhány ipari windózos szerkezetet.

az Apple az homecomputereket gyártott. Tehát nem volt ostobaság, hogy nem CP/M vonalon indultak el....

Ebben megegyeztünk: Az is maradt, meg 6 év a különbség ebben a gondolatban. És a 6 év már régen is sok volt!

Az Apple baja az, hogy egyedi. A MS baja is az.

A netbeans tényleg lazán kapcsolódik. Egyesek ezzel vélik megoldani a kód- és platform kompatibilitást. A felhasználók szivatása mellett...

 

> A 6502 alkalmazása egy ipari célokra is alkalmas gépben, 1981-ben abszolút nem indokolható.

Az IBM PC-t intelligens terminálnak szánták eredetileg. Abba egy 16-bites 6502-es is jó lett volna akár. Mit értesz ebben a kontextusban "ipari" alatt?

> Az IBM PC bevezette a Industry Standard Architecture (ISA) buszt.

> A fejlesztést az Intel IAPX architektúrára alapozták.

> Az iAPX nem csak CPU család, hanem mellette komolyabb követelményeknek megfelelő komplex és multiprocesszoros rendszer kialakítására alkalmas támogató csipeket is tartalmaz: Support chips - Ezeket egy-két kivétellel használtam is.

Ez csak akkor érv, ha a buszrendszert előbb konstruálták meg, mint ahogy CPU-t választottak, mert akkor természetesen adja magát, hogy olyan CPU-t raknak alá, amivel a legjobban együtt tud működni. Ha viszont előbb választottak CPU-t és aztán építették meg a buszrendszert, akkor ez nem érv, mert utólag bármilyen CPU-val tervezhetnek bármilyen buszrendszert.

> Mellékesen az x86-ot kihegyezték a "magasszintű nyelvek támogatására".

Hogy mi? Mintha egy intel brosúrát olvasna az ember... Mit jelent ez a mondat? Azt, hogy relokálható volt a stack? A két évvel korábbi 68000-esben is. Azt, hogy a 6502-essel szemben ennek volt tisztességes regiszterkészlete (1 db 8-bites adat + 2 db 8-bites index vs. 4 db 16-bites adat + 3 db 16-bites index)? A 68000-esnek messze több regisztere volt (8 db 32-bites adat és 7 db 32-bites index). Azt, hogy ez tudott 4 MHz felett is menni, azaz volt elég kakaó a magas szintű nyelvek assembly-hez képesti overheadjéhez? A 68000-es már eredetileg is 8 MHz-en ment, de '81-ben már volt 10 MHz-es változata is. Mit jelent ez a mondat?

> Nálad a labda, hogy bizonyítsd volt értelme 6502-ben gondolkozni, mert ilyen tulajdonságokkal rendelkezett!

Túldimenizonálod az IBM PC-t, mert messze nem az lett belőle, mint ami eredetileg a cél volt. Azonfelül én nem azt állítottam, hogy a 6502-vel jártak volna legjobban, hanem becitáltam a tervezőjének a visszaemlékezését, hogy az is megfontolásra került, többek között, mert - ahogy abból a levélből kiderült - az IBM-nél nem egyedül 8088 és 6502 volt az asztalon, lehetett volna 68000-es is. Márpedig a te állításod ugye az volt, hogy az IBM bölcsen döntött, amikor a '81-ben a 8088 mellett döntött, az Apple meg hülye, amiért - kezdő cégként - '75-ben az olcsóbb 6502 mellett (Apple I), '79-ben pedig - már befutott cégként - az erősebb 68000-es mellett (Lisa).

> - A 6502 és a 16 bites változata a sikeressége ellenére kihalt.

Aha, tényleg...
Ha a számítógépekben érted, hát ott eljárt felette az idő. Közel tíz évig hajtotta az Apple gépeit és elegendő pénzt termelt ahhoz, hogy nagyvállalat legyenek. So?

> - A 68k előremutató tulajdonságai ellenére kihalt.

Kb. mint a 6502...
Ami pedig a számítógépeket illeti, efelett is eljárt az idő, mint az összes CISC CPU felett. Amúgy, ha megnézed, a 80-as évek homecomputereinek többségében 68k volt. Ami az Apple-t illeti, az Apple Lisa megjelent 1983 januárjában, az Apple Macintosh Quadra 950 1995 gyártása befejeződött 1995 októberében. Tizenkét évig hajtotta az Apple gépeit. Miért is volt rossz választás?

> - A PowerPc motorola vonala kihalt.

És? Az IBM vonallal mi a baj? Backward-compatibility megvan, nem? És egyébként ezek a gépek is 12 évig vitték a vállukon az Apple cuccokat.

> - Most az Intel vonal is megszűnik.

Most már az is baj? Eddig az volt a baj, hogy miért nem x86. Egyébként, most függetlenül attól, hogy az ARM milyen, tekintve, hogy az Apple jelenlegi fő fejősteheneiben (okoseszközök) is az van, ez nem feltétlen hülyeség, hogy egységesítik az architektúrát az összes termékükben. Mondjuk nem tudom, hogy fogják a high-end gépekben kiváltani az x86-ot, AFAIK nincs olyan ARM, ami akár csak megközelítené a high-end x86-ok teljesítményét (fixme).

> Windows XP Embedded

> Windows Embedded Industry

> Ezek annyira halottak, hogy nem is olyan régen hivatalos MS drivert töltöttem le az XP SP2 rendszeremre. Ők ajánlották, hogy az embedded platformhoz kiadott driver alkalmas a rég nem támogatott rendszerhez - és így is volt. És nem, nem vagyok MS fan! ;)

> A hupon is láthattál néhány ipari windózos szerkezetet.

Uhh, ember, szarkazmus volt... Nem tűnt fel a következő két bekezdés, amit a válaszodban elfelejtettél citálni? Hogy olvasod te el a posztjaimat?

Ipari==iparban használatos. És használták is.

A 8086 '78-ban, a 8088 '79-ben, a PC '81-ben, a 65816 '83-ban jelent meg. Nem spekuláció, hanem zöldségeket beszélsz. ;)

Az ISA buszt konstruálták ugyan, miszerint elhelyezték az iAPX rendszer csipjeit a csatlakozó mellett.* ;)

A 68k-hoz a VME busz akkoriban született, amikor a PC, de csak később szabványosították. Meg egy kicsit más volt a célja.

Hogy olvashasd amit linkeltél:

Z80 ruled out as IBM would be seen as a follower, 64kaddress space
wasn't enough, Z8000 had a totally different architecture, so there wasn't
a good migration path.

68000 was carefully considered.  "AN excellent architecture chip, it has
proven to be a worthy competitor to the Intel-based architecture."
there wer four major concerns:

1) 16 bit data path would require more bus buffers, therefore a more
	expensive system board.

2) more memory chips for a minimum configuration.

3) while it had a performance advantage, the 68000 was not as memory
	efficient.

4) Companion and support chips not as well covered as Intel.o *
He also felt the the 68000 didn't have as good software and support tools,
and the similar register model allowed the porting of 8080 tools
to the 8086/8088.

"In summary the 8088 was selected because it allowed the lowest
cost implementation of an architecture that provided a migration path to a
larger address space and higher performance implementations.  Because
it was a unique choice relative to competitive system implementations, IBM
could be viewed as a leader, rather than a follower.  It had a feasible
software migration path that allowed access to the large base of existing
8080 software.  The 8088 was a comfortable solution for IBM.  Was it the
best processor architecture available at the time? Probably not, but history
seems to have been kind to the decision."

Innentől a 6502-re igaz, hogy

- 64kaddress space wasn't enough

- NOT it allowed the lowest cost implementation of an architecture that provided a migration path to a larger address space and higher performance implementations.

- Companion and support chips not as well covered as Intel.

És nem akarunk Apple kompatibilis gépeket gyártani, különösen azért, mert

- It had a feasible software migration path that allowed access to the large base of existing 8080 software.

És utáljuk az Applet-t. :-D

Láthatod, hogy ez egy bölcs döntés volt akkoriban.

Az apple is bölcsen döntött az olcsób processzor mellett, majd épített hozzá egy valag hardvert, egészen '93-ig. ;) Még bölcsebb döntés volt a 68k, hiszen ekkor már két architektúrát kellett egyszerre vinnie. ;) Ráadásul mindkét migration path egyszerre szűnt meg. A POWER irány az komolyan jó, persze az IBM helyett a végén a Motorolát választva szintén bölcsesség volt. Jól kerestek a fiúk, de úgy látszik ez kevés volt ahhoz, hogy processzoruk maradjon. És már megint!

Bocsika, tán szarkazmus az ipari vindóz...de nem vicces! :-D

A "processzor halott", az nem azt jelenti, hogy fölfelé álló lábbal szerelték be. ;) Manapság sok régi bevált processzot gyártanak modern technológiával, nagyobb sebességgel. Hol azért, mert van rá régi szoftver, hol meg raknak mellé flasht, ezt-azt-amazt, de asztali számítógépet már nem építenek belőle. Nekem is van Conrad teljesítménymérőm. Van benne egy 8035+flash+adc+DSP+LCD meghajtó - egy tokban. A 8035 helyén állhatna bármi.  A 65816+flash+64k RAM nyivánvalóan nem a Core i7 partnere.

> Ipari==iparban használatos. És használták is.

Ez így nem mond és jelent semmit. A 6502-őt is használták az iparban. Sőt a 4004-et is.

> A 8086 '78-ban, a 8088 '79-ben, a PC '81-ben, a 65816 '83-ban jelent meg. Nem spekuláció, hanem zöldségeket beszélsz. ;)

Rosszul emlékeztem a 65816 kiadási dátumára, ilyen van. A zöldségekkel nem vagyok egyedül. Ld. pl. lejjebb. Vagy mit is jelent, hogy "kihegyezték a magasszintű nyelvek támogatására"?

> Az ISA buszt konstruálták ugyan, miszerint elhelyezték az iAPX rendszer csipjeit a csatlakozó mellett.* ;)

> A 68k-hoz a VME busz akkoriban született, amikor a PC, de csak később szabványosították. Meg egy kicsit más volt a célja.

Tehát magyarán a buszrendszert igazították az architektúrához és nem az architektúrát választották a buszrendszerhez. Erről beszéltem.

> Innentől a 6502-re igaz, hogy

> - 64kaddress space wasn't enough

> - NOT it allowed the lowest cost implementation of an architecture that provided a migration path to a larger address space and higher performance implementations.

> - Companion and support chips not as well covered as Intel.

> És nem akarunk Apple kompatibilis gépeket gyártani, különösen azért, mert

> - It had a feasible software migration path that allowed access to the large base of existing 8080 software.

> És utáljuk az Applet-t. :-D

> Láthatod, hogy ez egy bölcs döntés volt akkoriban.

Tehát kellett a 6502-nél erősebb, a 68000-esnél olcsóbb CPU. Ha az IBM hivatkozik erőre, vagy olcsóságra, az bölcs, ha az Apple, akkor az hülye?

> Az apple is bölcsen döntött az olcsób processzor mellett, majd épített hozzá egy valag hardvert, egészen '93-ig. ;) Még bölcsebb döntés volt a 68k, hiszen ekkor már két architektúrát kellett egyszerre vinnie. ;)

És én beszélek zöldségeket? Mondd már meg: ha másodjára a 68k helyett x86-ot választanak, akkor talán nem lett volna két párhuazmos architektúrájuk? Akkor arra mondanád nagy gúnyosan, hogy bölcs döntés volt? Ami meg a "valag hardware"-t illeti, no comment. Ők egy géphez választották 6502-est az olcsóság miatt, az Apple I-hez, '75-ben. A többihez már a backward compatibility miatt, de akkor már nyugodtan gyárthattak akármit hozzá, mert tellett rá.

> A POWER irány az komolyan jó, persze az IBM helyett a végén a Motorolát választva szintén bölcsesség volt.

Az első POWER alapú Mac-ekben (6-7-8-9000-es sorozat) PowerPC 601-es, 603-as, majd 604-es CPU-k voltak. Utána jöttek a G3-as, G4-es, G5-ös gépek. Ebből a G5 IBM-only, a többi pedig közös projekt. Vagy miről van szó? Arról, hogy melyik cég gyártotta konkrétan a CPU-kat? Miért, talán a Motorola gyáraiban silányabb minőségben állították elő? Én nem hallottam róla, hogy sorban elfüstöltek volna anno ezek a CPU-k. Architektúrális különbség nem volt két 60x-es, 7xx-es, vagy 74xx-es CPU között.

> A "processzor halott", az nem azt jelenti, hogy fölfelé álló lábbal szerelték be. ;) Manapság sok régi bevált processzot gyártanak modern technológiával, nagyobb sebességgel. Hol azért, mert van rá régi szoftver, hol meg raknak mellé flasht, ezt-azt-amazt, de asztali számítógépet már nem építenek belőle. Nekem is van Conrad teljesítménymérőm. Van benne egy 8035+flash+adc+DSP+LCD meghajtó - egy tokban. A 8035 helyén állhatna bármi. A 65816+flash+64k RAM nyivánvalóan nem a Core i7 partnere.

Nem tudom feltűnt-e, de írtam, hogy a számítógépekben lejárt az idejük. Ettől még több, mint 10 évig szolgált mind a kettő. És jól, sok pénzt termelve. Nem tudom mi ez a görcsös erőlködés, hogy lehúzd a Motorolát meg az Apple-t.

Ez így nem mond és jelent semmit. A 6502-őt is használták az iparban. Sőt a 4004-et is.

Végképp nem mond semmit, mert én a PC-től beszéltem. ;)

Tehát magyarán a buszrendszert igazították az architektúrához és nem az architektúrát választották a buszrendszerhez. Erről beszéltem.

Nem. Egyszerűen tudomást sem veszel arról, amit írok, linkelek. De arról sem, amit linkeltél.

Egyszerűen az Intel iAPX rendszert választották. Abban ott volt a CPU, a migrációs path, az összes periféria és buszmeghajtó. Egyedül a video kártya készült "rendszeridegen" csippel, mert olyan nem volt.  De mindez oda van írva abba a levélbe is, amit linkeltél, csak nem érted.

Tehát kellett a 6502-nél erősebb, a 68000-esnél olcsóbb CPU. Ha az IBM hivatkozik erőre, vagy olcsóságra, az bölcs, ha az Apple, akkor az hülye?

Is. Az általad linkelt levélben le van írva, hogy (na, ez pont hiányzik) az első, bevezető gép legyen olcsó. DE! Ott a migrációs path 486-ig. Ahhoz semmit nem kell már csinálni, csak a buszokat szélesíteni. Az egészet lefedi az iAPX.

És én beszélek zöldségeket?

Aha, mint mindig. A 6502-t '75-ben választották, a 68k-t meg '83-ban. Értem én, backward compatibility, de az egy másik vonal volt. És egyszerre szűnt meg mindkettő, átfedés nélkül. Azt egy percig sem vitattam, hogy megtehették.

Begin Loop

Nem tudom feltűnt-e, de írtam, hogy a számítógépekben lejárt az idejük. Ettől még több, mint 10 évig szolgált mind a kettő. És jól, sok pénzt termelve. Nem tudom mi ez a görcsös erőlködés, hogy lehúzd a Motorolát meg az Apple-t.

Ez így néz ki:

Asszem nem ment át, hogy a backward compatibility itt a kulcskérdés; az x86-os CPU váltásoknál ez mindig megvolt, míg az Apple architektúraváltásainál nem.

Magyarázom miért rossz döntés.

Loop

Még egyszerűbb magyarázat (sokadszorra leírva):

A garázsban a fiúk választottak egy occsót. Aztán amióta pénzük is van, azóta ugrabugra, részedről meg nyafi, én meg a sátán.

Ha azt mondom nem is olyan nagy baj a backward compatibility hiánya, akkor az a baj.

Ha azt mondom nem időtálló szerkezetet választottak, akkor az a baj.

Ha azt mondom ez skizofrénia, akkor az a baj. ;)

Az első POWER alapú Mac-ekben...

Jaja, az IBM még utoljára köszörült nekik egy hattyúdalt, legalább a 64 bites átállas könnyen ment...aztán dobták.

Vagy mit is jelent, hogy "kihegyezték a magasszintű nyelvek támogatására"?

Íme az Intel marketing duma. Vagy mégsem?

> Végképp nem mond semmit, mert én a PC-től beszéltem. ;)

Ja. Csak azt nem fejted ki, hogy mégis mit értesz ipari PC használat alatt. Aztán csodálkozol, hogy "nem értem". Azt, hogy gyárakban használták vezérlésre? Commodore gépeket is használtak.

> Nem. Egyszerűen tudomást sem veszel arról, amit írok, linkelek. De arról sem, amit linkeltél.

> Egyszerűen az Intel iAPX rendszert választották. Abban ott volt a CPU, a migrációs path, az összes periféria és buszmeghajtó. Egyedül a video kártya készült "rendszeridegen" csippel, mert olyan nem volt. De mindez oda van írva abba a levélbe is, amit linkeltél, csak nem érted.

Pontosítsunk: össze-vissza beszéltél, én meg ezt nem értettem, hogy mire akartál kilyukadni. Egy az architektúraváltásról szóló egyszerű állítástól indultunk az elején, te meg beleöntöttél mindent, ami az eszedbe jutott, hogy "sarokba szoríthass", mert te nem kötekedni akarsz, ugyebár.

> Is. Az általad linkelt levélben le van írva, hogy (na, ez pont hiányzik) az első, bevezető gép legyen olcsó. DE! Ott a migrációs path 486-ig.

Migrációs path a 68k oldalon is volt. So? Ráadásul jobb, mint az x86 oldalon, hiszen az x86 visszafelé kompatibilis (folyamatosan toldozgatták bele az újabb részeket, miközben kerülgették a 8 és 16-bites elődök hagyatékát), míg a 68000-es előrefelé (az egész utasításkészlet full 32-bites volt a kezdetektől fogva, csak a CPU belül több lépésből oldotta meg).

> Aha, mint mindig. A 6502-t '75-ben választották, a 68k-t meg '83-ban.

Egyrészt a Lisa-t '78-ban kezdék el fejleszteni, nem '83-ban. '83 a kiadási dátum. A 68k-t valamikor '79-ben "tették be" a gépbe, tehát nem '83-ban választották a 68k-t, hanem bőven az IBM PC megjelenése előtt. De én beszélek zöldségeket, mint mindig.
Ügyesen elkerülted a kérdést a párhuzamos architektúrákkal kapcsolatban is, úgyhogy megkérdezem még egyszer: ha a Lisa-ba x86 kerül, akkor nem lett volna két párhuzamos architektúrájuk? Akkor mitől is lett volna jobb, ha akkor x86-ot választanak?

> Értem én, backward compatibility, de az egy másik vonal volt. És egyszerre szűnt meg mindkettő, átfedés nélkül. Azt egy percig sem vitattam, hogy megtehették.

Ezt most végképp nem értem mi a túróra írtad. Szerintem valamit baromira félreértettél. Összefoglalom: '75-ben az Apple I-hez a 6502-est választották, mert olcsó volt. Utána az Apple II sorozathoz és az Apple III-hoz már a backward compatibility miatt választották. Sikeres volt, ezért lehetett hozzá különféle hardware-eket gyártani, megtérült. A 68k-t '79-ben választották a Lisa-hoz, mert jó volt és valamerre tovább kellett lépni a 6502-esről. Felteszem megint a kérdést, hogy ha akkor a 8086-ost választják, akkor nem lett volna két párhuzamos architektúrájuk? Miért ne választhatták volna az előrefele gondolkozó, szoftveres oldalról 32-bites 68k-t a teljesen 16-bites 8086 helyett? Ha az x86-ot választják, akkor a 32-bit bevezetésekor írhatták volna át az összes assembly kódjukat és fordíthatták volna újra az összes Pascal kódot, hogy kihasználhassák a 32-bites utasításkészletet. Vagy leragadhattak volna 16-biten. Pont úgy, mint IBM PC-n. Gondolom nem kell emlékeztesselek rá, hogy PC-n még évekkel a 386 és 486, sőt a Pentium megjelenése után is, még a 90-es években is 16-bites módban mentek a szoftverek, miközben a világ már évek óta 32 vagy 64-bites volt, beleértve az x86-ot is. (Tudom, volt OS/2, meg mindenféle BSD, meg NT, meg még Linux is volt...csak a világ leragadt a 16-bites DOS-nál.)

> A garázsban a fiúk választottak egy occsót. Aztán amióta pénzük is van, azóta ugrabugra, részedről meg nyafi, én meg a sátán.

Sátánozott téged a nyavalya és nyafogott a nyavalya. Az viszont most már tiszta, hogy te végig csak kötekedni akartál.

> Ha azt mondom nem is olyan nagy baj a backward compatibility hiánya, akkor az a baj.

> Ha azt mondom nem időtálló szerkezetet választottak, akkor az a baj.

> Ha azt mondom ez skizofrénia, akkor az a baj. ;)

Pontosítsunk: az én eredeti állításom az volt, hogy az x86 vonalon egyszerűbb volt a dolog, mert csak modellt váltottak, nem architektúrát. Ennyi volt az állítás és nem több. Ettől még, ha az Apple 10-15 évig használ egy architektúrát, az még időtálló és megvan a backward compatibility is. Az eredeti állítás az architektúraváltás nehézségeiről szólt. Semmi skizofrénia nincs.

> Jaja, az IBM még utoljára köszörült nekik egy hattyúdalt, legalább a 64 bites átállas könnyen ment...aztán dobták.

Nem ez volt a kérdés. Mit értettél azalatt, hogy a Motorolát választották (pl. azt, hogy ők gyártották a CPU-t nekik?) és miért is volt ez baj?

> Íme az Intel marketing duma. Vagy mégsem?

Aha, tehát az utasításkészlet tartalmazott olyan utasításokat, amik megkönnyítették, hogy a magasszintű fordítók jó kódot fordítsanak rá. Nem, ez nem intel marketing duma. Viszont kurwára nem szól az intel mellett sem: megnézted te ezt a linket? Fel van sorolva 21 utasítás, amiből 3 x86-os (LOOPE, LOOPNE, LOOPNZ, LOOPZ => LOOP, JECXZ => JCXZ-nek.), 7 DEC VAX-os, 6 pedig 68000-es, tehát magyarán az az indok, hogy azért x86, mert ez fel van készítve a magas szintű nyelvekre, az kissé fals, mert a jelek szerint ezt nyugodtan el lehet mondani a 68000-esről is.

Ja. Csak azt nem fejted ki, hogy mégis mit értesz ipari PC használat alatt. Aztán csodálkozol, hogy "nem értem".

Tényleg csodálkozok.

A 6502 alkalmazása egy ipari célokra is alkalmas gépben, 1981-ben abszolút nem indokolható. Ezt csak akkor vélheted valamilyen elborult hitnek, ha nem értesz hozzá.

Tessék az indoklás:

Az IBM PC bevezette a Industry Standard Architecture (ISA) buszt.

...

Az IBM arra hajtott, hogy ipari szabvány legyen a PC. Tőlem használhatják a "Commodore gépeket" és az rpit is az iparban, de az ipari szabvány valami másról szól. Lehet, hogy Józsi a hobbiesztergáját C64 segítsígével vezérli, de ettől bizony nem lesz ipari. Ha egy tenderbe írják, hogy a szállított gépek feleljenek meg a ... és itt következik a szabványok és paraméterek felsorolása, akkor ennek úgy tudsz megfelelni, ha az adott szerkezet rendelkezik a megfelelő minősítésekkel.

Pontosítsunk: össze-vissza beszéltél, én meg ezt nem értettem, hogy mire akartál kilyukadni.

...

Migrációs path a 68k oldalon is volt.

Csak annyi mondtam, hogy a 6502 alkalmazása a PC-ben bullshit. Ez a PC nagymamájának a leveléből is kiderül, de ostoba módon a saját ismereteim alapján próbáltam bizonyítani. A 68k más tészta, mert ha A 68k-t valamikor '79-ben "tették be" a gépbe, és az IBM szerint nem felelt meg 3 évvel később, mert

68000 was carefully considered.  "AN excellent architecture chip, it has
proven to be a worthy competitor to the Intel-based architecture."
there wer four major concerns:

...
4) Companion and support chips not as well covered as Intel.o *

akkor a migration path csak egy pipa, de kevés. Ráadásul nekik 8080 kompatibilitás is kellett. Érdekes, hogy a Zilog sem látta ennek a szerepét. Eppen akkor egy semmivel sem kompatibilis 16 bites modelljük volt, és csak jóval később csinátak "16 bites Z80-at".

Akkor mitől is lett volna jobb, ha akkor x86-ot választanak?

...csak a világ leragadt a 16-bites DOS-nál.

Ezt akkor sem tudtam volna megmondani. Így utólag az biztos, hogy egy CPU túlélését biztosítja az azt alkalmazó gyártó nagysága és az ipari feladatokra alkalmassága. (Nem a CPU, hanem a rendszer!)

A DOS alatt pedig futott néhány kiváló program. Ugyanaz az adatmennyiség elfért a csak MB dimenzióval rendelkező diszkeken. ;) Aztán fejlődtünk és az 1GB méretű adatbázishoz legalább 16GB memória és néhány TB diszk kell. Ha leolvasom a villanyórát, ahhoz Win10 és a legújabb böngésző dukál. Pedig beírhatnám: elmű-bucko:123456+CR. Ha nem akarok ennyit írni, akkor lehetne menüből ugyanezt.

Na, ezt a marhaságot csak azért ítam ide, mert a 8086/8 tényleg csak egy belépő szintű szerkezet volt, Bill Gates szerint a 286 egy rémálom. A 386 meg gyenge a Windowshoz. Szóval jó volt nekik a DOS. ;)

Ha még egy nagy (és céljaiban jelenősen eltérő) gyártó választja az x86-ot, annak lehetett volna olyan következménye, hogy ma a Windows rendelkezne legalább egy versenytárssal. Néhány CPU gyártó kihal, vagy meg sem születik, de az x86 variánsokat gyártó cégek közül megmarad és felemelkedik egy-két elhalt vagy rossz útra tévedt gyártó. Na, ez színtiszta spekuláció, de a 386 korában igen komoly esély volt erre.

Helyette a 90-es évek "ipari" felhasználása pl. pénztárgép==PC AT. Ma meg ott tartunk, hogy az ATM levakarhatatlan alkotóeleme az XP. Láttam már LSI alkatrészekből épített pénztárgépet is. Már akkor is az AT helyett egy értelmes középút sokkal jobb eredményt hozott volna, akár egy 80189, bár az is túllzás. (stb., stb.) Szóval most nem itt tartanánk.

Tehát a mainstream kikerülése okozta a folyamatos arch váltást. Ezzel lehet vitatkozni, mégis azt mondom, figyelni kell milyen eszközöket használ az IBM!

Megnéztem a linket, pont azért raktam ezt oda, mert nem csak az x86 szerepelt. ;) Ezek csak utasítások, de ott volt a pascal hívási konveció támogatása a frame pointer (BP), ENTER, LEAVE, meg a rossebse emléxik rá, pedig assemblerben is használtam. Bár x86-ot ír, de a 8086-ban még csak a kezdet volt. Tehát a magasszitű nyelvek támogatása nem egy egyedi tulajdonság, csak egy pipa a fícsörök között. Látod, látod, ebbe is belekötöttél már kétszer is, még az utánanézés előtt. ;)

Mit értettél azalatt, hogy a Motorolát választották...

Mert Motorolát használtak a vége felé. Nem tudtam, hogy az utolsóban benne volt az IBM is. Itt van egy Apple gömböcöm, abban sem IBM CPU van.

> Az IBM arra hajtott, hogy ipari szabvány legyen a PC.

Aha. Tehát nem arról beszélünk, hogy a gép feleljen meg valamilyen adott ipari szabványoknak, hanem, hogy maga a gép legyen az ipari szabvány. (Ezt sem bírtad eddig érthetően elmondani, csak dobáltad az ipari felhasználás kitételt.) Úgy könnyű ipari szabványokra hivatkozva védeni valamit, ha direkt abból csinálták az ipari szabványt.

> Csak annyi mondtam, hogy a 6502 alkalmazása a PC-ben bullshit. Ez a PC nagymamájának a leveléből is kiderül, de ostoba módon a saját ismereteim alapján próbáltam bizonyítani.

A PC "nagymamájának" leveléből csak annyi derült ki, hogy elvetették, a te 6502-vel kapcsolatos spekulációid nem.

> akkor a migration path csak egy pipa, de kevés.

Hát, ha várnak egy évet, akkor lett volna 8-bites adatbuszú 68000-esük a 68008 személyében. :P De nyilván ezt nem tudhatták előre. A helypazarlás sem állja meg a helyét; az lehet, hogy a 68k-ban minden opcode 16-bites volt, viszont sokkal kevesebb utasításból lehetett megoldani ugyanazt, mint a 8086-on. A 4 évvel későbbi Amiga 1000-esben ugyanúgy 256 kB RAM volt és azon egy grafikus, multitaszkos OS futott. A chipek hiányát lentebb kifejtettem. Ez inkább három pipa a négyből, de ha lett volna még egy évük, akkor 4/4.

> Ráadásul nekik 8080 kompatibilitás is kellett.

Hát így könnyű megindokolni, hogy miért x86 legyen, csak csupa olyan feltételt kell szabni, aminek semmi más nem felelhet meg; illeszkedjen az intel iAPX-hez és legyen intel 8080 kompatibilis. Ezt nyilván nem fogja megugrani semmilyen egyéb architektúra, de az intel véletlenül pont ilyen CPU-t gyárt. Ja és lehessen rá könnyen portolni a CP/M-et is. Az ms-nek meg véletlenül pont van egy 8086-ra épülő CP/M klónja, az SCP-től vásárolt QDOS, azaz Quick (and) Dirty OS. Véletlenül nem említett két cég "győzte meg" az IBM vezetőséget arról, hogy mit is kéne belerakni a gépbe?

> Ezt akkor sem tudtam volna megmondani. Így utólag az biztos, hogy egy CPU túlélését biztosítja az azt alkalmazó gyártó nagysága és az ipari feladatokra alkalmassága. (Nem a CPU, hanem a rendszer!)

Magyarán a 68k választásának fikázása mögött semmilyen műszaki érved nem volt, hogy mitől volt az "bölcs" döntés. De a lényeg, hogy 68k sux, igaz?
Egyébként még katonai célokra is használták, volt bőven ahhoz is chip és lehetett illeszteni mindenféle rendszerhez, amit mi sem bizonyít jobban, minthogy a '80-as és korai '90-es évek 16 és 32-bites homecomputereinek, workstationjainak és konzoljainak többségét az hajtotta, mert lehetett rá rendszert építeni. A PC után egy évvel indult Sun sorozat első három gépét is az hajtotta, ahogy a három évvel később kieresztett HP 9000-esek első három sorozatát is. Ha UNIX workstationt is lehetett belőle építeni, akkor PC-t is lehetett volna...

> A DOS alatt pedig futott néhány kiváló program. Ugyanaz az adatmennyiség elfért a csak MB dimenzióval rendelkező diszkeken. ;) Aztán fejlődtünk és az 1GB méretű adatbázishoz legalább 16GB memória és néhány TB diszk kell. Ha leolvasom a villanyórát, ahhoz Win10 és a legújabb böngésző dukál. Pedig beírhatnám: elmű-bucko:123456+CR. Ha nem akarok ennyit írni, akkor lehetne menüből ugyanezt.

> Na, ezt a marhaságot csak azért ítam ide, mert a 8086/8 tényleg csak egy belépő szintű szerkezet volt, Bill Gates szerint a 286 egy rémálom. A 386 meg gyenge a Windowshoz. Szóval jó volt nekik a DOS. ;)

Hamis dilemma. Nem csak a 16-bites MS-DOS és a brutálbloat new-age ringyózok közt lehet választani. Az elmúlt 40 évben számos olyan hardware és szoftware környezet született, ami nem rekedt meg 16-biten és nem volt bloated sem. (Hogy mára a többségük kihalt, az nem a 32/64-bites rendszerek hibája, hanem a műszaki kérdésekben a döntés jogát szép lassan kisajátító "gazdasági" szektoré.) Az általad annyira rühellt Apple féle OS X Tiger is pl. egy remek rendszer volt, kívül-belül. (Hogy azóta mennyire lett elhízott vagy szar az OSX macOS, azt passzolom.)

> Ha még egy nagy (és céljaiban jelenősen eltérő) gyártó választja az x86-ot, annak lehetett volna olyan következménye, hogy ma a Windows rendelkezne legalább egy versenytárssal. Néhány CPU gyártó kihal, vagy meg sem születik, de az x86 variánsokat gyártó cégek közül megmarad és felemelkedik egy-két elhalt vagy rossz útra tévedt gyártó. Na, ez színtiszta spekuláció, de a 386 korában igen komoly esély volt erre.

Szerinted az összes konkurenciáját szisztematikusan megsemmisítő mikiszoft hagyta volna, hogy neki versenytársa legyen? Az Apple-t is csak azért hagyták életben (mert illúzióink ne legyenek: az Apple azért élte túl a '90-es évek második felét, mert az ms nem nyírta őket ki), hogy kikerüljék a monopolhelyzetet.

> Helyette a 90-es évek "ipari" felhasználása pl. pénztárgép==PC AT. Ma meg ott tartunk, hogy az ATM levakarhatatlan alkotóeleme az XP. Láttam már LSI alkatrészekből épített pénztárgépet is. Már akkor is az AT helyett egy értelmes középút sokkal jobb eredményt hozott volna, akár egy 80189, bár az is túllzás. (stb., stb.) Szóval most nem itt tartanánk.

Ide vezetett a wintel globalizmus.

> Tehát a mainstream kikerülése okozta a folyamatos arch váltást. Ezzel lehet vitatkozni, mégis azt mondom, figyelni kell milyen eszközöket használ az IBM!

Nem az IBM-mel volt ott a baj, hanem elsősorban a májkrémszofttal, meg az intellel, az ipar két fő hulladékgyárával; ezek nagyon jól egymásra találtak.

> Megnéztem a linket, pont azért raktam ezt oda, mert nem csak az x86 szerepelt. ;) Ezek csak utasítások, de ott volt a pascal hívási konveció támogatása a frame pointer (BP), ENTER, LEAVE, meg a rossebse emléxik rá, pedig assemblerben is használtam. Bár x86-ot ír, de a 8086-ban még csak a kezdet volt. Tehát a magasszitű nyelvek támogatása nem egy egyedi tulajdonság, csak egy pipa a fícsörök között. Látod, látod, ebbe is belekötöttél már kétszer is, még az utánanézés előtt. ;)

Az megvan, hogy az Apple szinte csak Pascalban (+ASM) dolgozott a 68000-esen? Szerinted akkor a 68000-es regiszter és utasításkészlete nem támogatta ugyanezeket a konvenciókat? De. Csak még jobban, mert nem egy dedikált pointere volt erre, hanem hét darab szabadon felhasználható generikus...

> Mert Motorolát használtak a vége felé. Nem tudtam, hogy az utolsóban benne volt az IBM is. Itt van egy Apple gömböcöm, abban sem IBM CPU van.

Magyarán a Motorola volt a beszállító. Azt mondjuk továbbra sem válaszoltad meg, hogy ez miért baj, amikor a tervezés a G5-ig közös volt, utána meg éppenhogy IBM-only. De a lényeg, hogy Motorola sux, igaz?

Aha. Tehát nem arról beszélünk, hogy a gép feleljen meg valamilyen adott ipari szabványoknak, hanem, hogy maga a gép legyen az ipari szabvány. (Ezt sem bírtad eddig érthetően elmondani, csak dobáltad az ipari felhasználás kitételt.) Úgy könnyű ipari szabványokra hivatkozva védeni valamit, ha direkt abból csinálták az ipari szabványt.

Nem is tudom, hogy van-e "ipari szabvány gép". De van olyan ami nem az, pl. az rpi. Ezt onnan tudjuk, hogy még a (műszaki) specifikációját sem lehet fellelni sehol. De kifaraghatsz egy világcsúcs gépet, ami megfelel minden szabványnak is, szart sem ér. Jön ravasz bucko és mindjárt kettőt venne belőle - annyi meg nincs. Ha kapsz egy feladatot, hogy készíts egy automatizált gyátósort sok cégtől származó műszerrel, amit a felügyelő számítógépre dugsz akkor sem mákbúkpró lesz a helyes választás. ;)

Bemész a boltba, és megveszed

- a műszereket, amelyeknek szabványos csatlakozó van a seggén, szabványos protokollal;

- sok pécét, mert bárhányat kapsz, és ha más gyártótól, az szempontunkból ugyanolyan;

- a szabványos csatlakozókhoz kábeleket és csatolókártyákat, amit be tudsz dugni a szabványos buszba. Ezeket a kártyákat tök más gyártók azért állították elő, mert a műszer is és a PC is szabványos csatlakozókkal és protokollal rendelkezik.

Bár az IBM egy eccerű terminált akart csak gyártani, de elég rosszul sikerült nekik. :-D

Nem ilyen jó pálda, de van a szomszéd szobában egy POWER4+ gépem. Ha jól emléxem, vehettem volna bele 4db telefonkártyát, trönk kártyát és DSP-t is, no meg rendelhettem volna 48V-os tápokkal. Aztán berakom egy telefonközponba, mint 480 vonalas bővítést, hangbemondással.

Ha egy ilyen feladatra pályázok, akkor előírják, hogy milyen szabványoknak kell megfelelni. Ez a  szerkezet pedig mindannak megfelel, és van hozzá tanúsítványa is.

A PC "nagymamájának" leveléből csak annyi derült ki, hogy elvetették, a te 6502-vel kapcsolatos spekulációid nem.

Olvasd el mégegyszer, hátha felfogod, hogy csak odaírták, de ilyen kritériumok mellett szóba se jöhetett. Ezek nem az én spekulációim, hanem az övék:

- 64kaddress space wasn't enough

- NOT it allowed the lowest cost implementation of an architecture that provided a migration path to a larger address space and higher performance implementations.

- Companion and support chips not as well covered as Intel.

- It had a feasible software migration path that allowed access to the large base of existing 8080 software.

Tehát veszek egy POWER gépet, és utálom a MS-t, ezért kijelentem, hogy Windowst márpedig nem fogok futtatni rajta! Ez nem azt jelenti, hogy elvetettem a vindózt, hanem tréfáltam. Bár szó szerint ugyan elvetettem...mindegy, hagyjuk. ;)

Szerinted az összes konkurenciáját szisztematikusan megsemmisítő mikiszoft hagyta volna, hogy neki versenytársa legyen? Az Apple-t is csak azért hagyták életben (mert illúzióink ne legyenek: az Apple azért élte túl a '90-es évek második felét, mert az ms nem nyírta őket ki), hogy kikerüljék a monopolhelyzetet.

A kisebbek meg még kevesebb tőkével rendelkeztek.

Talán az ATM buli mögött is más rejlik, mint amit gondolunk. Lásd:

Az elmúlt 40 évben számos olyan hardware és szoftware környezet született, ami nem rekedt meg 16-biten és nem volt bloated sem. (Hogy mára a többségük kihalt, az nem a 32/64-bites rendszerek hibája, hanem a műszaki kérdésekben a döntés jogát szép lassan kisajátító "gazdasági" szektoré.)

Sőt.

De a lényeg, hogy 68k sux, igaz?
Egyébként még katonai célokra is használták, volt bőven ahhoz is chip és lehetett illeszteni mindenféle rendszerhez, amit mi sem bizonyít jobban, minthogy a '80-as és korai '90-es évek 16 és 32-bites homecomputereinek, workstationjainak és konzoljainak többségét az hajtotta, mert lehetett rá rendszert építeni.

A 68k-t nagyon szerették a junixosok, meg a homecomputerek. A műszaki érv pedig két bunkócsapás, amit már mind ideraktam, csak nem szeretnéd elfogadni.

Az első az, amit az IBM állít az akkor már sok éves processzorról.

- Companion and support chips not as well covered as Intel.

Hardver fejlesztőmérök vagyok, én is tudok bármit bármihez illeszteni és rendszert építeni. Hidd el, hogy sokkal olcsóbb és megbízhatóbb, ha megveszed boltban csipeket hozzá és nem én legózok. Persze ez akkor volt, most meg 2-3 csipszet (nem csipszet, hanem chip-set:)) lefedi a CPU-val együtt az egész gépet.

A második az, hogy az ISA busz ipari szabvány lett a PC-vel (nem névlegesen, hanem tényleg szabvány), míg a VME busz csak 1987-ben. Ha megnézed az "ipari szabványról" készült magyarázatomat a hozzászólás elején, akkor kiderül: az IBM ekkorra már behozhatatlan előnyre tett szert. Ugyan a Motorola még a PowerPc gépeiben is nyomta a VME buszt, de már minek.

És itt már megint linkelhetem a kedvenc RISC processzoromat, amit nyilvánvalóan a katonai alkalmazása miatt még ma is gyártanak, változatlanul: 8X300 Ezért nem igazán hat meg a katonai alkalmazás.

Magyarán a Motorola volt a beszállító. ... De a lényeg, hogy Motorola sux, igaz?

A Motorola volt a fejlesztő (is) és gyártó (is). Az IBM meg ma is fejleszi és gyártja a POWER-t, csak nem asztali gépekhez.

Toward the close of the decade, manufacturing issues began plaguing the AIM alliance in much the same way they did Motorola, which consistently pushed back deployments of new processors for Apple and other vendors: first from Motorola in the 1990s with the PowerPC 7xx and 74xx processors, and IBM with the 64-bit PowerPC 970 processor in 2003. In 2004, Motorola exited the chip manufacturing business by spinning off its semiconductor business as an independent company called Freescale Semiconductor.

Forrás

Az Apple szempontjából a végén Motorola==double sux.  Zöld?

Korábban biztosan az MS dumálta meg, hogy ne szállítson több 68040-et. ;)

> De kifaraghatsz egy világcsúcs gépet, ami megfelel minden szabványnak is, szart sem ér. Jön ravasz bucko és mindjárt kettőt venne belőle - annyi meg nincs.

Nem is tudtam, hogy a 68k, Alpha, POWER, Sparc és egyéb gépekből csak prototípus készült, hogy kettő sincs belőle. Tőled mindig annyit lehet tanulni.

> Ha kapsz egy feladatot, hogy készíts egy automatizált gyátósort sok cégtől származó műszerrel, amit a felügyelő számítógépre dugsz akkor sem mákbúkpró lesz a helyes választás. ;)

De nem is az IBM PC. A NASA sem azt választotta, pedig ott aztán volt műszer ezerszámra. :P

He continued "We then looked at the PC, but the hardware architecture was really as bad then as it is now.

> Bár az IBM egy eccerű terminált akart csak gyártani, de elég rosszul sikerült nekik. :-D

Ne legyünk igazságtalanok, ők nem ezt akarták.

> Olvasd el mégegyszer, hátha felfogod, hogy csak odaírták, de ilyen kritériumok mellett szóba se jöhetett. Ezek nem az én spekulációim, hanem az övék:

De én nem ezekről beszéltem, hanem arról, amiket te írtál le először erre reakcióként, hogy "nyilvánvalóan" készült már a 286, meg a 386, meg iAPX; na ezek közül konkrétan egyiket sem említik meg.

> Tehát veszek egy POWER gépet, és utálom a MS-t, ezért kijelentem, hogy Windowst márpedig nem fogok futtatni rajta! Ez nem azt jelenti, hogy elvetettem a vindózt, hanem tréfáltam. Bár szó szerint ugyan elvetettem...mindegy, hagyjuk. ;)

De már "nyilvánvalóan" készül az i11 és i13, csak még nem tudunk róla, de majd húsz év múlva! (Vajon ezek is akkora atomhulladékok lesznek, mint a korábbi Core széria?)

> A kisebbek meg még kevesebb tőkével rendelkeztek.

Ez hol ellenérv arra, hogy a mikroszoft nem nyírta volna őket ki? Ez épp megkönnyítette volna a dolgukat.

> A 68k-t nagyon szerették a junixosok, meg a homecomputerek.

Meg úgy mindenki. A 80-as évek 16/32-bites gépeinek elsöprő többségében valamilyen 68k pörgött.

> A műszaki érv pedig két bunkócsapás, amit már mind ideraktam, csak nem szeretnéd elfogadni.

Mondtam rá ellenérveket, csak letojtad, nem reagáltál rá.

> Az első az, amit az IBM állít az akkor már sok éves processzorról.

Bocs, ez max. arra műszaki érv, hogy az IBM miért pakolt '81-ben x86-ot a PC-be, nem arra, hogy a 68k szar. Ez utóbbira még egy darabot nem írtál, mert amiket eddig írtál, az vagy mind arról szólt, hogy a PC-be miért nem az került, vagy üres trollkodás volt.

> Hardver fejlesztőmérök vagyok, én is tudok bármit bármihez illeszteni és rendszert építeni. Hidd el, hogy sokkal olcsóbb és megbízhatóbb, ha megveszed boltban csipeket hozzá és nem én legózok. Persze ez akkor volt, most meg 2-3 csipszet (nem csipszet, hanem chip-set:)) lefedi a CPU-val együtt az egész gépet.

De voltak chipek a 68k-hoz is. Az Atari ST-t pl. 100%-ig a piacon kapható IC-kből építették meg, mert lehetett őket olcsón és nagy tömegben kapni.

> A második az, hogy az ISA busz ipari szabvány lett a PC-vel (nem névlegesen, hanem tényleg szabvány), míg a VME busz csak 1987-ben. Ha megnézed az "ipari szabványról" készült magyarázatomat a hozzászólás elején, akkor kiderül: az IBM ekkorra már behozhatatlan előnyre tett szert. Ugyan a Motorola még a PowerPc gépeiben is nyomta a VME buszt, de már minek.

Ehhez képest hányféle gépet is építettek vele? Olyanokat, amik jócskán felülmúlták a PC-t tudásban. Összeszámolni is nehéz. Valahogy mégis elvoltak a VME busz nélkül.

> És itt már megint linkelhetem a kedvenc RISC processzoromat, amit nyilvánvalóan a katonai alkalmazása miatt még ma is gyártanak, változatlanul: 8X300 Ezért nem igazán hat meg a katonai alkalmazás.

Nem az a lényeg, hogy meg kell hatódni, hanem az, hogy a hadsereg nem szokott szart használni. Tehát, ha megtette nekik a 68k, akkor nem lehetett akkora szar.

> A Motorola volt a fejlesztő (is) és gyártó (is). Az IBM meg ma is fejleszi és gyártja a POWER-t, csak nem asztali gépekhez.

Még mindig közös fejlesztés volt. Egyébként lehet asztali gépet is kapni POWER CPU-val. Ott vannak a Raptor gépek, meg a rengeteg NextGen Amiga gép.

> Az Apple szempontjából a végén Motorola==double sux. Zöld?

Piros. Linkelek pár forrást én is:

https://en.wikipedia.org/wiki/PowerPC_600#PowerPC_601

In order to help the effort to rapidly incorporate the 88110 bus architecture to the 601 for the benefit of the alliance and its customers, Motorola management provided not only the 88110 bus architecture specifications, but also a handful of 88110 bus-literate designers to help with the 60x bus logic implementation and verification. Given the Apple system design team was familiar with the I/O bus structure from Motorola's 88110 and this I/O bus implementation was well defined and documented, the 601 team adopted the bus technology to improve time to market. The bus was renamed the 60x bus once implemented on the 601.[2] These Motorola (and a small number of Apple) designers joined over 120 IBM designers in creating the 601.

Tehát közös projekt volt a POWER megalkotása és a 601-es.

https://en.wikipedia.org/wiki/PowerPC_600#PowerPC_603

The PowerPC 603 had 1.6 million transistors and was fabricated by IBM and Motorola in a 0.5 μm CMOS process with four levels of interconnect.

Tehát a 603-as is közös alkotás volt.

https://en.wikipedia.org/wiki/PowerPC_600#PowerPC_604

The PowerPC 604 contains 3.6 million transistors and was fabricated by IBM and Motorola with a 0.5 μm CMOS process with four levels of interconnect.

Tehát az összes Apple-ben használatos 60x-es PPC közös Motorola/IBM projekt volt.

https://en.wikipedia.org/wiki/PowerPC_7xx

The PowerPC 7xx is a family of third generation 32-bit PowerPC microprocessors designed and manufactured by IBM and Motorola (now Freescale Semiconductor).

Tehát a G3-as is közös cucc volt.

https://en.wikipedia.org/wiki/PowerPC_G4

Much of the 7400 design was done by Motorola in close co-operation with Apple and IBM. IBM, the third member of the AIM alliance, designed the chip together with Motorola in its Somerset design center, but chose not to manufacture it, because it did not see the need back then for the Vector Processing Unit.

Tehát a G4-es is közös cucc volt, csak itt az IBM nem dobta be magát annyira.

https://en.wikipedia.org/wiki/PowerPC_970

The 970 family was created through a collaboration between IBM and Apple.

Tehát a G5-ben már nem is volt benne a Motorola.

> Korábban biztosan az MS dumálta meg, hogy ne szállítson több 68040-et. ;)

Hú, de vicces bírsz te lenni néha. A 68040 az egyetlen tagja a 68k sorozatnak, aminek melegedési gyíkja van, a többire meg kb. semmilyen hűtés nem kellett, ha nem húztad őket túl, de még akkor is elég sokáig kihúzták passzív hűtéssel. Ehhez képest az intelnél kb. majd' mindegyik CPU-t rommá kellett hűteni, még alapjáraton is. A 060-asokat pl. ha akarták, akár 133 MHz-ig is fel lehetett húzni (nyilván ott már kellett a hűtés), a Pentiumnál meg majd 3 évet kellett várni ugyanehhez, amíg kijött a P54CS. Arról nem is beszélve, hogy pont a fentebb említett "memory efficiency" itt visszaütött keményen, mert a páratlan byte szélességű opkódok miatt állandóan az unaligned accessel szívott a CPU, ami az instruction cacheinget is borította, ami rengeteget lassított, továbbá még mindig csökevényes volt a regiszter és utasításkészlete a 68k-hoz képest, azaz jóval több utasításból volt csak meg a feladat, így végeredményben még azonos órajelen is több kakaót lehetett kisajtolni a 060-asból, hiába hajtott végre valamivel több utasítást a P5 azonos órajelen. És akkor még ott voltak a P5 bugjai, az FDIV bug, a CMPXCHG8B bug, meg a többi. De a 68k sux.

Nem is tudtam, hogy a 68k, Alpha, POWER, Sparc és egyéb gépekből csak prototípus készült, hogy kettő sincs belőle. Tőled mindig annyit lehet tanulni.

Hát még ha figyelnél is, akkor annál is többet. Pedig ez csak egy egyszerű példa volt, komplett gondolatsor. Az 1981-87 tartományban nem volt POWER. A válaszom:

...a...

Tévedsz. ;)

De nem is az IBM PC. A NASA sem azt választotta, pedig ott aztán volt műszer ezerszámra. :P

A NASA álláspontja igen tudományos volt:

Gary Jones: "If its not a PC, NASA gives us a lot of grief when we try to buy anything to go with the Amigas. They want us to buy PCs and run Windows 95 and NT. We keep trying to tell them its not fast enough so they tell us to buy DEC Alphas. We tell them its too expensive. They don't like the Amiga; it doesn't cost enough."

Egy darab műszer sem volt, hanem egy telemetria buszt kellett illeszteni speciális hardverrel. Nyilvánvalóan ipari szabvány lehetett, ezért kellett egyedi csatolót tervezni a bevált ipari szabvány Zorro II és Zorro III buszokhoz. Természetesen szabványos Amiga compúterekhez, amihez a teljes dokumentációt is megszerezték, mert az Aplle nem adta a sajátját. A NASA ebben az esetben két fickóból állt, akik olcsó amatőr eszközökkel oldották meg a mission critical feladatot. Ezen kívül állóképeket is feliratoztak. Ez a példád tökéletesen illeszkedik ahhoz a mondásomhoz, amit akkoriban találtam ki: Egy ügyes mérnök, vagy egy még ügyesebb gyerek C64-et alkalmazva bármit meg tud csinálni. És lehet mercivel is trágyát szállítani. De nem szoktak, mert nem arra való.

Roppant fejlett hardver lehetett! Ugyanakkor a Videoton jóval korábban, már 1986-ban jócskán lekörözte a NASA-t. :-D Igaz, hogy becsempészett embargós UNIX futott a gépen. Biztosan az amcsiknak még nem volt. :-D (Ne zavarjon meg a "grafikus munkaállomás"! A Videoton gyártotta, a finnek felszerelték szoftverrel, az oroszok meg esetleg egészen másra használták. :) Csodálatos tranzakciók voltak még a hidegháború végén is!)

De én nem ezekről beszéltem, hanem arról, amiket te írtál le először erre reakcióként, hogy "nyilvánvalóan" készült már a 286, meg a 386, meg iAPX; na ezek közül konkrétan egyiket sem említik meg.

Dehogynem: migration path. (Ezt most idézem sokadszor.) A PC '81 augusztusban, a 286 '82 februárban jelent meg. A PC és AT közötti különbség lényege a 8->16 bit IO és memória busz és +1 DMA vezérlő. Használtam XT-ben 16 bites kártyát is. Ilyenkor az AT buszhoz tartozó nyúlvány a levegőben lógott. Egy 8088->8086 továbbfejlesztésnek semmi ételme sem lett volna.

Persze mondhatod, hogy ez csak spekuláció, vagy nem is gondoltak rá, csak az Intel alájuk rakta a lehetőséget.

iAPX - No, ezt tényleg nem említik, csak ebből épitették a PC-t. :-D Van interneted? Tudod, linkeltem, meg a support csipeket is linkeltem. Keress egy PC kapcsolást!

> A kisebbek meg még kevesebb tőkével rendelkeztek.

Ez hol ellenérv arra, hogy a mikroszoft nem nyírta volna őket ki? Ez épp megkönnyítette volna a dolgukat.

Ez ott ellenérv, ahol még az egyetértéssel is vitatkozol. Nagyon figyelsz!

Eközben görcsösen bizonygatod, hogy a 68k nem szar. Pedig semmi ilyesmit nem állítottam, nem számoltam meg a regisztereit és nem mértem meg a hőmérsékletét - egyik verziójának sem.

Ahhoz, hogy felfogd miről is karattyolok, néhány alapfogalmat meg kellene ismerned. (iAPX, ISA busz, VME busz, Multibus, support csip, stb.)

Ezek azért fontos információk, mert a számítógép nem csak CPU-ból áll. A játékgépekhez képest fontos, hogy milyen busz rendszer van egy gépben, mennyire szabványos, és hány gyártó hány termékét lehet beledugni.  

Meg úgy mindenki. A 80-as évek 16/32-bites gépeinek elsöprő többségében valamilyen 68k pörgött.

A 80-as években a legnagyobb példányszában eladott processzora meg 4 bites volt. Ez is igaz, meg ezzel sem mondtam semmit. ;)

Szerintem is a 68k volt a világ legjobb processzora. Mindenki szerette. És?

Ez a magyarázat az Apple sorozatos arch váltására? Vagy inkább olyan jelenség, mint amikor a gyárból félkészen kikerült orosz tankok lenyomták a világcsúcs német tankokat. Úgy néz ki, hogy a célnak megfelelő magasabb színvonalú méröki teljesítmény nem a németek oldalán volt. ;) Felesleges bizonygatnod a német tankok műszaki tökéletességét, mert ők vesztettek.

Hurrá, PowerPc tanfolyam! Ez is biztosan magyarázat az Apple sorozatos arch váltására. Az meg végképp magyarázza, hogy a Pentium ezeknél rosszabb volt. (Tudod, én meg POWER fan vagyok, pontleszarom.)

Az, hogy a Motorola kétszer is kilépett az Apple vonalból, az meg nem magyarázat. Érdekes.

> A NASA álláspontja igen tudományos volt:

Ez nem az álláspont, nem az indoklás. Az az volt, amit én becitáltam. Ez csak egy részlet abból, hogy ott is kellett a bürokráciával szívni. Nyilván a vezetésben sokat akartak kaszálni és azt a drágább berendezéseken lehetett inkább. Ebből pont az derül ki, hogy a PC, mint architektúra nem csak rosszabb, de drágább is volt.

> Egy darab műszer sem volt, hanem egy telemetria buszt kellett illeszteni speciális hardverrel.

Tudtommal a telemetria távolsági mérést jelent. Ahhoz nem kell műszer?

> Nyilvánvalóan ipari szabvány lehetett, ezért kellett egyedi csatolót tervezni a bevált ipari szabvány Zorro II és Zorro III buszokhoz. Természetesen szabványos Amiga compúterekhez, amihez a teljes dokumentációt is megszerezték, mert az Aplle nem adta a sajátját. A NASA ebben az esetben két fickóból állt, akik olcsó amatőr eszközökkel oldották meg a mission critical feladatot.

Hát, ha neked egy 32-bites, CPU-clock-aszinkron, több busmastert is támogató busz olcsó és amatőr, míg egy 16-bites, CPU-clock-függő, single busmasteres az nem, akkor én végképp nem már tudok neked már mit mondani. Úgy nehéz, ha neked van egy jokerkártyád, amire rá van írva, hogy "deezazipariszabvány". Ráadásul az ISA-t utólag specifikálták le, amikor már kváziszabvány volt, előtte csak simán PC/AT busz volt, csak a 80-as évek végén lett belőle "Industry Standard Architecture", amikor az EISA megjelent. Ebből a cikkből is látszik, hogy mennyire volt ez "standard", amikor a nagy cégek is azon marakodtak, hogy ki döntse el, mi a standard... Az IBM például a saját - egyébként tényleg messze jobb - MCA-ját akarta. De nem jött be, mert addigra a PC/AT busz már kváziszabvány volt, ahogy az intel és a mikiszoft szerette volna, hogy legyen. Mondom, úgy könnyű az "ipari szabványon" lovagolni, ha direkt abból csináltak ipari szabványt. Éljen a wintel! (Az IBM eme két cégtől való folyamatos függetlenedési kísérletei elég szépen mutatják, hogy mennyire meg lettek vezetve '81-ben.)

> Eközben görcsösen bizonygatod, hogy a 68k nem szar. Pedig semmi ilyesmit nem állítottam

Nem, csak utalgattál rá, folyamatosan.

> nem számoltam meg a regisztereit és nem mértem meg a hőmérsékletét - egyik verziójának sem.

Akkor mi volt az a 68040-es megjegyzés?

> Ahhoz, hogy felfogd miről is karattyolok, néhány alapfogalmat meg kellene ismerned. (iAPX, ISA busz, VME busz, Multibus, support csip, stb.)

> Ezek azért fontos információk, mert a számítógép nem csak CPU-ból áll. A játékgépekhez képest fontos, hogy milyen busz rendszer van egy gépben, mennyire szabványos, és hány gyártó hány termékét lehet beledugni.

Ld. harmadik bekezdés. Az, meg, hogy hány féle terméket lehet beledugni; tessék egy töredékes lista, az Amigákba dugható cuccokról. Sajnos Atarissal, Apple-össel, vagy NeXT-essel nem szolgálhatok, mert nem ismerem őket. Bőven volt a 68k gépekhez is mindenféle addon, csak valamiért ez úgy működik, hogy ha tetszőleges 68k-s gépet kell összemérni a PC-vel, akkor egy mindennel kitömött 386-ossal/486-ossal szokták összeereszteni, az évekkel korábbi stock 68k-s masinát, a fairplay jegyében. A PC esetében megengedett az addonok belepakolása, a többi gépnél meg csalás, mert csak. Úgy könnyű azt mondani, hogy a PC jobb, mint a Mac, vagy az Amiga, ha egy GUS-sal, AdLibbel, Trident 8900-zal és HDD-vel megspékelt 33 MHz-es 386-ost mérünk egy stock Macintosh II-höz, vagy egy stock Amiga 2000-hez. A Mac-et sajnos nem tudom, mit lehetett ráaggatni a NuBusra, viszont pl. Amiga 2000-be van 020-tól egészen 060-ig, sőt POWER-ig mindenféle CPU bővítő, 8-12-16-21-24-bites videókártyák, hálókártyák, hangkártyák, sőt, különféle busz-illesztők, amikkel ISA, PCI és egyéb buszos, teljesen más gépekbe való kártyákat is bele lehetett plugni. Mert a Zorro busz olcsó és amatőr. A Mac, a NeXT, az Amiga, meg az Atari meg játékgép.

> Vagy inkább olyan jelenség, mint amikor a gyárból félkészen kikerült orosz tankok lenyomták a világcsúcs német tankokat. Úgy néz ki, hogy a célnak megfelelő magasabb színvonalú méröki teljesítmény nem a németek oldalán volt. ;)

Vagy, csak az oroszok sokan voltak, mint az oroszok, a németeknek meg két fronton kellett harcolni. Hát kb. a PC is így működött. Beleraktak egy hiperprimitív (x86), de a korhoz képest magas órajelű CPU-t és mindent erőből oldottak meg.

> Felesleges bizonygatnod a német tankok műszaki tökéletességét, mert ők vesztettek.

Csakhogy a műszaki fölény nem ekvivalens a győzelemmel. Számtalan példa van a műszaki történelemben, amikor egy sokkal gagyibb konstrukció nyert, "egyéb okok" miatt. Így aztán nem igazán érdekel, hogy ki "nyert", meg ki "vesztett", az érdekel, hogy mit tudott.

> Hurrá, PowerPc tanfolyam! Ez is biztosan magyarázat az Apple sorozatos arch váltására.

Ez arra magyarázat, hogy tök feleslegesen ekézed ebben a kérdésben a Motorolát.

> Tudod, én meg POWER fan vagyok

Ne aggódj, én is.

> Az, hogy a Motorola kétszer is kilépett az Apple vonalból, az meg nem magyarázat.

És még én nem figyelek. Bőven azelőtt, hogy ez a vita elkezdődött volna, már leírtam, hogy a POWER-ről váltásnak vagy kapzsiság, vagy ostobaság volt az oka, az Apple részéről. Csakhogy te nem ezen vonalon kötekedtél idáig, hanem azon, hogy miért a 68k-t választották, hogy ez micsoda "bölcsesség" volt, mert így két architektúrát kellett vinniük párhuzamosan. Mert, ha x86-ot választottak volna, akkor nem lett volna ugyanúgy kettő.

... Ebből pont az derül ki, hogy a PC, mint architektúra nem csak rosszabb, de drágább is volt.

Viszont $36-ért bótban kapható hozzá hardver dokumentáció. Így aztán nem kell haverkodni a gyártónál. ;)

Most olyan kedvem van, hogy vizsgáljuk meg ezt a "PC szar" tényállást - minél kevesebb félmondatra szétvágva!

> Egy darab műszer sem volt, hanem egy telemetria buszt kellett illeszteni speciális hardverrel.

Tudtommal a telemetria távolsági mérést jelent. Ahhoz nem kell műszer?

Ugye nem gondolod komolyan, hogy az Amigákra rá volt dugva az űrben sétafikáló összes űrhajó összes műszere egy-egy DRÓTON? Az értő olvasás az olyan, hogy a mondatot, gondolatsort elolvasod, értelmezed. Ehhez ugye el kell olvasnod azt, amit linkeltél, nem pedig egyes szavakon tévesen lovagolni legalább tíz hozzászóláson keresztül!

(Ehhez képest a gyártósoros példámban mondjuk 20-30 komplex műszer (pl. rengeteg csatornás logikai analizátor, oszcilloszkóp, robot, stb.) csatlakozik akár több féle (pl. IEEExxxx) buszon, hálózaton, egyéb direkt interfészeken a központi géphez.)

Tehát a NASA példában

- egy telemetria buszt kellett illeszteni,

- adatot feldolgozni (miközben a feldolgozott adatokat ide-oda másolgatták),

- vezérelni és az eredményt visszaküldeni,

- kijelezni,

- ÉS állóképeket feliratozni kellett -

legalábbis ez volt a cikkben. A feldolgozáshoz meg nagy számitási kapacitás kellett.

Néhány körülményt figyelembe véve, ez a rendszer erősen a 80-as évek vége felé készülhetett. Ha a telemetria busz valamilyen szabványt követett, akkor egy pécéhez csak meg kellett volna venni a hozzá való kártyát. Ha nem, akkor is könnyedén lehet bármit illeszteni. Igaz, a PC busza nem egy táltos, de rengeteg űrhajó esetén sem hiszem, hogy hatalmas sávszélességet igényelt volna. De ez csak egy gondolat.

Impozáns az Amiga bővítések listája - ami a vizsgált időszakon jócskán túlmutat. Gondolom, a lista minden elemére jutott legalább 10-15 PC vagy PC kártya gyártó, függetlenül attól, hogy melyk busz hány óra hány perckor lett (kvázi) szabványos. ;) Ezt különösen bizonyítja az idekeveredett EISA és MCA, hiszen pont arról szól, hogy a "másodgyártók" lenyomták az IBM-et.

Nem reagáltál a Videoton VT32-re! Ha egyszer nálunk létezett UNIX alapú gép 68k processzorral, akkor az amerikai piacon nem volt hasonló, vagy esetleg sokkal nagyobb? (Tudod, ezek csak költői kérdések. ;) Nem kell válaszolni!)

Ha jól megnézed, a képernyőkön csupa alfanumerikus adat van. Ehhez pont elég a soros terminál 9600 baud sebességgel, kevesebbet is fogyaszt. ;) Az összes feladatot meg lehet oldani néhány UNIX szerverrel. Na jó, a feliratozáshoz lehetne bármi más.

Persze elég a játékhoz két játékos szakember, akiknek van otthon játékgépük, amihez képest egy PC drága. Ezek után - hacsak a NASA nem adott olyan fizetéseket, mint a Kádár rendszer nálunk - belefoghatnak egy "sokkal olcsóbb" fejlesztésbe. Nincs ezzel semmi gond. Voltam én is fiatal, tudom milyen az, amikor egy hobbiprojektből munka lesz. Tudom, az Amiga egy mainframe, és csak nekem tűnik fel, hogy a csapat kószáló űrhajót néhány buherált személyi számítógép vezérli. Kérlek, ehhez olvasd el mégegyszer a C64-es gondolatomat! Meg az "ipari szabvány gép" körüli magyarázatot...

Nem tagadom, ha én úgy járok, hogy a Windows 95 a másik alternatíva, akkor inkább abakuszból bicskával szuperszámítógépet faragok ki. :-D

 

Akkor mi volt az a 68040-es megjegyzés?

A linkelt cikkben akkor dobta először a Motorola az Apple-t.

Vagy, csak az oroszok sokan voltak, mint az oroszok, a németeknek meg két fronton kellett harcolni. Hát kb. a PC is így működött. Beleraktak egy hiperprimitív (x86), de a korhoz képest magas órajelű CPU-t és mindent erőből oldottak meg.

...

Csakhogy a műszaki fölény nem ekvivalens a győzelemmel. Számtalan példa van a műszaki történelemben, amikor egy sokkal gagyibb konstrukció nyert, "egyéb okok" miatt. Így aztán nem igazán érdekel, hogy ki "nyert", meg ki "vesztett", az érdekel, hogy mit tudott.

A németek meg képtelenek voltak elegendő mennyiségű szupertankot gyártani. Ahogy az IBM sem elegendő PC-t. Ezekkel a kiegészítéseiddel tökéletes a tank-PC analógia. A szupertankok sokat tudtak, meg az olyan ágyúk is, aminek a szállításához több nagy vonatszerelvény kellett. Van egy néhány olyan eset is, amikor a "mit tudott" a vereség oka.

És még én nem figyelek. Bőven azelőtt, hogy ez a vita elkezdődött volna, már leírtam, hogy a POWER-ről váltásnak vagy kapzsiság, vagy ostobaság volt az oka, az Apple részéről. Csakhogy te nem ezen vonalon kötekedtél idáig, hanem azon, hogy miért a 68k-t választották, hogy ez micsoda "bölcsesség" volt, mert így két architektúrát kellett vinniük párhuzamosan. Mert, ha x86-ot választottak volna, akkor nem lett volna ugyanúgy kettő.

Az elsőről csak az jutott eszembe, hogy az Intel bemutatta a 20GHz-es technológiát. Aztán az IBM néhány nap múlva a 200GHz-eset. :-D

A másodikkal meg csak az a problémám, hogy nyafiztál a többszöri arch váltáson. Aztán utánanéztem és szó sem volt váltásról, csak egy új, párhuzamos vonalról. Tehát a 6502 ment még vagy egy évtizedig párhuzamosan a 68k-val. Ezt elintézted elegánsan a "megtehették" megállapítással. Pedig ez egy jó marketing döntés, mert megtartották a régi fanokat, miközben egy új tábort is alapítottak. Tehát nem is a két vonal a baj, hanem egyszer csak úgy jártak, hogy mindkét arch kicsúszott alóluk. Nem vagyok üzletember, én a NEC V20-at választottam volna. ;)

> Ugye nem gondolod komolyan, hogy az Amigákra rá volt dugva az űrben sétafikáló összes űrhajó összes műszere egy-egy DRÓTON?

Hol mondtam én ilyet? Kezdődik a szavak számba adása? Én annyit mondtam, hogy ők sem a PC-t választották, pedig megtehették volna, sőt a vezetőség még inkább azt szorgalmazta volna, a mérnökök ódzkodtak tőle.

> Az értő olvasás az olyan, hogy a mondatot, gondolatsort elolvasod, értelmezed. Ehhez ugye el kell olvasnod azt, amit linkeltél, nem pedig egyes szavakon tévesen lovagolni legalább tíz hozzászóláson keresztül!

Elég egyértelmű volt, hogy mit írnak, csak neked nem tetszik.

> Ha a telemetria busz valamilyen szabványt követett, akkor egy pécéhez csak meg kellett volna venni a hozzá való kártyát. Ha nem, akkor is könnyedén lehet bármit illeszteni. Igaz, a PC busza nem egy táltos, de rengeteg űrhajó esetén sem hiszem, hogy hatalmas sávszélességet igényelt volna. De ez csak egy gondolat.

Nincs kizárva, de az ellenkezője sem. A NASA-nál olyan buszt építhettek, amilyet akartak. Ki tudja, lehet VME buszosak voltak ezek a cuccok is, van precedens a '80-as évekből arra, hogy a NASA VME buszt használ. Az is ipari szabvány. A NASA meg azt választotta. Tehát valószínűleg nem kellett sokat szarozni az illesztéssel.

> Impozáns az Amiga bővítések listája - ami a vizsgált időszakon jócskán túlmutat. Gondolom, a lista minden elemére jutott legalább 10-15 PC vagy PC kártya gyártó, függetlenül attól, hogy melyk busz hány óra hány perckor lett (kvázi) szabványos. ;)

Irreleváns, egyfelől mert, mint mondtam, a lista töredékes, messze nincs rajta minden, másodfelől meg mert nem azon volt a hangsúly, hogy melyik gépbe volt több kártya, hanem arról, hogy a 68k-s gépek nem játékgépek, amiket nem, vagy csak vérhugyozva lehet bővíteni, ahogy azt te állítod.

> Ezt különösen bizonyítja az idekeveredett EISA és MCA, hiszen pont arról szól, hogy a "másodgyártók" lenyomták az IBM-et.

Nesze nekünk ipari szabvány. Ez nem szabvány volt (max. az IBM-en belül, nem az iparban), hanem közmegegyezés, utólag lett szabvány. A jelek szerint a VME még előbb vált ipari szabvánnyá, mint az AT-busz.

> Nem reagáltál a Videoton VT32-re! Ha egyszer nálunk létezett UNIX alapú gép 68k processzorral, akkor az amerikai piacon nem volt hasonló, vagy esetleg sokkal nagyobb? (Tudod, ezek csak költői kérdések. ;) Nem kell válaszolni!)

Mit kellett volna arra reagálni? Amúgy most linkeltem be egy VME buszos perifériaverzérlőt '86-ból, amit a NASA készített és használt, vagyis a NASA-nak bőven volt 68k-s cucca, az érintett időszakból, meg még előttéről is. És még csak nem is Amigás, hiszen ők a 2000-esekkel kezdték, az meg '87-es. Csak simán 68k. Meg VME busz. Ki érti ezt.
Egyébként te se reagálsz mindenre.

> Ha jól megnézed, a képernyőkön csupa alfanumerikus adat van. Ehhez pont elég a soros terminál 9600 baud sebességgel, kevesebbet is fogyaszt. ;) Az összes feladatot meg lehet oldani néhány UNIX szerverrel. Na jó, a feliratozáshoz lehetne bármi más.

Bármivel meg lehet oldani. A lényeg, hogy a NASA (az Amigától függetlenül, már előtte) a 68k-t választotta és nem pedig az "ipari szabvány" PC-t.

> Persze elég a játékhoz két játékos szakember, akiknek van otthon játékgépük, amihez képest egy PC drága. Ezek után - hacsak a NASA nem adott olyan fizetéseket, mint a Kádár rendszer nálunk - belefoghatnak egy "sokkal olcsóbb" fejlesztésbe. Nincs ezzel semmi gond. Voltam én is fiatal, tudom milyen az, amikor egy hobbiprojektből munka lesz. Tudom, az Amiga egy mainframe, és csak nekem tűnik fel, hogy a csapat kószáló űrhajót néhány buherált személyi számítógép vezérli. Kérlek, ehhez olvasd el mégegyszer a C64-es gondolatomat! Meg az "ipari szabvány gép" körüli magyarázatot...

Megint kezded a belemagyarázást, a szavaknak a számba adogatását... Ki mondta, hogy az Amiga az mainframe? Az Amiga egy gépcsalád. Az A2000-es, amit ők használtak, az egy workstation. Pont, mint a PC. Azt sem állította senki sem, hogy az űrhajókat irányította az Amiga. Ezt megint te magyarázod bele abba, amit mondok. Az meg a te téveszméd, hogy a 68k-s gépek játékgépek. Ennyi erővel a PC is az. Ha bővített gépeket nézünk, akkor semmivel sem tudott többet a 68k-s masináknál, ha meg stock gépeket, akkor meg még kevesebbet is. De ipariszabványipariszabványipariszabvány. Erre írtam fent két bekezdést is, de egyikre sem reagáltál.

> A németek meg képtelenek voltak elegendő mennyiségű szupertankot gyártani.

Erről beszéltem. PC = quantity over quality. Mind erőben, mind gyártásban. Így mehetett ez anno a tankoknál is, csak az én olvasatomban nem a német tank a PC, hanem az orosz.

> Ahogy az IBM sem elegendő PC-t. Ezekkel a kiegészítéseiddel tökéletes a tank-PC analógia.

De gyártottak helyette mások, hiszen PC-ből volt bőven. Azok, akik később megakadályozták, hogy az IBM a limitált (kvázi) "ipari szabvány" helyett bevezessen egy messze jobb buszrendszert és inkább ipari szabványt csináltak abból, amit addig használtak. Ez volt kb. '87 körül? (Legalábbis a fentebb linkelt cikk alapján.) Hát a VME is akkor lett kb. ipari szabvány. Tehát magyarán a korábbi állításod, hogy azért a PC, mert annak a busza volt az ipari szabvány, a VME-t meg csak később szabványosították, ezért nem áll meg, mert az ISA is csak kb. '87-es, ahogy a VME is. Igen, létezni létezett előtte PC/AT busz néven, de létezni a VME is létezett előtte, csak az sem volt szabvány. Az ISA is csak akkor lett szabvány, amikor a PC gyártók megpuccsolták az IBM-et; direkt azért csináltak belőle szabványt, hogy ne tudja visszaszerezni az IBM a platformja felett a kontrollt. Jó választás volt... Bölcs választás. Amúgy, hogy mennyire volt előtte szabványosítva az egész, az kiderül például ebből a doksiból, ami leírja, hogy az IBM 7552-es ipari számítógép kb. egy 286-os AT-nak felel meg, legalábbis elméletben kompatibilis vele. Aztán kiderült, hogy nem. Nesze nekünk ipari szabvány, az ipari gépben.

> A másodikkal meg csak az a problémám, hogy nyafiztál a többszöri arch váltáson. Aztán utánanéztem és szó sem volt váltásról, csak egy új, párhuzamos vonalról. Tehát a 6502 ment még vagy egy évtizedig párhuzamosan a 68k-val. Ezt elintézted elegánsan a "megtehették" megállapítással.

Az eredeti állítás az volt, hogy messze nem ugyanaz az egy architektúrán belüli váltogatás, mint az architektúrák váltogatása. Hogy most a 6502-t nem vezették ki azonnal, amikor bejött a 68k, az ebből a szempontból mindegy, a fővonalban architektúrát váltottak; a 68k mindenképpen új architektúra volt.

> Pedig ez egy jó marketing döntés, mert megtartották a régi fanokat, miközben egy új tábort is alapítottak.

Érdekes. Eddig oltogattad őket, hogy "még bölcsebb döntés volt a 68k, hiszen ekkor már két architektúrát kellett egyszerre vinnie". Most már magadnak mondasz ellent, töbszörösen is. Nem csak azért, mert először azt állítottad, hogy baromság ("bölcs döntés") volt a két architektúrával párhuzamosan kínlódni, hanem azért is, mert explicite kihangsúlyoztad, hogy ezen belül is a 68k volt a baromság ("bölcs döntés"), holott tök mindegy, mit emelnek be második architektúrának, mindenképpen két architektúrájuk lesz.

> Tehát nem is a két vonal a baj, hanem egyszer csak úgy jártak, hogy mindkét arch kicsúszott alóluk.

Már mert, hogy miért is?
A 6502-es már a 80-as évek közepén is egy 10 éves, elavult CPU volt, lehetett tudni, hogy nem fog örökké tartani, de ennek ellenére még vagy 10 évig bőséges bevételt termelt. Miért csúszott volna ki alóluk? Ők engedték el a 6502-es vonalat '93-ban, mert már rég túllépett rajta a világ. Semmi kicsúszás.
A 68k-nál meg volt egy (hangsúlyozom: egy) release (68040), aminek hűtési bajai voltak (pontosítsunk: igazából nem voltak, csak - a többi 68k-tól eltérően - alapjáraton is kellett neki aktív hűtés, amire a 68k-s világban ferde szemmel néztek, lévén se előtte, se utána nem volt rá példa), ez még nem kicsúszás, pláne úgy nem, hogy utána megérkezett a nagyságrendekkel gyorsabb 060, amire megint nem kellett semmilyen hűtés. (Ha nem húztad túl.) Hol kicsúszás ez? Szó sincs róla, érkezett a POWER és ők úgy gondolták, hogy jó ötlet váltani rá. Igazuk volt.

> Nem vagyok üzletember, én a NEC V20-at választottam volna. ;)

Ők meg nem azt választották. Mérnökként sem és üzletemberként sem. És nekik milliárdjaik vannak, amiket a nem ipari szabványos játékgépeikkel kerestek, neked meg nincsenek. És még csak azt sem lehet mondani, hogy azért tudták megcsinálni, mert gazdag köcsögök lettek volna, mint pl. a microsoftnál (bilgéc apja sztárügyvéd, anyja bankelnök, no comment); Woz szüleinek garázsából indultak, egy szál faszban 6502-ben.

Szerintem a 2019 szeptermberben erkezett macOS 10.15 Catalinanal a szinten fajdalmas x68_64 --> x64 only ugrast azert csinaltak meg, meg a fajlrendszer jogosultsag ujragondolasat is, hogy megnezzek, hanyan hajlandoak par "access file" es recompile jellegu huzast meglepni azok kozul, akik utoljara 5+ eve nyultak alkalmazasuk Mac-es portjahoz.

Ez valos kepet ad arrol, hogy hanyan lesznek hajlandoak ARM-ra ujraforditani, esetleg itt-ott megpatchelgetni az osregi OS X-re keszult forrasaikat + "ha mar tavaly is hozza kellett nyulni", akkor konnyebb lesz.

Szuper.

Tököm ki volt már, hogy mindíg várnom kellett az Indiaiakra, ha bitlocker recovery kulcsra volt szükségem egy júzer gépéhez. :D

>Furthermore, Ermolov says that this bug can also be exploited via "local access" -- by malware on a device, and not necessarily by having physical access to a system. The malware will need to have OS-level (root privileges) or BIOS-level code execution access, but this type of malware has been seen before and is likely not a hurdle for determined and skilled attackers that are smart enough to know to target the CSME.

Elég nagy szívás ez a probléma, de azért csak emiatt a laptopom nem fogom cserélni, viszonylag kicsi az extra támadási felület a szemszögemből. Ha valaki root jogot szerez, vagy hozzáfér a BIOS-hoz, akkor eddig is már úgyis mindegy volt.

Az meg már az elmúlt évek botrányai után is eldőlt, hogy igen komoly ok kell ahhoz, hogy én még egyszer Inteles vackot vegyek. Desktopon, ahol volt rendes mozgásterem át is álltam Ryzenre. Jó kérdés persze, hogy az ő hasonló security megoldásuk mennyire megbízható... Ha tippelnem kéne, ugyanúgy semennyire, elhibázott az egész koncepció.

>Ermolov points out that the bug can also be used by users on their own computers for bypassing DRM protections and access copyright-protected content.

Nem vagyok teljesen tisztában ezeknek a DRM-eknek a működésével, ilyenkor mondjuk a Netflix meg tudná azt csinálni, hogy ok, akkor innentől a <10gen Intelesek nem tudják nézni a videóikat?

Sem a konzumereknek, sem a vállalatoknak, sem az adatközpontokba szánt processzorok nem biztonságosak. Ahogy eddig se voltak. Ha pedig azok voltak, az operációs rendszer nem volt az.

A megoldás rendkívül egyszerű (lenne, ha a józan ész is szóhoz jutna): megfelelő, dedikált biztonsági eszközökkel védeni a hálózatot és az infrastruktúrát. Ezekben a biztonsági eszközökben pedig nem használunk olyan processzorokat, melyek már a tervezőasztalon is architekturális selejtek voltak.

Persze, egyszerűbb kidobni az összes gépet és újat venni helyette, végül is ezzel csak gazdaságilag biztatjuk az Intelt, hogy nyugodtan gyártson defektes processzorokat évtizedekig, mi úgyis megvesszük.

Meg kellett volna várni az estét (2020-03-06 19:59) és akkor ez lehetett volna a nyitó:

Javíthatatlan sebezhetőséget találtak az Intel számos platformjában

"A Positive Technologies szerint az Intel tudatában van annak, hogy maga a sebezhetőség javíthatatlan, ... A legjobb védekezés azonban mindenképpen egy új, fenti sebezhetőségben nem érintett hardver vásárlása."

 

(Az idézés funkció miért csak nyitó idézőjelet tesz? És miért felsővel kezd [majd félbemarad]? Nem lehetne magyar alsó nyitó + végén felső záró?)

Nem click-bait-esen így lett volna: "Bizonyára számos javítási lehetőség van az Intel CPU-inak legújabb hibájára, bár egyelőre maga az Intel sem tud egyről sem"

Az eröltetett fejlesztési kényszer bizony ide vezet az élet minden területén.

Tehát ismételten új processzorok vásároltatása, a régiek kidobatása jön majd, a felhasználók gépeinek belassításával. Ha a kiberbiztonsággal vagdalkozó riogatókampány nem lenne elég, akkor majd jól belassítunk mindenkit, hogy előbb-utóbb felidegelje magát rajta, hogy minden egyre lassabb és vegyen egy új gépet (miközben csak a mitigationt kellett volna letiltania).

A legnagyobb örömmel fogom hozzáadni a Spectre/Meltdown javítások mellőzése című topikhoz a javítások kikapcsolását, ha bekerültek az OS-ekbe. Júzerék pedig szíveskednek nem kártevőket futtatgatni a gépeiken, megfelelő tartalomblokkolót használni (uBlock Origin) és nem az operációs rendszertől elvárni a biztonság illúzióját, hátradőlve-kényelmeskedve.

Amúgy is, túl van hypeolva ez a processzorsebezhetőség-téma, aminek az egyetlen oka az, hogy a desktop szegmensre évről évre rájön a hanyatlás a csúnya-gonosz hájbazer-növendékek miatt, akik nem hajlandóak 3 évente új gépet venni, a régit pedig kidobni (tehát végső soron több elektronikai hulladékot szabadítani a távol-keleti szeméttelepekre, mert úgyis odaviszik a felesleget). Ez részben annak is köszönhető, hogy az Intel sem az innovációhoz, sem a marketinghez nem ért. Semmi mást nem csinál évek óta, mint eladja az újrafeltalált kereket, amiben 1 Wattal alacsonyabb a TDP, vagy ha azt már nem tudják hova leszorítani mindenféle trükközéssel, akkor a flops/Watt.

Az okostelefonok tele vannak sokkal nagyobb lyukakkal, gyakorlatilag 100% sikerrel feltörik mindet bármelyik 24 órás hackerversenyen. Egy általgfelhasználó okostelefonjára orrba-szájba feltelepített adware-ek, malware-ek egy nap alatt több érzékeny információt lopnak le a telefonról, többször kompromittálják potenciálisan a felhasználót, mint amennyi biztonsági incidenst eddig összesen köszönhetünk közvetlebül a Spectre/Meltdown-nak, meg az összes többi hasonlónak. Mégis a processzorokról megy a médiahisztéria és a desktop gépek lecserélésére szólítanak fel a bértollnokok az IT magazinok hasábjain. Az okostelefonoknál pedig csak akkor indul hiszti, amikor már régesrég nem támogatott a szoftvere (értsd: jó lenne most már egy kis profit multiéknak, vegyél újat, különben jönnek a hekkerek és feltörnek, miért te lennél a kivétel), de mivel birkáék előbb törik pókhálósra a kijelzőjét az első fél évben, majd szembesülnek a korrupt, túlárazó szervizhálózattal, meg amúgy is az újabb okosteló menőbb™, vígan bégetve állnak be a birkasorba, és vesznek újat, 2 éven belül. Nincs velük nagy gond, a gyártó szemsögéből. Szép szorgosan szórják a pénzüket és termelik az elektronikai hulladékot. Ellenben, a desktop-osokkal, akik merészelnek 5-8 évig is használni egy számítógépet.

Az az FBI töketlenkedésének köszönhető, illetve annak, hogy az Apple marketingesei és PR-részlege keményen meglovagolták a lehetőséget, hogy elhitessék birkáékkal, ők bizony biztonságosak™ és nem engednek állam bácsi nyomásának sem. Szép mártírkodás, de ha belegondolok abba, hogy adót se nagyon akarnak fizetni, pedig bőven lenne miből, akkor inkább tenyérbemászó.

Az FBI ott baszta el, hogy egyből az Apple-höz fordult, és nem valamelyik biztonsági céghez, mint például a később alkalmazott Cellebrite, akik kisujjból feltörték volna nekik már az elején, mire multiék kettőt pislantanak.