Az AMD bemutatta a négymagos Opteron 8000 korai változatát

Címkék

Az AMD bepillantást engedett a "Barcelona" kódnéven futó processzorának fejlesztésébe azzal, hogy bemutatta a négymagos Opteron 8000 chip egy korai labor változatát. A processzor valamikor a 2007-es év második negyedében kerül majd a piacra. A célközönség a high-end munkaállomás és szerver felhasználók, akiknek 70%-kal több adatbázis, vagy 40%-kal több lebegőpontos teljesítmény kell, mint amit a jelenlegi kétmagos "Rev F" Opteron-ok nyújtanak. Bővebben itt.

Hozzászólások

Amikor bemutatnak egy x tulajdonságú cuccost, akkor tuti, hogy a x*2 tulajdonságú már stabil.

Előre kell dolgozniuk, ha nem akarnak leégni. Moore törvénye egy mesterségesen fenntartott törvény, aminek semmi köze a technológia fejlődéséhez, sokkal inkább a megtérülés miatt tartják fenn. Egyébként mindig csodálkoztam, hogy ilyen komplex feladatot relatíve kevés hibával oldanak meg. A szoftverfejlesztő cégek nagy részének volna mit tanulnia tőlük. Azt hiszem a "software engineer" nem sok szoftverfejlesztőre illik.

Ha már Moore-t említetted, lassan be fog szűkülni a fizikai korlátok miatt a fejleszthetőség. Azt sem tartom kizártnak, hogy jelenleg már a 2015-16-ra (véglegesített fejlesztések) tesztpéldányai is készen vannak. (pl. 0,02 mikronos "huzalozás", stb. :D )

lehet, hogy a tranzisztorok szama 18 havonta megduplazodik, de a szamitogep valos sebessege jo ha 3 evente teszi ugyanezt, legalabis ha egy pi szamolast veszunk figyelembe, ami egyben elarulja, hogy cca, hanyszor gyorsabban fog lefordulni a kedvenc opensource valamink.

talan meg a p1-es idokben volt erezheto, hogy a sebesseg is duplazodik, azota en ezt nem erzem.

Ha már itt ez a téma, közkinccsé teszem egy újabb h*lye elméletem 8-).
Szerintem az AMD és az Intel megegyeztek, hogy hogyan dobják piacra a processzoraikat. Ha egyszerre kihoznák a nagy újdonságaikat, akkor konkurrálnának egymással. Ehelyett felváltva hozzák ki a "szuper" új fejlesztéseket, így mindig lesz egy nagyszerű "lehetőség", amit nehéz lesz visszautasítania annak akinek van rá pénze. Itt van most pl. a core2 duo. Jönnek a tesztek, hogy ennyivel, meg anyival jobb, mint az AMD kurrens termékei, keveset fogyaszt stb. Ha az AMD-nek ott van a polcon a köv. proci (már pedig sztem ott van), miért nem adja ki az Intellel egy időben? Késlelteti a kibocsájtást, ezáltal n hónap múlva mesterségesen keresletet gerjeszt. Akkor majd a hardveres oldalak tele lesznek a tesztekkel, amikben bebizonyítják, hogy az új AMD proci teljes 20%-al gyorsabb, mint a core2 duo, keveset fogyaszt, stb. Nagyon mellélőttem?

Ha mar igy belejottem az irogatasban: ez szerintem is igy van, ahogy irtad. de hat nem mindennel igy van ez az eletben?
A fenti jelenseget mindenhol megtalalni, csak picit maskepp kepzodik le.

pl: amikor webtarhelyet veszel, miert kerul tobbe az 50MB-os es 200MB-os csomag? nyilvan a fajlagos koltsege a kettonek nagyon kozel van egymashoz. (pl. a serverhosting ceg fix 100Mbites belfoldi vonalat ad es neked mindegy, hogy uresen all vagy full kakaon megy, stb)

vagy miert lehet megvenni egy autot lebutitott komputerrel (a hardver 1 az 1be ugyanaz) es egy masik valtozatot +50 loerovel dragabban?

nagyn erdekes lesz szerintem megfigyelni, hogy mi fog tortenni az LCD kijelzok piacan. Amikor eloszor megjelentek, akkor tok nagy hype volt, premium termek, stb. Mostmar a 19"-osak is boven 100ezer alatt kaphatoak. Vajon mi lesz a kovetkezo orulet kijelzo piacon? igazabol az LCD kijelzokkel nagy gond nincsen, a szineken/kontraszton meglehet reszelgetni valamit es azt dragabban eladni. de igazabol kellene valami uj funkcio, amit szepen lassan (dragan) be lehet csopogtetni a piacra. mi lesz ez? talan a 3D megjelenites? vagy valami virtualis valosagot letrehozo eszkoz?

Ok, nyilván a legtöbb esetben a cél a megtérülés, de az árképzésnek rengeteg formája van, és ezeknek csak az egyike a (ön)költség alapú árképzés.
Van még jópár más módszer is, aminek eredményeképp akár azt is be lehet lőni hogy pl. egy 120 forint önköltségű cucc optimális eladási ára 1500Ft.

Csak arra akartam utalni, hogy a legtöbb esetben nem az "X-be kerül, Y% az árrésünk, akkor X*100/Y Ft-ba fog kerülni a cucc" módszerrel számítanak árat.

Igen, szerintem mellélőttél.
Szerintem az AMD és az Intel megegyeztek, hogy hogyan dobják piacra a processzoraikat.
Szerintem meg a piacon vannak már eléggé bejáratott szokások, hogy az évnek mely részén érdemes piacra dobni valami újat. Ez jellemzően nem a nyári szabadságolások idejére esik, mert akkor a kutya nem foglalkozik vele. Iskolakezdés, karácsony, ezek a bűvös időpontok, amikor a hype-nak nagy szerepe van.

Ha egyszerre kihoznák a nagy újdonságaikat, akkor konkurrálnának egymással. Ehelyett felváltva hozzák ki a "szuper" új fejlesztéseket, így mindig lesz egy nagyszerű "lehetőség", amit nehéz lesz visszautasítania annak akinek van rá pénze.
Konkurálnak is. Lásd "kvázi" 4 magos kentsfield és a szintén "kvázi" 4 magos AMD 4x4. Egyik sem szép megoldás, túlfeszítik a jelenlegi technológiai lehetőségeket, teljesítményben egyik sem hoz akkora pluszt, amennyivel többe kerül. Iszonyat drágák, valójában nagyon kevesen vannak, akik megveszik. Ezek alapvetően kirakatba szánt termékek, amiknek a célja, hogy hírverést csináljanak a cég körül.

Ha az AMD-nek ott van a polcon a köv. proci (már pedig sztem ott van), miért nem adja ki az Intellel egy időben? Késlelteti a kibocsájtást, ezáltal n hónap múlva mesterségesen keresletet gerjeszt.
Ez így hülyeség. Definiálni kell azt, hogy mit jelent az, hogy a "polcon van". Egy x86 kategóriájú processzor kifejlesztése éveket vesz igénybe. Ez azt jelenti, hogy rettenetesen sok idő telik el attól a pillanattól, hogy felmérik a piaci igényeket és ez alapján alapvető tervezési döntéseket hoznak, addig, hogy a termék nagy tömegben a boltokba kerül. Mitől bukott be a P4? Attól, hogy amikor eldöntötték, hogy alapvetően milyen legyen az valamikor a P2-es korszak vége fele volt, akkor pedig egyértelműen az órajel adta el a processzort a piacon. Tehát legyen magas az órajele, a valós teljesítmény másodlagos, azt kevesebben nézik. Mire komolyabban elkezdett felfutni a piacon a P4-es vonal addigra már ez nem volt igaz, addigra már a valós teljesítmény és a kis áramfelvétel lett a piacon a sláger.
Az AMD következő processzora a polcon van az azt jelenti, hogy a kész tervek a polcon vannak. Komoly meló még abból az első működő prototípusokig eljutni. Nyugodj meg, lesz róla szó a sajtóban, mikor sikerül, ez az ún. "tape out". És akkor még mindig komoly fejlesztőmunka jön, mert egyrészt ki kell tesztelni, hogy tényleg jó-e, nincs-e valami ordas hiba benne (szokott lenni), másrészt ki kell dolgozni, hogy hogy lehet nagy sorozatban gyártani. És ha ez megvan akkor jönnek az első nagy sorozatú próbagyártások, amiknek általában rendkívül nagy a selejtszázaléka (alacsony a kihozatal, az ún. Yield). Finomhangolni kell a gyártási lépéseket, amiknek igen sok paramétere van (exponálás, maratási idők, különféle vegyszerek koncentrációja, hőmérsékletek). És ha ezután a kihozatal már eléggé feljavult (80-90% számít jónak) akkor dobják piacra a terméket. Néha persze a verseny miatt ezt az utolsó lépést kihagyják, na ilyenből szoktak nagy bukták lenni, amikor bejelentték a processzort, elvileg kapható is, csak valahogy sehol sincs készlet belőle, mert nem tudják a rendeléseknek megfelelő számban előállítani.
---
Keep on trolling

En nem latok nagy meglepetest. Egy proci tervezese teljesen mas feladat mint barmilyen szoftver. Processzor eseten nagyon jol definialt input es output van, amit vagy eleve formalis modszerekkel lehet eloallitani vagy legalabbis elkeszules utan automatikusan lehet tesztelni. (sot leginkabb a ketto egyutt mukodik, kozben folyamatosan valtoztatva a homersekletet, feszultseget, kulonbozo tesztelesi pontokon figyelve bizonyos ertekeket, stb.)

Szoftvernel is meg lehetne csinalni a fentieket, azonban akkora penz kellene hozza, amit senki se fog kifizetni ha nem muszaj. Ki venne meg egy formalisan ellenorzott PHP licenszt mondjuk 100000 dollarert? (akkor szerintem meg nem is mondtam sokat, tekintve hogy mekkora kodbazisrol van szo). Most el lehet kepzelni, hogy milyen ara lenne, ha minden a gepen tartott szoftver ilyen minosegu lenne..

De szepen meg lehet nezni, ahogy jovunk fel hardver szintrol, egyre tobb hiba lesz (procihoz nem fognak kiadni frissitest, de azert BIOS-hoz, chipset driverhez mar igen. Operacios rendszer-nel mar termeszetes, hogy 2 naponta kell javitast letolteni.) Akkor mit varjunk olyan szoftvertol ami a mainstream x86 procik vagy eppen a windows forgalmanak a toredeket adja?

A NASA fele marsjarot ugy kuldtek el a mars fele, hogy TUDTAK, hogy van benne szoftver hiba! Aztan tavolrol javitottak radion keresztul, amikor rajottek, hogy pontosan mi okozza a hibat.

amit vagy eleve formalis modszerekkel lehet eloallitani vagy legalabbis elkeszules utan automatikusan lehet tesztelni.
Húú te még nem csináltál ilyesmit ugye?!
Állapottér robbanással találkoztál-e már? Asszem az ilyen automatikus tesztelés pár 100000 évig eltartana ha teljes kimerítő alapossággal csinálnák. Gyakorlatban nagyon nagy kompromisszumokat kell kötni a tesztelés alaposságában, ami sajnos azzal jár, hogy vannak hibák, amik átcsúsznak a szitán.

Egy proci tervezese teljesen mas feladat mint barmilyen szoftver.
Aha, ezért is tervezik Verilog, meg VHDL programnyelveken a processzorokat.

procihoz nem fognak kiadni frissitest
Tévedés. A processzorokhoz is adnak ki mikrokód frissítést, csak a BIOS image részeként. Meg van elég terjedelmes errata is processzor dokumentációjában, ahol felsorolják, hogy a proci működése hány helyen tér el a specifikálttól. És konkrétan a hardvert is frissítik, ugyanis időközönként új stepping-et hoznak ki a processzorokból. Ezt riktán kiséri nagy hírverés, legfeljebb csak akkor, ha a javítás valami közismert stabilitási vagy teljesítmény hibát orvosol.
---
Keep on trolling

"Hardware Description Language" != "programming language".
Van nemi a hasonlosag, de nem kene ala huzni.

HDL -ekben a logikai mukodes nagyon gyorsan es szepen megoldhato, szimulalhato, tervezheto.
A problema az, hogy a valos hardverrel lehetnek olyan gebaszok amit a szimulator nem hoz ki, mivel altalaban fogalma sincs az elektronikarol es a valos hardverrol (~anomaliak etc.). Bar a proci gyartok biztos jobb szoftvereket hasznalnak erre a celra. (Valahol azt olvastam a komoly szoftverek 10k dollartol kezdodnek, ezen a teruleten)
Arrol nem is beszlve, hogy a programkodbol idealis hardvert szintetizalni a "kurva nehez problemak" osztalyaba tartozik foleg, ha gyartasi pontatlansagokat is be akarjuk kalkulalni..

Ebben igazad van. Mondjuk úgy, hogy a feladatnak két része van, az első a logikai tervezés, amire az ilyen HDL-ek jók és egyébként elég erősen valami deklaratív programnyelvre hasonlítanak. Sőt talán leginkább constraint programozásra. A feladatnak a másik része a hardver tényleges megtervezése, hogy az valóban azt csinálja amit a HDL logikai leírás tartalmaz.
Én pont azt akartam már az előző hozzászólással is érzékeltetni, hogy ez legalább olyan nehéz feladat, mint tisztán szoftvert fejleszteni. Tehát szó sincs róla, hogy itt simán megcsináljuk, aztán szimulálunk, tesztelünk egyet azt kész a hibátlan processzor. Még a HDL leírás tesztelése is csak korlátozott méretig megoldott, tehát általában kisebb modulokat tesztelnek külön-külön és azokból rakják össze az egész processzort. Csak vannak dolgok, amiket nem lehet korrektül modularizálni, mert minden modul belső működésére kihatnak. Ilyenenk pl a power saving állapotok. És nem meglepő módon az Intel errata-i főleg a különféle sleep állapotátmeneti bugokból állnak. (pl volt ilyen, hogy nem lehet kijönni protected módból deep sleepből visszatérés után, sleep után nem állítja helyre valamelyik regiszter tartalmát stb.)
---
Keep on trolling

vhdl.y 1710 sor, 34238 byte , csak arra alkalmas, hogy megneze szintaktikailag helyes e kod, istelentelenul nagy nyelv.( csak BNF van benne, meg vagy par printf.)

VHDL,Verilog szerintem sok imperativ nyelvi elemet tartalmaz, a VHDL -leginkabb valami ADA felesgnek ,tunik. A Verilog, meg jelentos C beutessel rendelkezik, es egyszerubb nyelv is, ugyan akkor igen hatekony.

Vannak deklerative/functionalis nyelvek is, amikbol lehet, hardvert vagy, vhdl/verilog kodot kesziteni.

A kodban a hibakat szintezer gyakran warningot dob, pl. en egyszer kihagytam egy reg. elol a [31:0], tobb ezer warning sor lett az eredmenye, a nyelvtanilag helyes kodbol, ennek elenere sem talatam meg rogton :) , eleg nehez labon lonod magad.

A szintezer alt. nem olyan okos, mint szimulator, nem minden nyelvi elemet ert meg, es nem mindig talalja ki, biz. bonyulultabb esetekben, hogy a programozo, mit akart, rengeteg doksi van a neten arrol, hogyan irjunk kodot, ugy hogy a legtobb szintezer megertse, es azt a hatekony hardvert(RTL) allitsa ello, amit megalmodtal. (Azt persze lehet tovabb tesztelni spice jellegu dolgokkal, de iszanyat szamitas igenyes)

Poweres peldad, tipikus esete lehet annak amit a szimulator nem tud ellenorizni, mert o csak egy a programozo altal, megadott delay -t lat, a valos hadrveren ez mas az cumi lehet. Itt pl. elofordulhatott, hogy akkor probalta meg atmasolni a regisztert amikor az erintett modulok meg nem voltak teljesen mukodo kepesek.

Az rendben van, hogy szintaktikailag nem lövöd magad lábon. Csak ha az állapotgépek egy bizonyos méret fölé nőnek és sok különálló modulba szét vannak szórva, akkor már azzal gond lehet, hogy azt leellenőrizzék, hogy tényleg azt kódolták-e le, amit szerettek volna. Tehát lehet, hogy szintaktikailag tökéletes, de ember nem látja át, hogy minden állapotámenet megvan-e és nincs-e véletlenül megengedve valami, aminek tiltottnak kéne lennie. Na abből a szempontból 1:1 olyan a hardvertervezés, mint a hagyományos programnyelvek.
Persze az ilyen hibák kiszűrésére vannak a temporális logikák és modellellenőrzők. Csak két nagy baj van velük: egyrészt ciklikus működésnél könnyen belefuthatunk olyan helyzetbe, hogy az állapottér exponenciálisan elkezd nőni. Ilyenkor csak annyit lehet tenni, hogy valahol egyszerűsítünk a modellen, ami viszont potenciálisan ronthatja a hibafedést. A másik fő probléma, hogy a bizonyítani kívánt állításokat embernek kell megfogalmaznia és ha valamire éppen nem gondol, hogy külön le kéne ellenőrizni, akkor ott megintcsak hibák átcsúszhatnak a szitán.
---
Keep on trolling

ha mar igy becses szemelyemre terelted a szot:

- hol irtam hogy a teszteles vagy szimulacio teljes koru? nyilvan van nekik egy rakas tesztjuk, azokat lefuttatjak, ha rendben, akkor annyira rossz mar nem lehet a proci. Nem azt allitottam, hogy egy tetszoleges absztrakt geprol meg tudjak mondani, hogy konform-e bizonyos predikatumokkal (ez elmeletileg is lehetetlen, a kutatasok azon dolgoznak, hogy hatekonyan lehessen megoldani)

- hol irtam hogy a VHDL/Verilog (ABEL :) ) nem programnyelv?
azt irtam hogy mas feladat, mert olyan szintu parhuzamossag kezeles mint HW-ben szoftverben most nem jellemzo.

- x86 procihoz (az Intel legalabbis) nem ad ki mikrokod frissitest, csak NDA-val tudomasom szerint. Az mas kerdes hogy a vegfelhasznalo BIOS-al be tudja tolteni. A mikrokod frissites raadasul nem javit meg mindent (pl a hires pentium floating point hibanal is az Intel szo nelkul cserelte a procit. Na jo annyira nem szo nelkul (lasd Apple koszos-a-feher-noti), de aztan barkinek aki kerte.)