Lemondott Pat Gelsinger az Intel vezérigazgatója

Címkék

Nem várt hirtelenséggel nyugdíjaztatta magát Pat Gelsinger.

https://www.intc.com/news-events/press-releases/detail/1719/intel-annou…

Hozzászólások

Lejtmenetbe allitotta a VMware-t, majd az Intelt. Csodas track record.

:D:D:D:D ez is csak azt mutatja, milyen jól megy az intel szekere. :D:DD

Szerintem most próbálják meg a Nokiás gyereket, az csodát tud művelni olyan cégekkel, amelyiknek egy pillanatra meginog a piacvezető státusza.

lemaradtam, mi van most az intel-lel? gyengék a procik?

Nemcsak gyengek, hanem instabilak, valamint nem jottek ki tul jol az elmult idoszak donteseibol.
https://www.theverge.com/2024/8/1/24210656/intel-is-laying-off-over-100…
Par dolog, ami miatt beestek: AMD Epyc szerverprocik, AMD Ryzen gamer/desktop procik, lemaradtak az AI vonatrol, Apple atallt x86-rol, TSMC megelozte oket chipgyartasi technologiaban, ARM szerverprocik, stb.

a procik teljesitményével nincs gond.

Nem tett jót az Intelnek, hogy az előző góré elzavarta a gyártástechnológiai fejlesztőcsapat nagyrészét ( ezért jött fel az addig bukdácsoló TSMC, nagyrészük odament át dolgozni... ) mert azt gondolta, hogy a fiatalok majd feleannyi fizuert megoldjak a 10, 7 stb nm -es technológiákat. Nemjöttössze, sokáig megrekedtek 14nm -en, ezért az AMD szépen behozta őket. A 10, 7, 5 és most az Intel 20 -ra ellocsoltak egy csomó pénzt, és mégse lett igazán jó ; de annyira, hogy az Intel 20 -at kukázták is, és most az a mondás, hogy majd a Intel 18 jó lesz. Addigis az Arrow lake processzorok a TSMC gyártósorain készülnek... // legalább lehet nézegetni, hogy ha közel azonos gyártástechnológián van a két cég, akkor ki mit hoz ki belőle ( Zen5 = TSMC 4nm ; Arrow = TSMC 3nm ) //

Aztán az se tett jót a részvényárfolyamnak, hogy mint említettem, ugyan a teljesítmény megvan, ellenben a 13-14 gen áramfelvétele kihajtva magas, és a csúcsprocik igencsak hajlamosak a degradációra. Azaz egyik nap még van egy frankó stabil gyors géped, másnap meg látszólag minden ok nélkül elkezd hibázni, lefagyni. Megemelték a garanciaidőt 5 évre, és szó nélkül cserélik, de elsőkörben nem ez volt a hozzáállás ; és mikrokódfrissítéssel ugyan valamelyest javitották a degradálódás okát, de ez egyrészt csak 3 -ik nekifutásra sikerült, másrészt teljesítménycsökkenést hozott ( főleg ott, ahol az alaplapgyártók default beállítása az "engedd el a hajamat" volt ; na az Intel baseline profile ezeknel fogta igazán vissza a lovakat ) harmadrészt a degradáció útján már megindult procikon nem segít az új mikrokód.

Sokaknak ez a kismag - nagymag felállás sem tetszik, ez a 12 gennel jött be, eleinte több problémát okozott, mint előnyt, aztán kikalapálták a win11 ütemezőjét, és kezdett beérni ; most elhagyták a HT -t ; ami még nem lenne probléma, de a windows ütemező megint nem optimális az Arrow prociknak, mert az eddigi 8P + 16E blokkosodást átszervezték amolyan 2P + 4E + 4P +4E + 2P -re, mert így jobb a hőeloszlás, csak éppen a cpumagok cimzése is így néz ki ( eddig 1-8 P 9-24 E volt ; most 1-2P , 3-6E, 7-10P, 11-14E, 15-16P ) , erről vagy elfelejtették értesíteni a windows core csapatot vagy csak nemkészültek el időre a patchhal, de mindenesetre megint az van, hogy egyelőre az Arrow picit alulteljesít a várt szinthez képest.

HUP te Zsiga !

oké, akkor úgymondom, hogy desktopon az Intel procik teljesítménye teljesen versenyképes.

cloud az másik játszótér, ott látszik igazán, hogy az AMD hosszútávon mire célzott a chiplettel, az Infinity Fabriccal, a teljesitményelosztásra gyúró/kimaxoló boosttal stb.  És ez az, ami perpill az Intelnél nemnagyon látszik, nagyobb hadvezérek úgy hívják : stratégia. Ezért van bajban az Intel, mert kapkod, és nincs egy világos irány, hogy merre van az előre. Ma megjött a Battlemage, ez a második gen, meglepő módon nem érik utól vele az NVIDIát, az AMD 7xxxXT -t talán, ugyanakkor elégettek rá többmilliárd dollárt, és az a mondás, hogy nemlesz tovább lelövik a projectet. Szvsz még 2 gen ( mert azert a konkurrencia is fejleszt ) mindent bele, és teljesen ottvan, ahol az AMD vagy az NV ~20 év előnnyel...  De inkább lelövik. Annó az MS azért lett nagy, mert sose adta fel. Nemkellett a piacnak a win 1.0 ? win 2.0 ? lett win 3.0 meg hozzá word meg excel, és voilá viszlát wordperfect, wordstar & tsai.  Nem kellett a piacnak az NT4 ? a W2K ( AD ) ? Lett 2K3 jobb AD -val exchange integrációval, és máris cserélték le a Novell szervereket meg a Lotus Dominot.

HUP te Zsiga !

hat igen, desktopon fasza, de szerveren siralmas. eleve ezek a 2.1-2.4ghz 24-32-stb magos cpuk nem sok mindenre hasznalhatok (max webszervernek/vpsnek jo a sok lassu mag), masreszt a memoria eleres sebessege is borzaszto lassu a desktopokhoz kepest.

desktop prociknal meg a hutes problemas meg mindig, hiaba rax ra vizhutest vagy 20cm-es rez hutobordat 3 ventivel, a pici proci feluleten nem tudja eleg gyorsan atadni a hot.

Az ilyen magas szintű szolgáltatások árai, mint a felhő, nagyon nem a hardver árától függenek...

Inkább az Amazon úgy áraz, ahogy a keresletet látja (mint minden kapitalista gazdasági rendszerben). Amire nagyobb a kereslet, az drágább.

Az AMD-s instance-okra nagyobb a kereslet, mert jobb a teljesítményük (ezek szerint, mert nyilván nem az ár miatt választják, ha drágább).

Nemjöttössze, sokáig megrekedtek 14nm -en, ezért az AMD szépen behozta őket.

Én inkább úgy fogalmaznék, hogy az AMD az utolsó pillanatban, de még időben fogta meg a költségeket a gyártás leválasztásával.
Az előző két évtizedben látható volt, hogy minden egyes generációváltásnál duplázódtak a költségek. Egyre több régi, nagy cég dobta be a törölközőt. Sony, Motorola, IBM, és persze az AMD. A hi-tech félvezetők esetében méretgazdaságosság egyre feljebb került, plusz milliárdszámra jelentek meg az ARM procik. A bérgyártóknak ez nem jelentett gondot, ellentétben pl. az Intellel.

Azt figyeltem meg, hogy az IBM-et lehet lakmuszpapírnak használni. Ha ők valamit kiszerveznek, akkor az az üzletág 1-2 évtizeden belül telítetté vagy veszteségessé válik. Így volt ez a nyomtatókkal (Lexmark), merevlemezekkel (Hitachi), PC-kkel (Lenovo), félvezetőkkel (GlobalFoundries), és a szolgáltatással (Kyndryl).

Erre gondoltam:

https://web.archive.org/web/20230427172056/https://www.ibm.com/investor/att/pdf/IBM-To-Divest-Microelectronics-Business-To-GLOBALFOUNDRIES.pdf
 

Ebben benne volt a 2023-as eladásig (többek között) a Fab10-ként megnevezett, East Fishkill-i, eredetileg IBM gyár is.

Vannak dolgok amiket nem értek az Intelnél. Olyan döntések, amik igazából nem kerültek volna többe nekik, csak józan észre hallgatni kellett volna a fejjel falnak menés helyett.

Az AVX512 pl ilyen. Először is a koncepciótlan, össze-vissza tapogatózás, a különféle extension-ökkel. Egy random walk, egyet előre, kettőt hátra. Megszegték a legnagyobb tabut az x86-ban: kivettek utasításokat, borították a visszafele kompatibilitást. A dolgot, ami az x86-nak a legerősebb, mindentverő selling pointja, ami évtizedekig piacvezető pozícióban tartotta. És nem 30 év után, valami ősi 16 bites legacy-t, hanem az egy-két generációval korábban frissen bevezetettet. Ez amúgy még Krzanich idején kezdődött, de Gelsinger alatt is ugyanúgy folytatták. Nyilván remek üzenet a fejlesztőknek, ezután nyilván megjött a motiváció mindenkinek erre kézzel optimalizálni...

Persze az implementáció is "kííváló" volt, a fix 1.9GHz-es órajel penalty-val, meg a - nem túlzottan reklámozott - 50000 órajelciklusos bekapcsolási latencyvel. Persze, hogy a proci ne álljon addig, ezért meg kellett csinálniuk, hogy átmenetileg lassabban, de tudjon 2 ciklusos 2x256-bites végrehajtást csinálni, amíg beröffen a nagy 512bites egység. Ezt érdemes megjegyezni a későbbiekre...

Aztán jött a termékek szarrá-szegmentálása, hogy megoldókulcs kellett hogy melyik Xeon-ban van egyáltalán AVX512 és melyik annak is melyik részhalmaza. Mert persze desktopon ne is álmodjon róla senki vagy 5 éven át, tessék kicsengetni a dellát a Xeonért, de abból se a paraszt workstation-kategóriás változatért (ami csak rebrandelt desktop magokat tartalmaz), hanem tessék megvenni a legdrágább szerverbe való vonalat. Nyilván minden fejlesztő rohant venni magának egyet, hogy legyen min optimalizálnia a kódját, hogy az gyorsan fusson a célközönség... milyén is?!

Aztán mikor végre beengedték desktopra (11 gen), utána rögtön jött ez a P-mag, E-mag őrület (12 gen). Itt aztán tényleg nem tudom mire gondolt a költő, hogy a Microsoft majd "valahogy megoldja" nekik, hogy az egyik mag tud AVX512-t, a másik meg nem?! És akkor a megoldás: gyártsuk le a procit AVX512 egységgel a P-magban, aztán tiltsuk le. Azt hinné az ember, hogy ilyen blama szükségmegoldást egy generációban muszájból megcsinálnak, de ASAP ráfeküdnek a probléma megoldásra. De nem. Már alapból így jött ki a 13. és 14. gen is. Egyelőre úgy áll, hogy inkább full feladták az AVX512-t desktopon. És akkor most jusson eszünkbe, hogy a korábbi generációknál a bekapcsolási latency miatt már egyszer leimplementálták a 2x256bites végrehajtóegységet hozzá... de ezt betenni az E-magokba, hogy feature paritás legyen a P-kkel, az annyira "AMD"-s megoldás lett volna...

Irgalmatlan pénzt elégettek rá, legyártottak rengeteg (a mag felét-harmadát elfoglaló) sosem engedélyezett végrehajtóegységet, 5-6 évig küzdöttek, hogy a szoftverek egyáltalán kezdjék már el támogatni. És mikor ez úgy 8 év (és miután a konkurencia megcsinálja jól) után megtörténik, ekkor akarják éppen kukázni.

Régóta vágyok én, az androidok mezonkincsére már!

Van ilyen, amikor a tech cegben a manager aki mondjuk elotte ketchup-ot adott el sikeresen a Craft Foods-nal lesz az uj foember. Es nem hajlando megerteni a technologiat vagy atlatni a tech piac igenyeit, az alatta levo okosokra meg nem hallgat. De ez a faszi nem ilyen, meg az elodje sem ilyen volt. Szoval ezert rejtely tenyleg hogy mi a pocsomet gondoltak :D

Úgy lehetett ez is, mint a szinén most nyugdíjba vonulás mellett döntő Carlos Tavares (Stellantis). Jelezték neki a fő részvényesek (felügyelő bizottság), hogy nyugdíjba akar menni. Most.

Nálam az intel vagy 15 éve elásta magát: se normalis gpu (processzorban), se normalis fogyasztás (rpi szintu, esetleg mobil).

 

Alulról felzabaljak a mobil processzorok (arm).

Hogy ez mennyire gyartastechnologia es mennyire architektúra az kb. mindegy is.

 

Ugyanigy szerintem az nvidia tundoklese is kifullad olyan 4-6 ev mulva.

Ami most még generikus ai, ami hasznos belole azt beleteszik processzormagba hardveres gyorsitaskent (kb. mint a kodekeket anno, hardveres h265, stb), oszt' megy az élet tovább.

Az Nvidia azért fog bebukni, mert egy maffia hozzáállásuk van az OSS-hez, es ez a mentalitas kihat máshova is. Nem tudnak sose egy ecosystemet maguk köré keríteni.

Ha kifut a hype, akkor csak az öltönyös bunozok maradnak:)

Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

Ami most még generikus ai, ami hasznos belole azt beleteszik processzormagba hardveres gyorsitaskent (kb. mint a kodekeket anno, hardveres h265, stb), oszt' megy az élet tovább.

Ebben nem hiszek. A mai APU-k messze alulmúlják a dedikált egységek teljesítményét.
A Ryzen 8700G, valamint az alap M4 kb. 4.2 TFLOPS; 16, illetve 38 TOPS számokat mutat.
Ehhez képest az RTX4090 82.6 TFLOPS, 1030 TOPS teljesítményt nyújt (a fogyasztása meg 450W).

pedig lehetne a transformer NN model epitokoveire csinalni dedikalt hw utasitasokat, es az meg gyorsabb is lenne mint egy GPU. apple mar el is kezdte a neural engine-nel es a tobbi chipgyarto is kiserletezik mar hasonloval. a zhogy a GPU gyorsabban szamolja most mint egy CPU nem nagy cucc, de a GPU-nal is lehetne hatekonyabban egy direkt erre optimalizalt procival.

amugy a generativ modellekkel az a baj hogy iszonyu nagyok, a legegyszerubb kepgeneralok is sok giganyi parameterrel operalnak, az LLM-ek meg 100GB-okban merhetok. inkabb a sok (es gyors) memoriat kene megoldani valahogy a GPU-hoz. vagy az Intel pont ebben tudna nagyot durrantani (ha akarna), hogy a CPUja az osszes ddr5 ramot tudna hasznalni tensor muveletekhez is.