Elkészült az Intel új szuperszámítógépe, az Aurora

Címkék

ChatGPT:

Az Intel, a Hewlett Packard Enterprise (HPE) és az Energiaügyi Minisztérium (DOE) együttműködése révén kifejlesztett Aurora szuperszámítógép célja, hogy kiaknázza a nagy teljesítményű számítástechnika (HPC) három pillérét: szimulációkat, adatelemzést és mesterséges intelligenciát (AI) rendkívül nagy méretben. A rendszer több mint 1 024 tárolóegységet (DAOS-t, az Intel elosztott aszinkron objektumtárolását) tartalmaz, amely 220 petabájt (PB) kapacitást biztosít 31 PB összes sávszélességgel, és kihasználja az HPE Slingshot nagy teljesítményű hálózatát. Az Aurora várhatóan még idén a világ első olyan szuperszámítógépe lesz, amely a TOP500 listára kerülve meghaladja a 2 exaflops elméleti csúcsteljesítményt (egy exaflop 1018, vagyis egy milliárd milliárd művelet másodpercenként).

Az Aurora teljes mértékben kihasználja az Intel Max sorozatú GPU és CPU termékcsalád teljes erejét.

Képek, videó:

On June 22, 2023, Argonne National Laboratory, Intel and HPE announced that the installation progress of the Aurora Supercomputer is complete. In this photo, members of the installation team walk through the many racks at Argonne National Laboratory. (Cre

On June 22, 2023, Argonne National Laboratory, Intel and HPE announced that the installation progress of the Aurora Supercomputer is complete. In this photo, the installation team discusses progress over an open blade. (Credit: Argonne National Laboratory

On June 22, 2023, Argonne National Laboratory, Intel and HPE announced that the installation progress of the Aurora Supercomputer is complete. In this photo, a member of the installation team brings in the last blade on a specialized trolley. (Credit: Arg

On June 22, 2023, Argonne National Laboratory, Intel and HPE announced that the installation progress of the Aurora Supercomputer is complete. In this photo, a member of the installation team places the last blade. (Credit: Argonne National Laboratory)

On June 22, 2023, Argonne National Laboratory, Intel and HPE announced that the installation progress of the Aurora Supercomputer is complete. In this photo, the installation team celebrates all 10,624 blades installed together in front of the Aurora Supe

On June 22, 2023, Argonne National Laboratory, Intel and HPE announced that the installation progress of the Aurora Supercomputer is complete. In this photo, the installation team poses together in front of the Aurora Supercomputer. (Credit: Argonne Natio

Bejelentés itt.

Hozzászólások

Nem viccelnek a munkavedelmi felszerelesekkel, vajon a vizhutes indokolja?

A sisakot az emelő. Azokat a nem éppen apró blade-et fej magasság fölé emelik. Mondjuk, ennyi erővel egy vasbetétes bakancs is ildomos lenne, egyik fószeren talán az van, de a hasított bőr vitorlás cipő szerűséget, se a tornacipőt  nem tudom hova tenni.

trey @ gépház

Szerintem nemcsak az, hanem minden más is (pl.: blade ki- és behelyezés, rakodási munkák, raktárban való mozgatás).

Itt látható, ahogy egy ember rakja be a blade-et a helyére.
https://www.anl.gov/article/argonne-installs-final-components-of-aurora…

Majdnem mindenkin munkavédelmi cipő vagy bakancs van.

...úgyis jönnek...

Mert amerikai. Egyszer régen ki kellett menni a kollégámnak egy hazánkban működő amerikai céghez. Azért kapott egynapos munkavédelmi oktatást, mert 3 fok masasságú kislétrán kellett dolgoznia. És mindezt teljes munkavédelmi felszerelésben, hiszen létrán dolgozik.

En meg nem talalkoztam olyan DC-vel, ahol ilyen oktatas es vagy felszereles kellett volna, max a fulvedo amit hasznaltam, de azt sem azert mert kotelezo.
Pedig mindenhol volt szerver/eszkoz emelo, illetve az amcsiknal eleg nepszero a min 48U rack, szoval magasra is kell emelni.

Szerkesztve: 2023. 06. 23., p – 12:31

Bye, Bye Frontier! Bye, Bye AMD!

Frontier is the new No. 1 system in the TOP500. This HPE Cray EX system is the first US system with a peak performance exceeding one ExaFlop/s. It is currently being integrated and tested at the ORNL in Tennessee, USA, where it will be operated by the Department of Energy (DOE). It currently has achieved 1.102 Exaflop/s using 8,730,112 cores. The new HPE Cray EX architecture combines 3rd Gen AMD EPYC™ CPUs optimized for HPC and AI with AMD Instinct™ 250X accelerators and Slingshot-11 interconnect.

trey @ gépház

Na ja :)

Szóval biztosan nem a 40 éve kitalált x86 az OPTIMÁLIS utasításkészlet, de azt gyanítom hogy a 8086 jóval közelebbi rokona a számológép, mint egy mai x86 CPU.

Ha annyira jó lenne az ARM, akkor mindenki rohanna azt használni, de ez még mindig nem történt meg. De hát hiába, az ARM csak fiatalabb kb 5 évvel, nyilván fényévekkel jobb is :D

Ha nagyobbat epitesz tobb maggal, akkor valoszinuleg nagyobb szamitasi teljesitmenyt tudsz kisajtolni.

Nekem inkabb a PFlop/kW arany ami erdekesebb, talan az a leginkabb osszehasonlithato hatekonysagi mutato.

 

szerk: https://www.top500.org/lists/green500/2023/06/

itt leszek kivancsi, hogy hova fog felkerulni.

30 év alatt egyetlen sem kérdezte, hogy mit fogyasztanak.

Kollégám szokott viccelni, hogy az indukciós kohók fogyasztása mellett a komplett IT villanyigénye nincs 0,1%

Szokták mondani, hogy ha volt majomra ...

Ezek most akkor összecsomagoltatják és visszaküldik, mert sokat fogyaszt? 🤭

trey @ gépház

Szuperszámítógépnél kicsit más kérdés mint egy alap céges IT-nél.

Itt az áram az üzemanyag, és az üzemeltetési költség fő összetevője. Van akinek mindegy hogy a kocsija is menyit fogyaszt, de ha te lennél a Volánbusz, megvennéd a kétszeres fogyasztású buszokat? (De jobban gyorsul!!)

Ez az ügyfelekről állítja ki a bizonyítványt, lehet rajtuk vihogni. Ez azért nem figyelünk oda 200-400W-ra, mert amúgy 4MWh fogyasztunk dolog, hát hogyismondjam...  Igazából mindenki arra szórja a pénzét amire akarja, és amíg kijön a luxus SUV a főniknek, addig mind1 lesz, ez a szomorú valóság.

Ahol az IT éves villanyfogyasztása a vállalat villanyfogyasztásában csak egy kerekítési hiba, ott nem fognak azon spórolni, hogy AMD-t vesznek Intel helyett, ahol is talán spórolnak éves szinten pár ezrest, miközben  magukra rántják az AMD-ből fakadó problémákat.

trey @ gépház

Nem kell AMD helyett intelt venni, hanem oda kell figyelni. Mert nagyon szeretnek csak úgy mindenhol intelből pazarló konfigokat adni, hiszen az van a polcon és occó, és a kutya nem foglalkozik vele. Igazán tudnod kéne... Gondolom a presales és sales szemei előtt a jutelék lebeg, és onnantól minden mind1. Ez sokkal nagyobb probléma a 100k számra eladott konfigoknál (lásd UPS, lásd hűtésigény), mint egy bármilyen nagyonoptimalizált HPC megoldásnál.

Sőt, nagyon remek intel szervert vettünk épp egy projekthez, csak rendesen volt összeválogatva a feladathoz a konfig.

Az AMD-ből pontosan milyen problémák fakadnak? Ez érdekelne, mert használtunk az első Opterontól kezdve a 4000-es, 6000-es szériából több gépet, illetve már Epyc-elünk is. Igen, használok sok intelt emelett, csak jelenleg az AMD teljesítmény és ajánlatai mellé igen nehéz az intelt új gépben beszuszakolni. Valahogy ezt hallom a partnerünktől, akik nagy mennyiségben adnak el AMD-t, amióta epikus az előny. Igen tudom, az intel most ráment, hogy a 7002-es epyc szériát 1043 vagy hány naponta újra kell indítani, mert különben resetel. Ez pontosan milyen problémát okoz egy a Windows világban amúgy is kötelező havi reboottal, illetve máshol sem árt azért 3-6 havonta egy fullos újraindítás kernel és társai okán. Pláne akkor nem probléma, hogy ha valamilyen cluster van. Egyébiránt újonnan már nem veszel 7002-es szériát, mert kissé meghaladott.

Azok engem is! 2 Exaflop/s számítási teljesítménnyel (becsült), lehet azt is meg tudná mondani! A Frontier 2x annyi idő alatt.

A Frontier előző generációs Epyc procikkal van felépítve. Sosem fogjuk megtudni, hogy hogyan néznének ki a számok egymás mellett. Ki építene 2 szuperszámítógépet egyszerre, egy Intel-t és egy AMD-t, az elérhető legfrissebb termékekkel?

A Frontier Epyc processzorok 28 magosak, az Aurora-t most Intel 56 magos Xeon Max processzorokkal építették. Biztosan megvolt az okuk, amiért ezt választották. Zen4 Epyc-ből van 128 magos. Ezért lennék kíváncsi számokban mit mutatna, ha ezekből lenne felépítve.

"1-node, 2x Intel® Xeon® Max 9480"

Ez a proci 350W-os TDP-vel ad neked 56 magot. AMD-ék adnak 96 magot 360W-ból, és esetleg mellé még 1GB HBM cache-t. Az új 128 magos szériáról még szó sincs. Itt valszin valami spéci intel optimized történet lesz, különösen a gyorsítókártyákat elnézve.

Először ezt akartam írni én is, de ezek a szuperszámítógépek már inkább a GPU-ra alapoznak, a CPU csak segédprocesszor bennük, ami lényegében csak az OS-t futtatja, meg a GPU-t használó cuccot tölti be, meg egyes nem GPU-alapú komponense. Arra jó a Xeon, a magas fogyasztás itt gondolom nem érdekes, a magszámot meg visszatornásszák azzal, hogy több procival építik. Meg azért érted, elég hülyén nézne ki, hogy az Intel az AMD procijával épít szuperszámítógépet. Ennek a projektnek az a lényege, hogy az Intelt és a termékeit népszerűsítse.

Nem csak a számításokat, szimulációkat, AI-t tolják meg GPU-s gyorsítással, hanem a RAID-et is.

Windows 95/98: 32 bit extension and a graphical shell for a 16 bit patch to an 8 bit operating system originally coded for a 4 bit microprocessor, written by a 2 bit company that can't stand 1 bit of competition.”

Intel Max ... jó, jó ... de a Doom! Fut-e rajta!

trey @ gépház

Az talán fut, az összes része, modja, egészen a Doom 2016 és Doom Eternal-ig bezárólag. Jó eséllyel egy Crysis és a Google Chorme is eldöcög már ezen.

Bár mostanában már nem a can it run Doom vagy Crysis a fő meme, jelenleg a Cyberpunk 2077, Hogwarts Legacy, Star Wars Jedi:Survivor viszi a prímet optimlizálatlanságban. Bár a CB2077 javul patchekkel. Régen ilyen volt még a GTA4 is, de azon meg a DXVK és a shadercache segített. Esetleg még a MS Flight Simulatort lehetne még említeni. De a Crysis és a GTA4 örök klasszikus marad. A Doom max. csak azért, mert az kenyérpirítókon, számológépeken is fut, és emiatt elvárják, hogy mindenhol menjen. A Turing complete szinonimája.

Vannak még más szarul optimaliziált játékok, de azokat megmenti, hogy a mai gépek elég erősek hozzájuk, és így ma már nincs sok gond velük. Bár azért klasszik 2,5D-s Doom-mal is oda lehet pirítani, ha az ember valami modern portként Ray Tracing + Vulkan + 8K-ban futtatja, vagy 10 ezer szörnyes pályát játszik, esetleg Quake 2 RTX vagy Minecraft RTX őrült nagy felbontásokon, bár ott is csak a GPU igényük nagy ezeknek.

Windows 95/98: 32 bit extension and a graphical shell for a 16 bit patch to an 8 bit operating system originally coded for a 4 bit microprocessor, written by a 2 bit company that can't stand 1 bit of competition.”

Pontosan. Ezek konzolon egész jól futnak, PC-re meg az átiratuk elég optimalizálatlan.

Windows 95/98: 32 bit extension and a graphical shell for a 16 bit patch to an 8 bit operating system originally coded for a 4 bit microprocessor, written by a 2 bit company that can't stand 1 bit of competition.”

Fizika az fizika, 350 wattba több az Intelnél nem fér bele az "Intel 7" névre elmaszatolt gyártástechnológia mellett.

Egyébként van azért érdekessége: Maximum High Bandwidth Memory (HBM)  64 GB
HBM2e RAM-os node-ok érdekesek, mert ha a 40 mag AVX alegységeivel optimálisan számolsz, akkor a DDR5 lesz a szűk, ezt orvosolja a HBM2.

Jaja, ki mivel foglalkozik. Nekem eddig csak AVX és ARM NEON programozós feladat jutott és csúnyán beleütköztem a RAM tempó korlátjába.
Tehát hiába a húdesok mag, nem fogsz tudni a cache-en túlnyúló adathalmazzal gyorsabban számolni, ha nincs a DDR-nél sokkal gyorsabb RAM háttered.

A GPU az külön ráadás - ahogy írod ... és nem 40 mag.  :D

Szerkesztve: 2023. 06. 23., p – 19:02

Engem az érdekelne, hogy pontosan mennyivel is lesz jobb hely a világ, miután ennyi sok és ilyen nagy teljesítményű szuperszámítógép épül egy ideje, most már évente több is?

Merthogy már mindent IS le tudnak szimulálni, annyi a számítási kapacitás, és ha az összes szimuláció minden kiszámolt rész adatát is elmentik, az is kifér örökre, törölni semmit sem kell.

Ennek ellenére én nem látom a hírekben, hogy bármi, ami az emberiség létét könnyítené, előrébb került volna ennyi szimulációval megtámogatva.

Vagy csak egy olyan ici-pici burokba élek, ahová nem jutnak el a nagy felfedezések?

Szerk1:

Közben eszembe jutott, hogy mi van akkor, ha azért kell az egyre nagyobb teljesítményű szuperszámítógép, amiért az egyre gyorsabb mobiltelefon és VGA kártya is kell: hogy kompenzálják az egyre ügyetlenebb programozók egyre magasabb szintű, interpretált nyelven írt szarjainak teljesítmény pocsékolását.

Mert ugye az, hogy Linpack szerint milyen gyors a gép és mire képes, nagyon nem mutatja meg, hogy a valóságban rajta futtatott feladatok mennyire hatékonyan használják ki a gép képességeit.

Pont az előbb kellett életet lehelnem egy kb két éves mobilba, amiben kettő giga ram van. Őrületesen el van avultatva, pedig emlékszem még nem is olyan régen az 512 megás mobil csúcs volt. És nem volt lassú (annyira) Komolyan mondom, el tudom képzelni, hogy egy instangram alkalmazásban bele van programozva, hogy minden egyes érintésnél számoljon el a processzor százezerig... és minden frissítésnél növelik ezt az értéket, hogy az régi processzorokon lassuljon be.

Mert mivel tud kevesebbet egy tíz éves insta, snapchat, google maps, otp, vagy bármilyen általános alkalmazás?

Szörnyű ez a mesterséges elavultatás. Engem egyáltalán nem zavarna, ha két évente új mobilt kellene venni, ha lennének benne új, hasznos funkciók. De semmi fejlődés! Totál nudli. De a hardverigény nő, elképesztő módon.

Na igen, ilyesmire gondoltam. Mert ugyan azokat a dolgokat, ugyan úgy használjuk egyre erősebb és erősebb hardvereken, és a legtöbben nem tapasztalunk változást.

Interpoláltam fejben ezt a dolgot a szuperszámítógépes rendszerekre, mert szerintem ott is pont ugyan ez van. Az egyre amatőrebb felhasználók elinflálják a kapott plusz hardver teljesítményt, és pont semmivel nem jutnak gyorsabban előre, mint 10-20 évvel ezelőtti elődeik az akkori gépekkel.

Nem vagyok nagy social media fogyasztó (na jó, hülye TikTok videókat sokat nézek :-D ), de a Messenger pl. megkerülhetetlen már munka vonalon is sokszor (mert az emberek jó részének az "Az Üzenetküldő"), így használom. Namost újabbnál újabb verziók jelennek meg, olykor olvasom a hírekben, hogy az alapoktól újracsinálták, meg ilyent tud, meg olyant tud. A valóságban meg én úgy tapasztalom, hogy pont ugyan úgy néz ki, mint 10 éve és pont ugyan annyira lassú, mint 10 éve. Közben 3x cseréltem telefont és 2x PC-t, a hardver mindig jóval erősebb lett, a szoftver meg ugyan olyan rossz és lassú.

Az ilyen témáknál azt a kérdést szoktam feltenni, hogy boldogabb lett vajon tőle az emberiség?

Lassan eljutunk oda, hogy magunk helyett a gépeknek teremtünk életteret a bolygónkon, mi pedig szépen másodlagosak leszünk, saját életterünket jól beszűkítjük.
Végülis a +80 fokig a gépek tuti bírják a meleget és a CO2 illetve egyéb levegőben és a talajban levő szennyezőanyag, amit most bőségesen termelünk, mindez nem zavarja a gépeket.

Szép elmélet. És akkor jöjjön a gyakorlat: hazai szervertermek tetején vagy oldalán ott vannak a hatalmas kültéri egységek.
Hulladék hő hasznosítás? Semmi, megy az utcára.

Tudsz hazai példát mondani, ahol a szerverterem hulladékhője hasznosítva van?
Én azt vallom, hogy a nem elfogyasztott, ezáltal elő sem állított dolgok az igazán környezetbarátak. A többinél gyakran képbe jön a greenwashing, az emberek félrevezető megnyugtatása.

Ha nem állítasz elő valamit, akkor nincsen GDP növekedés.

Előállítasz valamit -> GDP növekedés. Kárbamegy? Lényegtelen. És most jön a lényeg: greenwashingolsz, tehát előállítasz valamit -> GDP növekedés! A greenwashing is csak egy üzlet. Amíg ilyen lesz a gazdasági berendezkedésünk, egyre több és több lesz az. Is.

Kevered a HPC világot és a "szélösszehordta" szervertermeket. Egy random szerverteremnél a hulladékhőt elég nehéz megoldani, bár nem lehetetlen, viszont egy HPC történetnél eleve folyadékhűtéssel tudnak indítani.

Például, hogy ne menjünk külföldre: https://hpc.kifu.hu/hu/komondor

Ennél arról volt szó, hogy a campuson elhasználják a hulladékhőt, hogy az hogyan áll azt nem tudni.

Rémlik egy német HPC projekt, szintén egyetemi campusos.

Meg találtam egy ilyet: https://www.datacenterdynamics.com/en/news/vienna-hospital-to-get-waste…

Nemezt kerestem, hanem egy gyártót akinél pár éve láttam teljes rack vízhűtős megoldást, de nagyon jól bemutatják Servethehome-ék (több mint home...): https://www.servethehome.com/lenovo-sd650-v2-and-sd650-n-v2-liquid-cool…

Ja, meg jól megtervezett szuperszámítógépeknél szintén hulladékhőt. Meg eleve, megújulók mellé tervezik. Hulladékhőből gőz lesz, gőzből villany, így kurván huszadrangú, hogy az egyik processzor X wattot, a másik meg 1,1*X wattot fogyaszt. Ha meg nem ilyen helyre tervezik eleve, akkor azon kellene rugózni, hogy miért nem ...

Kivéve, ha a szuperszámítástechnika zöldre festése a cél. Ennyit a szuperszámítógépek Forumla E-jéről ...

trey @ gépház

tl;dr:

Szerintem két különböző dologról beszélünk. Te arról, hogy a szuperszámítógépek által megtermelt hulladékhőt felhasználják. Én meg arról, hogy ipari vállalatok hulladékhőjéből elektromos áramot állítanak elő, amivel szuperszámítógépeket hajtják.

Hja, nem lesz huszadrangú, mert pont úgy kell ezt az iparágat zöldre festeni, ahogy bármelyik másikat.

trey @ gépház

Hallanád az ismerősömet, aki napelemet tett a tetőre, most meg annyi villanyt termel, hogy ötletbörzét indított (félig viccesen, de nála sosem lehet tudni)  hogy mi a szart hajtson még villannyal, mert nem tud mit kezdeni vele.

Szóba jött a kriptobányászat, de azzal már ilyen szinten nem lehet keresni. Erre azt mondta, az se baj, ha bukó, csak menjen róla valami ...

trey @ gépház

Ez meg megint a politika és pénz körül forgó világunk f*sága. A megújulóért mindenféle hálózathasználati díj miegyéb indokkal valójában sz*rt sem fizetnek, miközben annak sokszorosát fizeti ki az erősen környezetszennyező szén- és gáz erőművekből származó villanyért. Ha lenne a tetőn napelemem, akkor én is azon matekoznék, hogy térüljön meg a beruházás mert az utcában élő többi fogyasztónak átadni ilyen átvételi ár mellett tényleg nem éri meg.

Ez innentől nem műszaki kérdés. Tényleg ott nyírja az emberiség a bolygót a pénz oltárán, ahol csak tudja. Közben elgondolkoztató, mennyire energiaéhes lett a világunk: https://ourworldindata.org/grapher/global-energy-substitution
 

Szuperszámítógép nagyon más világ mint a desktop app. Általában igencsak kioptimalizálják oda a kódokat, mert a gépidő drága.

DE. Ha azt nézzük, pl. vegyünk egy szimulációs modellt. CFD létezett már 40-50 éve is, az akkori gépeken. Ma meg meg tudják oldani sokkal finomabb hálózással. Végtelen számítási kapacitást lehet így "felélni".

Neurális hálók szintén. Van egy hatékony modelled, de növeld a node-ok méretét az egekig. Többet fog tudni? Valószínűleg. Arányaiban annyival pontosabb lesz? Nem biztos.

ismerek egy helyet ahol eloszerettel hasznalnak is intel cpu-s clustereket,de csak licenckoltseg optimalizacio miatt, mivel kisebb magszamnal magasabb frekvencia erheto el.

viszont egyes feladatoknal mar bejott licenc koltseg ide vagy oda,hogy 2x64 jobb mint 2x28 a masik gond pcie szalak, amikor ki kell szolgalni 2x100gb et es min. 2x32fc-t node-onkent ott mar boven kell pcie szall a cpu-k es az eszkozok koze. Valoszinuleg ezek es a megfelelo kedvezmeny miatt valasztottak ezeket a procikat, Hpe es az intel ha akarja durva kedvezmenyeket ad.

lennenek otleteim miket szamoltatnek rajta.

mindegy, hogy intel vagy amd ezekbol mindenki nyer.

mindig csodalom azokat akik ezeket programozzak, gondolj bele mekkora gond volt anno, hogy ket szalon levo adatot osszevarjak,majd megoldottak a kernelekben par tucat mag eseten mar egesz szuper.

de itt mar az is mennyi ido hogy melyik gep memoriajaban van az adat ha ket node kozott ki kell cserelni. Mennyire durvan kell optimalizalnod,hogy ne kelljen 30 szekrenybol arrebb attoltened az adatot.

Sok helyen egyszerűen az MPI-re támaszkodnak. A régóta kutató tudósoknak Fortranra is elérhető.
Optimalizálás na igen. Tuti van egy csomó kód, amely töredék idő alatt végezne, ha jobban odafigyelne a fejlesztője.
De szerintem itt is úgy néz ki a képlet, hogy könnyebb ma a gyors és drága berendezést megvásárolni, mint az azt jól kihasználni képes fejlesztő személyét megtalálni és megtartani.

ekkora pcie savszelesseget mivel szolgaltok ki? hany foglalatosak a szerverek es milyen cpu van bennuk? egy gold cpu fejbol irom ha jol emlekszem 128gb et tud az ujak pedig mar 256? ket utasoknal ez a 3 eves cpuknal 256gb/s,ti negy utasokat hasznaltok 8x100-ra? Meg ugye ott van meg a A100 savszelesseget igenyel. Durva nodeok lehetnek, vagy bealdoztatok egy picit a 100as halokartyak sebessegebol?

altalaban a GPU es a NIC egy PCIe switchen van, es ebbol a blokkbol van vagy 4 vagy 8 darab (gyartofuggo, inspurnal 4, smnel 8, ha jol emlekszem), igy kozvetlen megvan koztuk a savszel, a GPUk kozott meg ugyis NVLink van, nem a PCIe switchet terheli a GPU-GPU forgalom, igy tenylegesen meg lehetet etetni vele a 100GB/-s-et

itt a supermicro gepe: https://www.supermicro.com/en/Aplus/system/4U/4124/AS-4124GO-NART.cfm, a manualban ott van a blokk diagramm

Azon filózom, hogy vajon tudnék-e olyan (szar) kódot írni, ami megfekteti ezt az egész kócerájt. "Sima" PC-n nem nagy kihívás az ilyesmi :D

[Falu.Me]==>[-][][X]

Fehérből és férfiből túl sok van a képeken, nem? :-)