Sufnituning: Linux cluster házilag, IKEA Helmer szekrénybe építve

Címkék

Helmer névre hallgat az a házilag barkácsolt Linux cluster, amelyet a megálmodója állítólag "fillérekből" hozott ki. A rendszer 24 processzormagot és 48GB RAM tudhat magáénak. Mivel Jenne normális számítógépházat nem talált, egy IKEA Helmer szekrénybe építette be a szörnyet.

Mivel a renderelési munkák sokáig tartottak, Jenne úgy döntött, hogy épít magának egy cluster-t.

Helmer - alaplapok
Vásárolt néhány Gigabyte alaplapot

Helmer - félkészen
egy rakás processzort és egy zsák memóriát és az egészet beletuszkolta egy fiókosszekrénybe.

Helmer - már működik

Helmer - erőforrások

A hack menete, adatok, renderelési eredmények, stb. itt.

Hozzászólások

vagány,

a 96 magos AMD megoldás mégjobb ötletnek tűnik :)

"The most amazing is that this machine just cost as a better standard PC"

valsz brand cuccra gondol.

cpu = 6x151
mb = 6x70
mem = 12x130
tap = 6x50
hdd = 6x28
ez 3400 euro + ezaz van vagy 3600 ha jol szamolok + ha nagyker meg ilyenek lehet kijon az egesz 3000 bol
3000 bol mar azert veszel eleg jo brand cuccot is. persze attol fugg milyen brand alap (hogy apple nel maradjunk) macpro ennyi

--
http://blog.sartek.net

Ha jól emlékszem, akkor €4000 volt a hardware költsége és Blender animációk számításához használja a cuccot Dr Queue segítségével. Valami 190GFlops környékén van a számítási teljesítménye, ha nem csal a memóriám. A korábbi teljes éjszakás render idő 10 perc környékére csökkent a 24db magnak köszönhetően. :)

Némivel többe kerülhetett az IBM-nek a 20 000db Cell-t tartalmazó, új világrekorder 1TFlops-os teljesítményű szuperszámítógépe. :)

Még több képet találtok itt:
http://helmore.sfe.se/

Kemény az a kartonpapír "cooler ajtó" az IKEA-s szekrényen. :)

Meg a két nappal ezelőtti BlenderNation.com-os hírt itt:
http://www.blendernation.com/2008/06/08/home-brewed-24-core-render-farm/

Van egy fajta "tömeggyilkos fejszerkezete" a gyereknek. :)

Kemény. Ezen már a Vista is elfut szerintem, lehet hogy nem is "szaggatna" :D.

Igazából a bónusz hack az lenne, ha nem lenne külön 6db tápegység, hanem 1-ről menne az összes. Végre lenne egy értelmes alkalmazása a ma divatos 1kW-os tápoknak. Nem tudom mennyi meló lenne megcsinálni, de szerintem nagyot javítana a hatásfokon is.

A másik kötelezően elsütendő trükk a hűtés értelmesebbé alakítása valami low profile párhuzamos bordázatú hűtővel, így a processzorra nem kellenek ventilátorok, hanem a külső ventilátorok nyomnák keresztül a levegőt. Nyilván ehhez kell még 1-2 légterelőt is fabrikálni, de ez nem lenne probléma az arcnak. Cserébe sűrűbben lehetne rakni az alaplapokat és csendesebb is lenne. Ja amúgy meg a 6db 8cm-es ventit ki lehetne cserélni mondjuk 4db 14cm-esre.

A harmadik (szerintem legolcsóbban kivitelezhető) módosítás az lenne, ha a vinyókat valami kis usb-s pendrive-okra cserélné. Az oprendszernek szerintem elég 8GB, egy ilyen pendrive-ot meg manapság már 5-6k-ért lehet kapni. A többi úgyis NAS-ról megy.

Óbasszus, de elszórakoznék én is egy ilyennel. :)
---
Sok gyerekkel ellentétben én sose akartam tűzoltó lenni. Lettem helyette informatikus. Nem találjátok ki, hogy mit csinálok nap mint nap...

Végre lenne egy értelmes alkalmazása a ma divatos 1kW-os tápoknak. Nem tudom mennyi meló lenne megcsinálni, de szerintem nagyot javítana a hatásfokon is.

A hatásfokon sokat javít az egy tápegység, főleg ha elpukkan...

A harmadik (szerintem legolcsóbban kivitelezhető) módosítás az lenne, ha a vinyókat valami kis usb-s pendrive-okra cserélné. Az oprendszernek szerintem elég 8GB, egy ilyen pendrive-ot meg manapság már 5-6k-ért lehet kapni. A többi úgyis NAS-ról megy.

Azért inkább ne. Nem annyira megbízhatóak a pendrive -ok, hogy azon os fusson megbízhatóan szerintem. Akkor inkább 2,5 sas lemezek. Kicsi, kevesebbet fogyaszt, ellenben megbízhatóbb, mint egy pen drive.

--
http://laszlo.co.hu/

1-2 kérdésem lenne.
Csak homogén gépekkel működik a dolog? Vagy ha van otthon 1-2 szabad gépem akkor lehetne segíteni pl. a notimat? :)
Használhatóak másra is közben a node-ok, vagy csak a konzolok használhatóak később "normálisan"?

Szerintem attól függ, hogy mennyire alacsonyszintű megoldást szeretnél. Magasabb szinten szerintem teljesen heterogén rendszerek is együtt tudnak működni, (lásd pl. SETI@home) és ilyesmire vannak kész megoldások is pl.: http://desktopgrid.hu/
Ezt viszont nem igazán nevezném klaszternek, a klaszter alacsonyabb szintű együttműködést feltételez a nodeok között, és emiatt az erőforrások is jobban kihasználhatóak. Viszont itt már problémák lehetnek egy heterogén rendszerrel. De ezt nem tudom pontosan, ehhez nem nagyon értek.

Innét: http://drqueue.org/cwebsite/about_drqueue.php

"DrQueue supports Linux, MacOS X, Irix, FreeBSD and Windows. DrQueue supports mixed platform clusters and also mixed processor architectures. (It is possible to mix 32 and 64 bit machines!) "

Röviden: A rendering működne biztosan.

Bővebben:

Hagyományos értelemben ez sem cluster, de ne vesszünk össze :)

A transzparens módon, több gépre "átnyúló" feldolgozás valóban problémás heterogén környezetben
(32bit,64bit,kisindián,nagyindián,biszexindián..) van pár probléma, de ez maradjon az ilyen jellegű megoldások kiötlőinek problémája, s feladata :) (Dragonfly BSD-ék csinálnak valami hasonló,akár neten keresztül is jól működő, kernelszintű klaszterezést asszem, de ehhez tényleg nem értek. Csak használom a buzzwördöket:))

Szerencsére ilyen alacsony szintű rendszerekre ritkán van szükség (csak nagyon reakcióidőigényes feladatoknál, lásd általános célú szuperszámítógép, ahol nem lehet jól darabolni a részfeladatokat)

Ezért ezek sima distributed computing megoldások, de működnek.
Hátrány annyi, hogy nem lehet csak ugy megsegíteni =) Ha renderelni akarsz, vagy openoffice-t forgatni, jelszavakat törni, dvd-t konvertálni aviba :), bármit, ami jól felbontható alfolyamatokra, amit pl dr.queue szét tud küldeni klienseknek, azokkal megcsináltat, majd visszakapja a kész részeredményt, és összerakja a végén a puzzlet, akkor igen.

Ha más nem, egy nice 19 a nodeon a számolást végző processre működik, ha másra is akarod közben használni.

Ha általános teljesítményjavulást akarsz, akkor nem.

Distcc-re is lehet egy ilyen clustert hasznalni, ami ugyan szinten nem lesz igazi cluster, mert a node-k nem fognak egyaltalan clustogni, csak elmukodnek magukba, es a forditani kivano host fogja szetdobalni a forditasi feladatot, de amugy muxik.

Ez mondjuk inkabb a load balancing-hoz all kozelebb, mint a clusterhez, marmint mukodesleirasi szempontbol.

http://www.extremelinux.info/stonesoup/

Nagy, massiv parallell feladatok (molekularis szimulaciok pld.) megoldasat nem hatraltatja, ha homogen a kornyezet, de ez nem feltetlenul kovetelmeny ...
Ma mar ugysem igazan ez az clusterek elsodleges felhasznalasi terulete, hanem az elosztott dolgok futtatasa (ray-tracing a pelda-project erre: egyik foton nem zavarja a masikat, szoval el lehet oket zavarni oket kulon gepekre ...)

k.

Dolák-Saliék szavaival élve:
"Ez az ember nem normális!"

:)))))))

A címből azt gondoltam valami mosix-szerű megoldás, de csalódnom kellett..