Tesla: GPU-alapú személyi szuperszámítógép az NVIDIA-tól

Címkék

Az NVIDIA a szuperszámítógépek egy új kategóriáját mutatta be az NVIDIA Tesla Personal Supercomputer képében. A tudósoknak és mérnököknek szánt Tesla 10K amerikai dollár alatti árcédulával rendelkező, ~ 4 teraflop teljesítményre képes desktop számítógép. A "desktop gép" 4 darab Tesla C1060 Computing Processor-t tartalmaz. Ezek a grafikus feldolgozóegységek (Graphical Processing Unit - GPU) nem rendelkeznek grafikus kimenettel, mert nem grafikus, hanem számítási feladatokkal vannak ellátva. Minden egyes Tesla GPU 240 darab maggal rendelkezik és 1 teraflop single- és körülbelül 80 gigaflop double precision floatpoint teljesítményre képes. Egy video a termékről:

A számítógépet speciális C nyelven (CUDA) írt alkalmazásokon keresztül lehet munkával ellátni. A CUDA C fordítóprogram, fejlesztői toolchain és SDK (Windows, Linux, OS X) ingyenes letölthető az NVIDIA-tól.

Számos alkalmazás került már portolásra a CUDA-ra - péládul a Mathematica, LabView, ANSYS Mechanical -, és egy rakás tudományos kód érhető el a molekuláris dinamikától kezdve a kvantum kémián át az elektormágnesességig bezárólag. Ezek a CUDA Zone-on találhatók meg felsorolva.

Hozzászólások

ugyes, szerintem ezzel a cuccal aratni fognak egy sajat (nem is kicsi) niche-ben.

- Use the Source Luke ! -

gondolom a villanyszámlát is megdobja kicsit...

"Persze a konkurencia sem alszik, az Ati most jelentette be, hogy a Radeon HD 4870 X2-es kártya egymagában 2,4 teraflops teljesítményre képes, kétszeres pontosságú számolásnál pedig 480 gigaflopsról beszélünk, ami bőven több a négy Tesla-kártya teljesítményénél."
innen

Ezt a kérdést nem értem.

Egyrészt miért kellene a támogatásnak magában a gcc-ben lenni? Másrészt meg az NVIDIA CUDA fordítója (nvcc) jelenleg is úgy működik, hogy ami a GPU-nak szól, azt maga lefordítja, a többit meg átadja a gcc-nek, vagyis akár a gcc GPU-t kezelő kiterjesztésének is tekinthetjük. Nem hiszem, hogy értelme volna ennél szorosabb kapcsolat kialakításának.

---
Science for fun...

Javítson ki valaki, de mintha ez a project már jó fél v. 1 éve élne.. Igaz akkoriban még csak a normál többszálusításra mentek rá ( elcomsoft-os jelszótörő pl. ). De akkor mi ebben az újdonság?
____________________________________
Az embert 2 éven át arra tanítják hogyan álljon meg a 2 lábán, és hogyan beszéljen... Aztán azt mondják neki: -"Ülj le és kuss legyen!"..

Elvileg igen. Felrakod, beallitod az nvidia drivert, installalod a CUDA-t, aztan hajra. A szomszed szobaban pont ezzel szenved a kollega egy ideje. A display egy alaplapi NVIDA-rol megy, es pluszban be van meg pattintva egy GTX 280.

A demo programok mar mennek. :]

Ezek a CUDA-s kartyak:

http://www.nvidia.com/object/cuda_learn_products.html

Ja, ez jo, koszi; mondjuk egy listan szereplo" geforce pityputtyot mar 80 taller korul lehet szerezni, az jo. Csak kerdes hogy ebben mi van (hany mag, milyen topologiaval), ill. ha az ember ezt megtanulja mondjuk, es kesobb hozzavagnak egy tesla-t, akkor a kis kartyakon felszedett tudas/tapasztalat mit e'r majd nagyban :] Na majd par honap, oszt utana csak lesz egy kis idom jatszani ilyenekkel. Trendy, plusz C, talan erdemes belefeccolni egy kicsit...

Annó irtam egy programot, (Ill elkezdtem de nem tudtam megiírni, mert a futási idő olyan 19-21 hónap volt, de ez méga PII-korszakban), kvantummechanikai hullámegyenletett oldott meg numerikusan, nem volt nagy só megírni minden kész volt hozzá cdak össze kellett rakni. Na rra kíváncsi volnék mit dob ki, mennyi idő alatt futna le egy kölcsönhatásszimuláció. :) zseniális. Kelle egy ilyen. :)

Ha a kommunikacios koltseg nem tul magas, akkor parcdiffeket eleg jol lehet parhuzamositani. Nem mondom hogy trivialis, foleg a szinkronizacio miatt (ami me'g plusz idoveszteseg). Ha ezen a GPU-n belul ezek nem jelentenek gondot, akkor az csak jo. A cellben, legjobb tudomasom szerint, pl az a szopas, hogy a ppc mag beleszolasa elkul az egyes vektorprocok nem is tudnak egymassal szinkronizalni es adatot cserelni.

Kar, hogy a GPU-k alapvetoen single precision-ban mukodnek, bar persze ha valakinek ez eleg, akkor jo lehet neki.

hát, nagyjából 1:5 az arány:

1.2 TFLOPS (single), 240 GFLOPS (double)

egyetlen garfikus magon (800 stream processzorral)

nem olyan rossz ez :)

ebből egyébként jól látható, hogy a firestream single precision-ben nagyjából 20%-os, double precision-ben 200%-os előnyben van a tesla-hoz képest. mindezt feleannyi (2GB vs 4GB öhöm-öhöm), bár gyorsabb (GDDR5@850MHz vs GDDR3@800MHz) mermóriával. Az ATI 256 az NVIDIA meg 512 bites memóriabuszt használ...
mindegyik kártya nagyjából 200 watt körül fogyaszt