A számítógépet speciális C nyelven (CUDA) írt alkalmazásokon keresztül lehet munkával ellátni. A CUDA C fordítóprogram, fejlesztői toolchain és SDK (Windows, Linux, OS X) ingyenes letölthető az NVIDIA-tól.
Számos alkalmazás került már portolásra a CUDA-ra - péládul a Mathematica, LabView, ANSYS Mechanical -, és egy rakás tudományos kód érhető el a molekuláris dinamikától kezdve a kvantum kémián át az elektormágnesességig bezárólag. Ezek a CUDA Zone-on találhatók meg felsorolva.
- A hozzászóláshoz be kell jelentkezni
- 4050 megtekintés
Hozzászólások
ugyes, szerintem ezzel a cuccal aratni fognak egy sajat (nem is kicsi) niche-ben.
- Use the Source Luke ! -
- A hozzászóláshoz be kell jelentkezni
CUDA(r)ul kell hozzá programozni...
- A hozzászóláshoz be kell jelentkezni
legalabbis c-ben. az meg jo ;)
- A hozzászóláshoz be kell jelentkezni
gondolom a villanyszámlát is megdobja kicsit...
- A hozzászóláshoz be kell jelentkezni
Meg, de nem annyira, mint egy hasonló teljesítményű cluster.
- A hozzászóláshoz be kell jelentkezni
"Persze a konkurencia sem alszik, az Ati most jelentette be, hogy a Radeon HD 4870 X2-es kártya egymagában 2,4 teraflops teljesítményre képes, kétszeres pontosságú számolásnál pedig 480 gigaflopsról beszélünk, ami bőven több a négy Tesla-kártya teljesítményénél."
innen
- A hozzászóláshoz be kell jelentkezni
Jól hangzik. És az AMD-től is letölthető valami CUDA-szerű környezet, amivel használni is lehet ezt a teljesítményt?
- A hozzászóláshoz be kell jelentkezni
természetesen. Stream (bámulatosan eredti név)
A CAL és a Brook+ könyvtárakat használja. Elérhető hozzá az sdk.
Bővebben itt:
http://www.phoronix.com/scan.php?page=article&item=amd_stream_qa&num=1
- A hozzászóláshoz be kell jelentkezni
Ahan, wow. Köszi!
- A hozzászóláshoz be kell jelentkezni
Vajon az Ati Radeon támogatás meg fog jelenni valamikor a gcc-ben?
Nvidiáéknál erre nincs esély, a Radeon megoldása viszont open-source.
- A hozzászóláshoz be kell jelentkezni
Ezt a kérdést nem értem.
Egyrészt miért kellene a támogatásnak magában a gcc-ben lenni? Másrészt meg az NVIDIA CUDA fordítója (nvcc) jelenleg is úgy működik, hogy ami a GPU-nak szól, azt maga lefordítja, a többit meg átadja a gcc-nek, vagyis akár a gcc GPU-t kezelő kiterjesztésének is tekinthetjük. Nem hiszem, hogy értelme volna ennél szorosabb kapcsolat kialakításának.
- A hozzászóláshoz be kell jelentkezni
Javítson ki valaki, de mintha ez a project már jó fél v. 1 éve élne.. Igaz akkoriban még csak a normál többszálusításra mentek rá ( elcomsoft-os jelszótörő pl. ). De akkor mi ebben az újdonság?
____________________________________
Az embert 2 éven át arra tanítják hogyan álljon meg a 2 lábán, és hogyan beszéljen... Aztán azt mondják neki: -"Ülj le és kuss legyen!"..
- A hozzászóláshoz be kell jelentkezni
Az az újdonság, hogy készen kapsz egy komplett gépet, amibe bele van építve egy marék jó GPU. Nem neked kell összevadászni alkatrészenként, aztán szívni az összerakással.
- A hozzászóláshoz be kell jelentkezni
alkatreszenkent ossze lehet ettol fuggetlenul vadaszni? ha mondjuk van egy felesleges pci-x csatlakozo, abba csak egy egyseget betenni, nem mind a negyet, oszt hajra?
- A hozzászóláshoz be kell jelentkezni
Elvileg igen. Felrakod, beallitod az nvidia drivert, installalod a CUDA-t, aztan hajra. A szomszed szobaban pont ezzel szenved a kollega egy ideje. A display egy alaplapi NVIDA-rol megy, es pluszban be van meg pattintva egy GTX 280.
A demo programok mar mennek. :]
Ezek a CUDA-s kartyak:
- A hozzászóláshoz be kell jelentkezni
Ja, ez jo, koszi; mondjuk egy listan szereplo" geforce pityputtyot mar 80 taller korul lehet szerezni, az jo. Csak kerdes hogy ebben mi van (hany mag, milyen topologiaval), ill. ha az ember ezt megtanulja mondjuk, es kesobb hozzavagnak egy tesla-t, akkor a kis kartyakon felszedett tudas/tapasztalat mit e'r majd nagyban :] Na majd par honap, oszt utana csak lesz egy kis idom jatszani ilyenekkel. Trendy, plusz C, talan erdemes belefeccolni egy kicsit...
- A hozzászóláshoz be kell jelentkezni
inkább 2-3 éve, a 8-as nvidia sorozattól kezdve nem sok változott (azóta van ilyen tesla készre pakolt gép is meg cuda is), az újdonság az hogy most jelent a hupon meg:)
- A hozzászóláshoz be kell jelentkezni
Ahan. Ezt nem tudtam. :]
- A hozzászóláshoz be kell jelentkezni
- A hozzászóláshoz be kell jelentkezni
oké, a csomagolás sokat számít (ahogy lentebb írtad) :)
- A hozzászóláshoz be kell jelentkezni
"in a form factor of a standard desktop workstation."
Ahogy én tudom, eddig (1U) szerver méretben volt elérhető, de most akár az asztalodra is teheted, mert egy desktop méretben megkapod a teljesítményt.
--
trey @ gépház
- A hozzászóláshoz be kell jelentkezni
Akkor az eddig vásárolt Playstation 3-akat cserélhetem is le? :DDD
____________________________________
Az embert 2 éven át arra tanítják hogyan álljon meg a 2 lábán, és hogyan beszéljen... Aztán azt mondják neki: -"Ülj le és kuss legyen!"..
- A hozzászóláshoz be kell jelentkezni
Annó irtam egy programot, (Ill elkezdtem de nem tudtam megiírni, mert a futási idő olyan 19-21 hónap volt, de ez méga PII-korszakban), kvantummechanikai hullámegyenletett oldott meg numerikusan, nem volt nagy só megírni minden kész volt hozzá cdak össze kellett rakni. Na rra kíváncsi volnék mit dob ki, mennyi idő alatt futna le egy kölcsönhatásszimuláció. :) zseniális. Kelle egy ilyen. :)
- A hozzászóláshoz be kell jelentkezni
Bizonyára nagyot lendítene a dolgon a CUDA, de van egy rossz hír is: teljesen újra kell írni a programot, illetve a megoldandó feladatnak olyannak kell lennie, ami "bírja" a masszív párhuzamosítást.
- A hozzászóláshoz be kell jelentkezni
De azt nem lehet párhuzamosítani. Ha nincs "A" akkor nem tudom rá ksizámolni "B"-t ..... Ez egy közelítőszámítás sajnos. Tehát sokra nem menék vele ezek szerint.
- A hozzászóláshoz be kell jelentkezni
Ha a kommunikacios koltseg nem tul magas, akkor parcdiffeket eleg jol lehet parhuzamositani. Nem mondom hogy trivialis, foleg a szinkronizacio miatt (ami me'g plusz idoveszteseg). Ha ezen a GPU-n belul ezek nem jelentenek gondot, akkor az csak jo. A cellben, legjobb tudomasom szerint, pl az a szopas, hogy a ppc mag beleszolasa elkul az egyes vektorprocok nem is tudnak egymassal szinkronizalni es adatot cserelni.
- A hozzászóláshoz be kell jelentkezni
Szinkronizálni az NVIDIA GPU-ban is csak az egy multiprocesszorhoz tartozó magok tudnak (16 mag processzoronként), viszont ez a parc. diff. megoldást történetesen nem zavarja, mivel a szükséges pontokat be lehet spájzolni megosztott memóriába.
- A hozzászóláshoz be kell jelentkezni
Igaz erre nem is gondoltam, hogy a diffegyenleten belül párhuzamosítsak, ott simán megoldható, arra gondoltam hogy párhuzamosan x diffet hogyan, de olyat nem lehet. Emiatt most azért nem írom újra a diplomamunkámat :D.
- A hozzászóláshoz be kell jelentkezni
Nana', hogy nem tud, leven az SPU csak DMA-n keresztul erheto el, leven a PPE azt programozza fel, hogy milyen adatokat lapatoljon bele az SPU 256k-s "bufferebe" , mivel semmilyen kozvetlen kapcsolata nincs a kulvilaggal.
---
pontscho / fresh!mindworkz
- A hozzászóláshoz be kell jelentkezni
Kar, hogy a GPU-k alapvetoen single precision-ban mukodnek, bar persze ha valakinek ez eleg, akkor jo lehet neki.
- A hozzászóláshoz be kell jelentkezni
ez nem teljesen igaz. az AMD már egy ideje ad double precision GPU-kat is. keress rá. (hint: FireStream)
na, mhogy ne kelljen nagyon keresgélni: http://ati.amd.com/technology/streamcomputing/index.html
- A hozzászóláshoz be kell jelentkezni
Jah, csak sokkal kisebb teljesitmennyel.
- A hozzászóláshoz be kell jelentkezni
hát, nagyjából 1:5 az arány:
1.2 TFLOPS (single), 240 GFLOPS (double)
egyetlen garfikus magon (800 stream processzorral)
nem olyan rossz ez :)
ebből egyébként jól látható, hogy a firestream single precision-ben nagyjából 20%-os, double precision-ben 200%-os előnyben van a tesla-hoz képest. mindezt feleannyi (2GB vs 4GB öhöm-öhöm), bár gyorsabb (GDDR5@850MHz vs GDDR3@800MHz) mermóriával. Az ATI 256 az NVIDIA meg 512 bites memóriabuszt használ...
mindegyik kártya nagyjából 200 watt körül fogyaszt
- A hozzászóláshoz be kell jelentkezni