- A hozzászóláshoz be kell jelentkezni
- 5811 megtekintés
Hozzászólások
jó kis vizuális illúzió a kezdő kép :)
- A hozzászóláshoz be kell jelentkezni
Parallella: bitcoin bányászat mindenkinek :)
Ugyanakkor érdekes irányokat nyithat az otthoni kép- és videó-szerkesztésben, egy fokkal hasznosabbnak tűnik, mint a Rasberry Pi.
- A hozzászóláshoz be kell jelentkezni
Persze. Igy mar el is eri egy negy magos i7 kepessegeit a parhuzamos rendszerek osszes nyugjenek hatvanyozott behozatalaval. :) Rpi-nek legalabb van annyi ertelme, h barkacsolasra alkalmas, ez csak toke kereses.
---
pontscho / fresh!mindworkz
- A hozzászóláshoz be kell jelentkezni
"Igy mar el is eri egy negy magos i7 kepessegeit..."
5W-bol.
Itt 50 GFlops/Watt-ot igernek. Az intel i7nek pedig elvileg 0.72 Gflops/Watt elmeleti csucsa van.
http://www.cotsjournalonline.com/articles/print_article/101617
---
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....
- A hozzászóláshoz be kell jelentkezni
Persze. Ismerven az architekturat ezen jot rohogtem.
---
pontscho / fresh!mindworkz
- A hozzászóláshoz be kell jelentkezni
Ha hozzáveszed a fogyasztást és az árat, akkor még akár megérheti a nyűgök felvállalása is.
Az alkalmazhatóság még nekem is kérdéses.
- A hozzászóláshoz be kell jelentkezni
Ha hozzáveszed a fogyasztást és az árat, akkor még akár megérheti a nyűgök felvállalása is.
Valos alkalmazasok tekinteteben nincs pariban. Probaltuk, ez ebben a formaban sem hardver, sem szoftver oldalrol nem mukodik a gyakorlatban.
---
pontscho / fresh!mindworkz
- A hozzászóláshoz be kell jelentkezni
Esetleg ha elmondhatod, tudnál erről kicsit részleteket mondani? Pl. konkrétan ezzel a chippel volt már dolgod, vagy egy hasonlóval?
- A hozzászóláshoz be kell jelentkezni
Ami nekem nem világos, hogy a chipet hogyan fogják az ARM SoC-hoz kötni, illetve eleve milyen SoC-t használnak. A 8GB/s -es külső kommunikáció nem hangzik rosszul, csak kérdés, hogy lesz-e aki lapátolni tudja majd az adatokat ki és be.
Olvastam olyan spekulációkat, hogy hasonló sokmagos, általános célú chipekkel elvileg a specializált GPU-kat és video encoder / decoder engine-eket ki lehetne váltani. Szerinted ez az architektúra alkalmas lehet erre? Nem feltétlenül ezzel a külön chipes megoldással, hanem ha egy SoC-be építenék 2-4 ARM maggal együtt.
Én bevallom, kicsit szkeptikus vagyok, bár örülnék neki, mivel ez a GPU terület az utolsó, ahol nagyon zártak még a user-space driverek is.
Üdv,
Gergely
- A hozzászóláshoz be kell jelentkezni
Az alapotlet nem hulyeseg, csak a kivitelezes az. Az, h altalanos celu cpu-kat hasznaljon egy eszkoz akar grafikara, nem ujdonsag, anno pl. a SUN gepek videokartyaja egy megfelelo szoftvert futtato Motorola 68020 volt. (Emlekszik az Amiga tulajokon kivul barki is ezekre a vasakra?) Kesobb ezzel az elkepzelessel megprobalkozott az Intel is ugye a Larrabee-vel, ahol egyszerusitett x86 magok tomegevel akartak kivaltani a gpu-k parhuzamos egysegeit (ami ugye ha vesszuk az x86-ot mar eleve kretenseg), de nekik is becsodolt ez a projectjuk. Az alap problema egyszeru, evtizedek ota kuzd vele a hardver ipar, az io teljesitmeny (beleertve a memoria interface-t is) egy vicc.
Ez a problema az ARM SoC-oknal, tok mindegy mit hazudnak be a gyartok es mit irnak az adatlapra, a gyakorlatban kivalo humorforras. Jo pelda erre most eppenseggel az Apple A6, nem csinaltak semmi kulonoset, csak rendbe tettek a memoria interface-t (persze azert van meg par trukk benne) es kapasbol duplajara nott a vas teljesitmenye. Csakhogy ez ebben az iparban jelenleg egyedi allaspont, a tobbi SoC gyarto csak most fogja ezt az otletet beepiteni. Innentol kezdve hiaba a szamitasi kapacitas (ami talan meg meg is talalhato lenne egy ARM cpuban), ha nem lehet kihajtani, mert ehezik a cpu.
A masik komoly problema ezeknek az architekturaknak a programozasa. Az ilyen masszivan parhuzamositott rendszerekben az adat eleres, az adattarak szinkronizalasa elsodleges, egyaltalan nem trivialis problema ha jol akarod csinalni. Es akkor a magasabb szinten futo szoftverekrol meg nem beszeltunk.
Ezeket a problemakat ket iranybol akarjak csokkenteni, egyreszt ujra eljutottunk oda - mint a nagy szoftvergyarak is a menedzselt kodtol vissza a nativig - h specializaljuk a vasat, ezert van az, h a legujabb generacios Intel chipek ujra tartalmaznak video feldolgozo egysegeket, dsp-ket, masodsorban ezert talaltak ki a tranzakcios memoria kezelest is.
Anno (egy eve talan) megprobalkoztunk hasonlo vasat osszehozni arm alapokon, de minden elerheto soc-nak volt ket kozos problemaja, ha nem SIMD modellt alkalmaztal a szamitasoknal es/vagy ha tul sokat bolygattad a soc-on kivuli vilagot, akkor az egesz vas teljesitmenye egy vicc volt. Ha belul maradtal a sziliciumon, akkor is eppen csak elment egynek. Ez a problema iden sem valtozott. Sajnos ezen az egy lapra integralt arm core-ok szama sem feltetlen tud valtoztatni, mert ott is kommunikalnia kell egymassal a magoknak es a kulvilaggal. Itt az lenne jo, ha rendbe tennek az io-t es elso sorban nem az ilyen hulyesegekkel szopatnak egymast az ARM Inc es a vasarlok, mint pl. a 64 bit. Akkor valoban versenytars lenne.
Viszont ha ez az architekturalis lepes megvalosul sem fog valtoztatni a driver helyzet kerdesen, mert ezt is meg kell hajtani valamivel es siman megoldhato, h csak binaris driverrel mukodjon. :)
---
pontscho / fresh!mindworkz
- A hozzászóláshoz be kell jelentkezni
Viszont ha ez az architekturalis lepes megvalosul sem fog valtoztatni a driver helyzet kerdesen, mert ezt is meg kell hajtani valamivel es siman megoldhato, h csak binaris driverrel mukodjon. :)
Ha ez a Parallella board lehetővé tenné, hogy a Gallium llvmpipe drivert ehhez a 16/64 magos csodához portolják, és így már elfogadható legyen a host CPU terhelése + értelemszerűen normális framerate-eket tudna, akkor lehet, hogy kicsit megváltozik a GPU driver képlet:
- Azt igérik, hogy NDA nélkül elérhető lesz a teljes dokumentáció
- Ha relatíve olcsóért adják az IP-t, akkor meg fogja érni olyan SoC-kat gyártani, amibe dedikált GPU helyett ilyet pakolnak.
- Mivel lesz olyan hardver, amivel üzletileg érdemes használni, a Mesa fejlesztése is fel fog gyorsulni ha néhány SoC gyártó elkezdi pumpálni bele a pénzt.
Persze mindez azon múlik, amit te is írsz, hogy értelmes memóriainterfészt lehet-e csinálni hozzá.
Üdv,
Gergely
- A hozzászóláshoz be kell jelentkezni
Az otthoni kép és videószerkesztésre alkalmasabbnak tűnnek a GPU-k bevonása.
Ez inkább a Mesterséges Intelligencia felhasználásoknál lehet alkalmas, pl. felismerések, vezérlések, optimalizációk.
- A hozzászóláshoz be kell jelentkezni
subscribe
- A hozzászóláshoz be kell jelentkezni
sub
- A hozzászóláshoz be kell jelentkezni
A videót nem néztem, de hol szuperszámítógép ez?
--
Discover It - Have a lot of fun!
- A hozzászóláshoz be kell jelentkezni
Itt azt írják, hogy ez még csak az első lépés, és kb. 10 év múlva érik el a szuperszámítógép tudást. 10 paralella lapka, mindegyiken 1024 magos proci (chip-enként 2048 GFLOPS) azt gondolják, hogy már annak lesz tekinthető.
Jelenleg a 16 illetve 64 magos chip-nél tartanak
- A hozzászóláshoz be kell jelentkezni
10 év múlva... lol.
Addigra már a szuperszámítógép kategória is más lesz...
Különben meg ma már mindent szuperszámítógépnek mondanak, amiben a kelleténél több processzor van. Mert az trendi. :-(
- A hozzászóláshoz be kell jelentkezni
Én szerintem azt írja, hogy 10 mostani parallella lapka clusterben 10 évvel ezelőtt supercomputernek lett volna tekinthető. Ha visszagondolok, hogy egy pár 10 nodeos AMD K6 ... stb. processoros valamik voltak az egyetemi "supercomputer"-ek, akkor ez nem feltétlenül hamis állítás.
Ha ez a kickstarter projekt sikeres lesz, akkor lesz elég tőkéjük nekiállni az 1024 core-os lapoknak, ami már mai léptékkel is supercomputernek tekinthető. Erre szerintem nem írt 10 évet, csak a 2018-as DARPA challenge-et emlegette egy elég homályos állítással, hogy már most "majdnem elérik" az ott meghatározott energiahatékonysági mutatókat.
Üdv,
Gergely
- A hozzászóláshoz be kell jelentkezni
Ha csak a magok számán múlna, akkor egy gránátalmát is szuperszámítógépnek mondhatnánk...
- A hozzászóláshoz be kell jelentkezni
:DD
- A hozzászóláshoz be kell jelentkezni
Hehe, ez tetszett :)
- A hozzászóláshoz be kell jelentkezni