A Microsoft már tavaly bejelentette, hogy a jövőbeli szerver Windowsaiban támogatni fogja a technológiát (a Vistának része lesz, illetve a Windows 2003 szerverhez is elérhető), a Linuxnál ha minden igaz a 2.6.18-as kernelbe fog hivatalosan bekerülni, illetve a FreeBSD-hez is megírták az intelesek a szükséges támogatást.
Az Intel marketinganyagai szerint egy E7520-as chipseten futó Linux 4 Gbps hálózati forgalomnál érte el a 100% CPU kihasználtságot, míg az új Xeont és chipsetet tartalmazó gépen, az I/OAT DMA engine használatával 56%-os CPU kihasználtság mellett közel 12 Gbps-es forgalom ment át a gépen.
Ugyanennél a tesztben a Windows 2003 szerver 70%-os CPU kiterheltség mellett volt képes több, mint 12 Gbps-es forgalomra.
A megoldás számos egyéb helyen és módon is alkalmazható (pld. RAID, storage adaptereknél), egyelőre azonban a hálózati stack gyorsítása az, ami terjedni látszik.
- A hozzászóláshoz be kell jelentkezni
- 2598 megtekintés
Hozzászólások
Hasznos ez az összehasonlítgatósdi.
L: 56%, 12-
W: 70%, 12+
Miközben elvileg egy hardveres megoldásról van szó, az összehasonlításból az jön ki hogy nagyobb forgalom: nagyobb CPU - és minő meglepetés, ez OS-független. :)
- A hozzászóláshoz be kell jelentkezni
Szerintem a Win2003 rosszul mutathatta a terhelest. A Linux nem hiszem, hisz annak a forraskodjaban fel tudjuk turni, es megkapni ha hibazik, de azt mar megkaptak volna. Ki a hibas? A zart forrasu jatekplatform. Mert nem OS, az tuti...
---
Hey! Where'd my terminal go?
- A hozzászóláshoz be kell jelentkezni
A terhelési értékek kb. reálisnak tűnnek, a beérkező csomagoknál a procinak fel kell programoznia a dma vezérlőt. Az a része értelmetlen hogy miért kell külön-külön megemlíteni OS-eket, amikor (elvileg) tökmindegy hogy mi fut valahol a driver fölött öt réteggel feljebb.
Persze ettől ez még egy jó dolog, még a végén elkezdenek majd pl olyan hangkártyákat gyártani amiknek saját memóriája van, és a játékok oda feltölthetnek hangmintákat, és akkor nem terhelik majd a procit és... hmm, várjunkcsak...
- A hozzászóláshoz be kell jelentkezni
Hat igen, ilyen mar volt, pl. Gravis Ultrasound, odaadtad a hangmintakat, es sajat magatol jatszott MIDI-t, vagy barmilyen mukodesben hasonlo formatumot (pl. MOD, S3M, XM, IT).
---
Hey! Where'd my terminal go?
- A hozzászóláshoz be kell jelentkezni
Hát igen, a Gravis Ultrasound. Minden idők legjobb hangkártyája. Annak még lelke volt...
- A hozzászóláshoz be kell jelentkezni
Na, ezt azert ne. Az egy borzalom volt. Foleg bekonfiguralni, mukodesre birni, meg egy 1m2-es kartyat a gepbe beapplikalni....
- A hozzászóláshoz be kell jelentkezni
Akkor sosem lattal Gravis Ultrasound PnP-t. Anno a maga 80db-s jel/zaj viszonyaval a legjobb volt a piacon ebben a kategoriaban. Abban mar volt standalone DAC/ADC, eredetileg 8 megaig lehetett ramot pakolni bele, amit nemi hekkel 16-ra lehetett boviteni. A konfigja annyi volt, hogy iwinit.exe ... Alomszep hangkartya volt, nem volt egy negyzetmeter mint az ACE, stb. Ma is van nekem belole 2db ;) Ofkorz AMD Interwave chip volt a lelke, teljes hardveres GF-1 emulacioval, annak hatranyai nelkul. Pl. GF-1 14 csatornaig birta (a 32-bol) 44kHz-et, Interwave mar 32 csatornaig kepes volt 48kHz-re. Full hardware mix, realtime megefektezte neked. De pontosabb adatokat Chain-Q tud mondani.
---
pontscho / fresh!mindworkz
- A hozzászóláshoz be kell jelentkezni
Turtle Beach-ből nem volt jobbabb? :)
- A hozzászóláshoz be kell jelentkezni
Dehogynem, de az már magasabb kategória volt, árban is ;)
---
pontscho / fresh!mindworkz
- A hozzászóláshoz be kell jelentkezni
Az igaz. :)
- A hozzászóláshoz be kell jelentkezni
Ez jó dolog, de megint azt láthatjuk, hogy jönnek a segédprocis megoldások sorban. Ez már volt régen is (sőt van mostis, scsi, hwraid, etc.), mert "gyengék" voltak a cpu-k. Aztán jött egy "csodálatos" világ, amikor mindent kezdtek a driverek szoftver részébe pakolni (lásd faxmodemek...) és hangkeltők.
- A hozzászóláshoz be kell jelentkezni
De végülis, miért kellene egy CPU-nak elvégeznie minden munkát? Ellenben a "winmodemek" és "winprinterek" koncepcióját erősen ellenszenvesnek érzem.
Ave, Saabi.
- A hozzászóláshoz be kell jelentkezni
Hasonlóképpen érzek én is, viszont ezt a T. tervező arcok nem így gondolták sokáig, merthogy tonnászám van cpuidő. Arra próbáltam utalni, hogy sikerült visszatérni, az egyszer már jól működő dolgokhoz. Egyébként a mindenekfeletti köcségcsökkentés oltárán áldoztak fel mindent.
- A hozzászóláshoz be kell jelentkezni
Elvileg, ha a CPU csinál mindent, az olcsóbb és hatékonyabb.
Olcsóbb, mert kevesebb chipet kell használni.
Hatékonyabb, mert a CPU általános célú, tehat ha nem használom a hnagkártyát, akkor tudom például SETI-re használni a felszabadult processzoridőt.
- A hozzászóláshoz be kell jelentkezni
A videokártyákra gondolom azért raknak külön chipet, mert gyorsabb, ha egy általános célú processzor számolja ki a 3d-s képet, mintha egy célhardver.
- A hozzászóláshoz be kell jelentkezni
Nagyon nagy hülyeség, amit írtál.
Pont fordítva van, mint ahogy Te gondolod. Az általános célú processzor mindenre jó, de semmire nem (elég) JÓ. Minden problémát meg tudsz vele oldani, de mivel semmire nincs igazán kiélezve, egy adott problémánál semmilyen hatékony trükköt nem tudsz bevetni, lévén meg van kötve a kezed.
Ezzel szemben egy célhardver (leginkább) csak az adott problémára használható. Mivel "oda" tervezték, sok olyan gyorsítási lehetőséget belepakolnak, ami miatt a feldolgozási sebessége többszörösére nő egy általános cpu-hoz képest.
A legegyszerűbb példa: a videókártyádon levő chip órajele meg sem közelíti egy több ghz-es cpu-ét, mégis több 100-szor gyorsabban fut a játék, mint ha csak a cpu-t használnád.
- A hozzászóláshoz be kell jelentkezni
Én a számítógépet nem használom játékra, csak filmnézésre. Én mit profitálok a benne lévő fx5200 teljesítményéből? Mennyivel lett gyorsabb a gépem?
- A hozzászóláshoz be kell jelentkezni
Rakj be egy 1 megás S3 Trio-t a gépbe, és próbálj úgy filmet nézni :)
- A hozzászóláshoz be kell jelentkezni
Tudom, hogy van 2d meg 3d gyorsítás is. A 2d-s TNT2 óta nem sokat fejlődött (tapasztalat). Talán HD filmeknél esetleg(?).
- A hozzászóláshoz be kell jelentkezni
Szerinted mindenki úgy használja a gépét ahogy te? Olyan technológia, amit _te_ nem tudsz kihasználni, rögtön hülyeség?
Ave, Saabi.
- A hozzászóláshoz be kell jelentkezni
Írt olyasmit, h az hülyeség lenne?
- A hozzászóláshoz be kell jelentkezni
Betonkodsz vazze? :-)
Amúgy én ezt hallottam ki a hozzászólásából ergo igen, én ezt láttam leírva. :-P
Ave, Saabi.
- A hozzászóláshoz be kell jelentkezni
Lehet, hogy nem elég pontosan fogalamztam. Én nem vagyok a célprocesszorok ellen. Egyfeladatos hardvereknél egyértelmű az előnye, meg az olyan feladatoknál aminnél a mai CPU teljesítmény kevés.
Viszont van sok olyan feladata, amit izomból könnyedén képes megoldani egy mai proci. Ezért tűntek el a hw modemek, MPEG dekódoló kártyák.
- A hozzászóláshoz be kell jelentkezni
Azért, mert az ár miatt igyekeznek a gyártási költségeket minél jobban lejjebb szorítani, azért még nem dobják ki a drága dolgokat. Szerinted miért kerül annyiba egy jobbfajta SCSI/SATA vezérlő, mint egy (átlagos, otthoni) gép? Pedig azokon is van raid kütyü, valahogy mégse ér fel egy komolyabb kártyával.
Persze amit lehet, azt megspórolják. De tudtommal az MPEG kártyák a P1-esekhez kellett, mert azok viszont gyengék voltak a lejátszáshoz. Megjegyzem az 1333-s Thunderbirdem se birkózik meg egy HD felbontású videókkal már (pedig nem olyan gyenge az a gép), (Igaz a 3000+-s Semptron viszi már :)
- A hozzászóláshoz be kell jelentkezni
Pl. Xv ugyanazt az engine-t használja a videokártyádból, mint a 3D accel... Próbálj meg egy DVD-t sw scale-val megnézni, rögtön megtalálod azt a pontot, ahol igenis kihasználod azt a celprocesszort.
---
pontscho / fresh!mindworkz
- A hozzászóláshoz be kell jelentkezni
Van itt a fiókban egy Voodoo2, érdekes nem nagyon akarta használni a célprocesszorát:P. Teszteltem TNT2-vel, meg GF2-vel is a 2d-s gyorsítás, mindkét esetben a CPU-t ugyanannyira terhelete. GF2 3D-s teljesítménye többszöröse TNT2-nek. XV miért nem használja ki?8-)
- A hozzászóláshoz be kell jelentkezni
Kérdezd meg attól, aki a drivert írta hozzá. Nem hiszem, hogy e kérdésre nekem kell válaszolni :)
---
pontscho / fresh!mindworkz
- A hozzászóláshoz be kell jelentkezni
Tudtommal nem. Külön van video colorspace converter és scaler engine és külön fill texture interpolator 3d rendereléshez. Kicsit mást csinálnak ugyanis, bár tény, hogy elvileg a texture interpolator el tudja látni video scaler feladatát is. Igaz manapság egyre inkább abba az irányba mozog az ipar, hogy a GPU általános célú VLIW végrehajtóegységekből áll és a driver azokat osztja be különféle feladatokra. De AFAIK egyelőre videolejátszásnál a deblocking, deinterlacing és hasonló postprocessing feladatokra használják csak a pixel pipelineokat a grafkártyákban, a skálázást továbbra is dedikált video scaler egység végzi. Ugyanis ez a megoldás lényegesen kevesebb áramot fogyaszt. Másrészt pedig egy régóta megtervezett és bevált hardver elemet könnyebb egy az egyben átemelni egyik termékgenerációból a másikba, a drivert sem kell átírni, a régi driver video overlay része automatikusan működni fog az új hardverrel is.
---
Az ember mindig szerepet játszik. Ha másnak nem, hát saját magának.
- A hozzászóláshoz be kell jelentkezni
És milyen izgi lesz, ha kiderül, hogy ebben az OS független hálózati stackben valami biztonsági hiba van...
...amit kihasználva mondjuk tetszőleges címről/re lehet DMAzni a memóriába...
---
Az ember mindig szerepet játszik. Ha másnak nem, hát saját magának.
- A hozzászóláshoz be kell jelentkezni
http://www.cs.rice.edu/CS/Architecture/docs/kim-eurosys06.pdf
érdemes elolvasni, sokkal bonyolultabb a probléma, mint elsőre gondolná az ember
- A hozzászóláshoz be kell jelentkezni