Intel GPU overclockolása Linux alatt

Címkék

Az Intel alkalmazásában álló Daniel Vetter blogbejegyzése szerint lehetőség van bizonyos dolgok együttállása - megfelelő GPU, megfelelő alaplap, legfrissebb drm-intel-nightly kernelág stb. - esetén túlhúzni (overclocking) az Intel GPU-kat Linux alatt. Hogy ezzel mennyit lehet nyerni (ha egyáltalán), az jelenleg ismeretlen (legalábbis benchmarkok nincsenek). Mindenesetre aki eljátszana ezzel, a szükséges infókat megtalálja itt.

Hozzászólások

Lehet, hogy teljesítményben alulmarad a nagy NVIDIA és AMD/ATI társakhoz képest, de inkább használok Intel x3100-at Linux alatt normális és azonnal működő eszközmeghajtóval + elfogadható teljesítménnyel, minthogy napokat/heteket szúrjak el arra, hogy a nagy erőgépnek kinyilvánított kártyákat eljuttassam az X-ig, hogy aztán ugyanarra használjam őket.

Androbit.org - Az informatika érdekes oldala

Több gépen fejlesztek, nagy felbontású monitorokkal. HD videókat néha nézegetek, a játékok viszont más célcsoportnak szólnak. Telljes mértékben elégedett vagyok az Intel féle VGA-val, míg az Nvidia féle szokott bosszúságot okozni. (hot swap, xrandr, nvidia-settings, driver update...)
Így hát leginkább a felhasználási mód függvénye, hogy melyik számodra az optimális. A csúfolással inkább csak a gondolkodásod korlátozottságát fejezed ki.

Magyarázd már el ennek a "korlátolt gondolkodású" (by bitumen) embernek, aki én lennék, hogy az Intel GPU-don hogyan fogsz GPGPU feladatokat megoldani, esetleg lemodellezni, feltextúrázni, meganimálni egy 3 millió polygonból álló 3D tárgyat? Van olyan, aki elvárná, hogy ne csak egy szövegszerkesztő kimeneteként lehessen használni a grafikus kártyát a gépében. Arra meg még majdnem egy Intel GMA 900-as is elég lenne ma is. A szomorú az, hogy - "kis" túlzással - sokkal többre a mai Intel GPU-k sem alkalmasak. Erre értettem, hogy ne hasonlítsuk már össze a az Intel videó kártyáit, az NVIDIA és AMD GPU-ival, mert nagyon nem egy ligában játszanak!

Szerk.: ha már a videószerkesztést említetted, itt egy konkrét példa, hogy miért jó, ha nem Intel a GPU: 10 perc vs. 2,5 perc.
http://www.youtube.com/watch?v=Htv26S-7YqU

Vedd eszre, hogy te vagy most a marginalis jelentosegu felhasznaloi kategoria a GPGPU-val. "A zembereknek" jol mukodo, nem melegedo notebook kell, amivel lehet office-olni, "internetezni", meg filmeket nezni, nem ventillatorzaj generatort szeretnenek vasarolni, meg szopni a driverekkel (ugy linux, mint windows alatt). Lattad hogy porog a netbook, sot meg tablet piac is.
(A GPU IC aljan a hoingadozas miatt jellemzoen 3-5 ev alatt eloregedo forrasztasokrol meg nem is beszelve, bar ez legtobbeknek csak utolag esik le.)

Aki 3 millio poligonbol allo targyat akar meganimalni, meg a meno jatekokkal jatszani, az meg elfogadja a kompromisszumokat es vesz villanykalyhat.

Jelenleg ha olcsobb lenne se vennek nVidias, vagy AMD videokartyas laptopot. Brrrr....

Utanad szabadon: A GPU-nak csúfolt nVidia/AMD-ket inkább ne hasonlítsuk sem energiatakarekossagban, sem driverek minoseget tekintve az intel dolgaihoz!

Hehe...

Ez a komment pont akkor jon, amikor egy Thinkpad T410 es T420 kozott valtok.

T410 - Intel video. Temp max 80 C. Az osszes analog+digitalis kimenet siman megy.

T420 - Intel+NVidia (ez a borzadmany optimus) Max 96 C, de csak azert, mert a CPU throttling ott megfogja. Ilyenkor neha segfaultolnak is a dolgok, munkagepnek kivalo. Raadasul, ha digitalis kimenetet akarsz, akkor az nvidiat _kell_ hasznalni, mert az Intel csak az LVDS1 es VGA1-re van bekotve.

Szoval igen valtok. Csak nem a T410-rol a T420-ra, hanem forditva.
---
Régóta vágyok én, az androidok mezonkincsére már!

En tavaly augusztus ota nezegetek komolyabban laptopokat.
Most egy toshiba van fenyes kijelzovel intel 4500mhd integralt grafikus kartyaval.
A laptop naponta olyan 30-80x fekszik/kel (suspend/resume). Helyszinen gepelek rajta,
van ugy hogy percenkent tobbszor is.
(A laptop most eszi az otodik akksijat. Akksik tobbe kerultek eddig mint a laptop maga)

Volt ATI es Nvidia kartyas laptopom is, es az ezt nem birta. 20-30 suspend meg ment, de random kifagyott (naponta legalabb 1x). Szoval 100 suspend/resume-ot sose ertem el vele.

Szoval az uj laptop vasarlasnal ezek a felteteleim:
- intel 4000HD grafikai modul
- core i7 processzor
- matt kijelzo (tudom-tudom, a fenyes mindenre jo.
De igy 4 ev tavlatabol se tudtam megszokni a fenyes kijelzot. Foleg kulteren szivas)
- 2kg alatt
(jelenlegi 2.4kg, ha pcmcia, cd olvaso, modem, meg hasonlo felesleget lehagynank,
meglenne a 2kg cel)
- 15" (15.4 vagy 15.6)
- jo lenne, hogyha az 800px fuggoleges felbontasnal tobbet tudna.
- jo billentyuzet es magyar (kenyelmesen lehessen rajta gepelni)
- (max 300ezer forint)

Ennek a felteteleknek mindosszesen egy laptop felel meg:
samsung np900x4c

De ezt itthon nem lehet kapni, par boltot kiveve, ahol 600+ ezerbe kerul.
Ez volt tavaly szeptemberben.

Azt hittem ki lehet varni.
De meg mindig ugyanaz a helyzet. Par boltban lehet kapni, es az ar ugyanaz.

Most olvastam, hogy az intel Haswell architekturaja, ami most juniusban jelenik meg,
es intel 4500 HD grafikus magja lesz. Az a intel 4000HD-ra 2x raver sebessegben.

En turelmes vagyok. Ha kell varok meg egy evet vagy kettot.
De ha a felteteleknek lenne laptop ami *most* megfelelne, a penzem felre van teve ra.

Amit mondani akarok, hogy normalis intel-es laptopra a penzt nem sajnalom (esszeru keretek kozott), de az Nvidia/ATI szoba se johet. Barmennyi penzert.

Jah es igen: CAD modellezek limitaltan. Jatszani nem jatszok. Szoval nem az a tipikus szovegszerkeszto/vim felhasznalo vagyok.

---
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

"Vedd eszre, hogy te vagy most a marginalis jelentosegu felhasznaloi kategoria a GPGPU-val"

OK, elfogadom.

"Lattad hogy porog a netbook, sot meg tablet piac is."

Valóban. Nem is ezekről beszéltem. Szövegszerkesztősdihez valóban elég az Intel (GMA 900), de itt valódi GPU-ról beszéltünk. A GPU feladata pedig nem merül ki a GNOME/KDE UI megjelenítésében. Az Intel dolgai pedig másra - kis túlzással - nem nagyon használhatóak. Erre gondoltam, amikor azt mondtam, hogy GPU-nak csúfolt VGA kártya. :) Fogyasztás az megint egy másik történet, abban igazad van.

Én mondjuk elsődleges desktopon pár éve Linuxról OS X-re váltottam, így manapság kevesebbet szívok a Linuxos driverek miatt, így ezen nem vitatkozom, biztosan igazad van.

Arra egyre inkább hajlok én is, hogy notebooknak megtartom a szappantartó Macbookom (egy öreg, NVIDIA 9400M-mel), és a következő gépem egy bivalyerős NVIDIA-s multiboot Hackintosh/Windows 8/Linux munkaállomás lesz, ami véletlenül sem notebook, hanem desktop gép.

Az intel 4000HD nem olyan rossz, mint ahogy azt itt beallitod.

Es szerencsere intel a jo uton halad. Folyamatos a fejlodes, es jobban rafekudnek a gpu teljesitmenyre es fogyasztasra.

Most meg talan kirohogod az intel 4000HD-t (pedig rengeteg jatek elvezheto rajta), de iden jon az intel 4500HD, ami 2x gpu sebesseget iger, es ez csak egyre jobb lesz.

A diszkret grafikus kartya meg diszkret marad annak minden hatranyaval egyutt (fogyasztas, meret, suly). Szoval elobb-utobb szerintem okafogyotta valik a diszkret grafikus kartya, foleg notebookban.

Szerintem par ev es az intel integralt megoldasa pariban lesz az ATI/Nvidia parossal.

((
A kerdes az az, hogy az arm oldal hogy jon fol. Azok is elobb-utobb meg fognak jelenni notebookokban (androiddal vagy anelkul).
))

---
Saying a programming language is good because it works on all platforms is like saying anal sex is good because it works on all genders....

"Szerintem par ev es az intel integralt megoldasa pariban lesz az ATI/Nvidia parossal."

Jaja! Ha sokat mondogatod, akkor előbb-utóbb igaz lesz! Addig amíg ez nem következik be, addig maradjunk inkább a tényeknél, és mondjuk ki, hogy sehol nincs az Intel teljesítményben a dedikált kártyákhoz képest, valamint alkalmatlan GPGPU és komolyabb 3D-s munkákra is!
http://community.futuremark.com/hardware/gpu/Intel+HD+Graphics+4000/com…

"A GPU feladata pedig nem merül ki a GNOME/KDE UI megjelenítésében."

Akkor csak ezt gondoljuk mashogy, en elfogadom, hogy GPU-nak hiv a tobbseg a mobiltelefonban levo IC-ktol kezdve a grafikus munkaallomasok brutal cuccaiig mindent.

"Én mondjuk elsődleges desktopon pár éve Linuxról OS X-re váltottam, így manapság kevesebbet szívok a Linuxos driverek miatt, így ezen nem vitatkozom, biztosan igazad van."

Igen, OS X az ala valo hardwerrel ebbol a szempontbol kenyelmes, bar en (intel GPU-s, intel wifis) ThinkPaddel se szivtam soha semmilyen driverrel linuxon. Amit mondani akartam, hogy windowson sem problemamentes az nvidia/AMD videokartyak drivere.

Csökkentsük a proci élettartamát. Ha lehet Linux-szal túlhúzni, akkor lehet szoftveresen túlhúzni, következésképpen akkor Windóws alatt is lehet. Aztán jöhetnek a vírusok, amik megsütik a processzort.

-fs-
Az olyan tárgyakat, amik képesek az mc futtatására, munkaeszköznek nevezzük.
/usr/lib/libasound.so --gágágágá --lilaliba

ATI-t, NVIDIA-t eddig lehetett overclockolni Windows és Linux alatt is. Hosszú évek óta lehet.

root@alderaan:/home/trey# apt-cache search nvclock
nvclock - Overclock an NVIDIA card
nvclock-gtk - Overclock an NVIDIA card (GTK+ interface)
nvclock-qt - Overclock an NVIDIA card (Qt interface)
root@alderaan:/home/trey# apt-cache search rovclock
rovclock - utility to control frequency rates of your Radeon card

Semmi nagy csoda nincs itt.

--
trey @ gépház

Van egy "pötty" különbség aközt, hogy elégeted az alaplapon lévő GPU-t, meg aközt, hogy elégeted a kigányolható GPU-t. Mondjuk notebookban mindegy.

_______________________________________________________________________

Android: https://play.google.com/store/search?q=artex+studios
iOS: http://itunes.apple.com/hu/artist/artex-studios-inc./id399983944

Sejtettem, hogy erre gondolsz, de nem voltam biztos. Szóval a kivehető kártyáért nem kár, mert az cserélhető.

Nem tudom, hogy az árakkal képben vagy-e, de tudod mennyibe kerül mondjuk egy közép- vagy felső kategóriás Radeon ill. NVIDIA kártya és mennyibe egy Intel GPU-s alaplap?

--
trey @ gépház

Ja, csak nem erről volt szó. Hanem arról, hogy a szálat indító arról beszélt, hogy itt a szép új világ, mert szétégetik majd a processzort. Eddig is lehetett húzni a videokártyákat. Ha nekem teszem azt egy 300 ezer forintos videókártyám van, az ennyi erővel eddig is veszélyben volt. Semmi sem változott. És akkor jössz te és azt mondod, hogy de hát a régi kártyák 3 ezer forintba kerülnek. Igen, jellemzően 3 ezer forintos kártyái vannak azoknak, akik overclocking-ra adják a fejüket.

--
trey @ gépház

Nem nagyon értelek. Ha valaki pörgethet egy xar Intel 4000-et, akkor miért ne pörgethetne más is egy NVIDIA 8400-ast. Mert értelme ugyanannyi a kettőnek. Vannak egy páran, akik nem költenek új GPU-ra, hanem pörgetik a régi vackokat. Akkor viszont nem mindegy, hogy egy Core i5-öt sütsz meg, vagy egy hasonló teljesítményű 7000 Ft-os dedikált GPU-t. Szerintem nem olyan bonyolult matek ez.

Egyrészt felhívták a figyelmed már arra, hogy a processzorok / alaplapok évek óta hővédelemmel vannak ellátva, magyarul előbb kapcsolnak le, mint hogy szétégnének, másrészt továbbra sem értem, hogy miért jött el a szép új világ azzal, hogy mostantól az Intel GPU-kat ___is___ lehet már overclockolni. Még egyszer: a processzorodnál jóval drágább kártyákat is lehetett eddig. Mégsem hallottam még sose olyanról, hogy valakinek malicsusz user szénné égette volna a kártyáját. Szóval nem értem, hogy min rugózunk két napja.

Az Intel processzorokban már sok évvel ezelőtt is volt hővédelem. A Toms Hardware videójára jól emlékszem. Mit történik, ha levesszük a CPU coolert Intel vs. AMD:

https://www.youtube.com/watch?v=gUqWuvfEANs

Utána - ha jól emlékszem - ez a feature beköltözött az AMD processzorokba is. Életemben egyszer volt AMD processzorom '97 körül, szóval tudom 100%-ra.

--
trey @ gépház

A "vérpistike" "hackereken" kívül a "vírusok"* írói azért írnak vírusokat, mert az illegális haszonszerzés a céljuk (vagy mint az utóbbi években láthattuk, "cyberhadviselés". Tehát nem tönkretenni fogják a géped, hanem ellopni az adataid, megzsarolni az adataidért. Nem éri meg tönkretenni a géped abból nincs haszon. Eddig is volt minden gpu-hoz, cpu-hoz szoftveres túlhajtási lehetőség, linux alatt is. Csak most a cpu-ba épített intel gpu magokhoz is lett.

*rootkitek, trojanok, stb-k, nevezzük rosszindulatú szaroknak őket.

---
A Linux nem ingyenes. Meg kell fizetni a tanulópénzt.
Az emberek 66 százaléka nem tud számolni! Gondoljatok bele, ez majdnem a fele!!
Mindenki jó valamire. Ha másra nem, hát elrettentő példának.

Tudtommal ezzel a tipusu overclockkal nem lehet kart okozni a hardwareben, csak a fogyasztas/melegedes/ventillator hangero es a gyorsasag kozott gyarilag valasztott aranyt igeny szerint eltolni. Ha neked gyorsabb GPU kell es nem zavar a fogyasztas, allithatsz rajta. Gondolom ugyanigy lehet underclockolni is, ha jobb neked a lassu, takarekos GPU.