Intel ARC B580 tapasztalatok

Nekem perpill egy amúgy igencsak megkímélt állapotú 5 éves RTX 2070 Super-em van, aminek a teljesítménye számomra még elég arra amire nagyritkán használom. Viszont kíváncsi voltam, mire lehetne fejleszteni, ha nem is a nagyobb teljesítmény miatt, de az alacsonyabb fogyasztás, emiatt kevésbbé melegedés, ergo alacsonyabb venti fordulatszám és végsősoron csendesebb működés vonalon.

A GPU fronton az elmúlt években kb. állóháború alakult ki a 2 szereplő között. Vehetsz nvidia-t vagy amd-t. Covid óta Nvidia árak a csillagos egekben, ha a leggyorsabbat akarod, akkor nem kérdés h. nvidia. AMD-t meg akkor, ha olcsóbban akarod megúszni. De cserébe az AMD sok helyen rosszabb (lassabb), Raytracing-et gyengébben viszi, nem tud CUDA-t ami kb. minden elterjedtebb AI-os dologhoz alapszükséglet, általános driver hülyeségek, szóval van bőven gond. Nvidia-val is, szóval azért azok sem tökéletesek. De itt most nem nvidia vs amd hitvitáról akarok írni.

Ebbe a 2-pólusú világba "rontott bele" az Intel 2 éve az ARC kategóriás kártyáival. Az integrált (CPU-s) GPU-ja azt hiszem "Xe" néven fut, ami hasonlatos az ARC-hoz, de itt most csak a különálló ARC-ról lesz szó, az integrált kategóriáról nem.

Az ARC sorozat 1. generációja az ALCHEMIST, a szó első betűjéből röviden "A". Minden új generációnak az ABC következő betűiből adnak valamilyen fantázianevet. Ezen belül van több teljesítményszint: belépő A300-as sorozat, középkategória A500-as sorozat, végül a teteje az A700-as sorozat. Mindegyik sorozatban van 1-2 konkrét model, A380, A580, A750, A770 stb. Ezekről nincs sok tapasztalatom, nem volt ilyen kártyám. Olvastam annó h. szépszép, kicsit gyenguskák, de cserébe jóval az nvidia és az amd árai alatti ligában játszanak. Első generációs termék lévén a szoftverrel vannak mindig gondok: a drivereket folyamatosan kellett reszelnie az intel-nek, elvégre is "csak" vagy 20 év lemaradást kellett ledolgozniuk erőltetett menetben.

Viszont kíváncsi lettem a nagy felhajtással beharangozott új Intel B (B, mint BATTLEMAGE) 2. generáció mit tud így 2 évvel az A generáció megjelenése után. Az összes influenszer-jutuber 2024 december elején a hivatalos start-kor mind felmagasztalta, hogy 250$-ért most ez a csodakártya, és mindenki csak ezt vegye, ha belépő középkategóriára lő és nem akar 2000$-t költeni highend-re!

A kínálatban van először is az intel saját márkás "Intel ARC B580 Limited Edition" kártyája. Ez a referencia dizájn, gyártják pár hónapig, aztán ha mind elfogyott, ebből több már nem lesz. Ha ennél kicsit profibb változat kell, vannak Board Partnerek (kb. az Asrock és a Sparkle a 2 akikről tudok) akik kicsit drágábban, komolyabb hűtéssel rendelkező, kicsit feljebb clockolt, de amúgy kb. pont ugyanolyan képességű B580-akat adtak ki. Megjegyzés: 2025 januárban kijött a kicsit butított B570 is, de ezzel nem foglalkozok. Kicsit olcsóbban sokkal butítottabb megoldás, nem éri meg a B580-al szemben.

A hype-nak meg is lett a hatása: az 1. készlet kb. azonnal el is fogyott amerikában a bejelentéskor. Az EU-ban a környező országokba pedig alig-alig jutott pár darab. Idehaza egy pillanatig volt kint Alza-n egy pár, de az is kb. azonnal elment 125 ezerért. Karácsony környékén megint kikerült pár darab, de aztán már csak előrendelés volt januárra ígérve. Aztán 1-1 darabokat kapott valaki az előrendelők közül, az ígért dátum meg februárra változott. Aztán márciusra. Márc 15. előtt pár nappal bejött 1 újabb készlet, illetve úgy tűnik sokan meggondolták magukat és visszaküldtek kb 10-es nagyságrendben párat. Ezeket 85-ért adta az Alza (mivel az állítólag 40 ezres értékű játékutalványt feltehetőleg már felhasználták az 1. vevők belőle). Így egy ilyen visszaküldöttre gyorsan le is csaptam, amúgy kevesebb mint 10 perc alatt mindegyik ilyen elfogyott. Aztán a többi -előre sejthetően- ment is ki hardverapróra 100-ért, emberünk aki felvásárolta óket, azóta már mindegyiket el is adta, éljenek a scalperek.

Szerencsére az Intel ref kártyát nem bolondították meg RGB-vel, csak egy "intel arc" felírat világít fehéren a gerincén bekapcsolás után. Viszont ezt nem lehet (legalábbis még nem jöttem rá, hogyan) kikapcsolni.

Közben kiderült pár héttel a bemutató után, hogy azért nem minden olyan szépen fénylik, ahogy a nagy hype-ban írták az influenszerek: mindenki csúcskategóriás processzorral tesztelte, így valóban meglepően jó a teljesítménye az árához képest. Ha azonban régebbi, gyengébb processzor mellé teszed, kiderült h. nagy overhead-je van (vagy a drivernek, v. végső soron a hardvernek), és úgy már nem olyan szépek az eredmények.

A PCIe Resizable Bar kb. kötelező, h. be legyen kapcsolva. Ellenkező esetben kimondottan gyengén muzsikál (megnézem 1-2 kokrét esetnél ha már ott járok). Éppen ezért régebbi géphez, ami nem támogatja a Rebar-t, nem is érdemes megvenni. Az intel control panel pl. látványosan sipítozik, ha a Rebar nem engedélyezett, szóval nehéz nem tudomást venni erről az igényről.

A szoftveres részen látszik, hogy az intel-nek nagyon sok mindent kell még pótolnia. Illetve a cég jelenlegi általános állapotát ismerve nagyon érződik h. minden team vezetés hiányában megy észnélkül a feje után. Az A szériához készített ARC control panel-t most nagyhirtelen leváltó Intel Graphics Control (vagy hogy a manóba hívják, majd kijavítom ha utánanéztem) pl. elvesztette az Overlay képességet, meg úgy kb. a Studio szekciót (streaming funkcionalitás) kompletten.

Pletyka szintjén lehet hallani, hogy B generációból nem is lesz már B700, mert az Intel dobta az egészet. Pedig egy B780 16 GB VRAM-al, nagyobb core ccount-tal már egészen versenyképes is lehetne a 2 melákkal, főleg ha ennek az árával is alatta tudnak maradni náluk. Hát majd kiderül, ha 2025 nyaráig nem érkezik semmilyen hír a B700-ról, akkor esélyes h. igazak voltak a pletykák. Akkor Intel GPU-val játszadozó embereknek csak a B580 marad.

Kamufelbontás

Aki az utóbbi 6 évet barlangban töltötte, nem hallott róla mi az aktuális trend videókártyáknál a felbontás kérdésében: már nem bírják tartani a lépést a trágyán megírt erőforráspazarló játékokkal. Ezért valami géniusznak az az ötlete támadt, hogy akkor rendereljük le a képet valamivel alacsonyabb (30-50%-al) felbontáson, aztán a végén skálázzuk fel. Ezzel többet lehet spórolni a sebességen, mint amennyibe kerül maga a jó minőségű végső átméretezés. Az nvidia-nál a resolution upscale technika neve DLSS. Ez most a v4-nél jár. AMD-nél ugyanezt az FSR csinálja, ők is a v4-nél járnak. Az intel-nél pedig XeSS van. Ebből az A generáció csak a v1-et ismeri. A B generációra ígérték a v2-t. Ez eléggé megkésett, mert csak most 2025 március közepén jött ki a v2 SDK. Éppen ezért nem is meglepő, h. talán 3 v. 4 játék létezik összesen 2025 áprilisában, ami ezt támogatja.

Itt van a lista, hivatalosan mik tudják az XeSS-t (99% csak a v1-et), valamilyen szinten:

https://game.intel.com/us/xess-enabled-games/

Viszont a v1-re elkezdődött a siránkozás, h. az intel a 1.3.1-nél szépen félbe is hagyta a fejlesztést, és 2024 közepe óta bugos, az A generációs tulajok nagy "örömére":

https://www.reddit.com/r/IntelArc/comments/1j3a4o7/xess_1_has_been_aban…

Érdekes adalék, hogy állítólag az XeSS-re az Intel úgy hivatkozik, mint open-source megoldásra. Ezt úgy gondolták, hogy a bináris .exe-t és .dll-t feltolták a Github-ra egy source_code.zip-ben (hello Linuxosok ugyebár!). Ettől pedig az egyből open-source lett. Mivel elég sokan vágtak erre furcsa pofákat anno, van is egy 2,5 éves github issue (ami open azóta is, és 1 intel alkalmazott sem szólt hozzá, vajon miért?) a témában:

https://github.com/intel/xess/issues/5

Idle fogyasztás

Amiről kevés szó esett az első tesztekben: a GPU core clock-ot terhelés hiányában szépen visszeveszi 2850-ről 400 Mhz-re, így az szerencsére nem eszi a teljesítményt feleslegesen. Viszont a VRAM-ot járatja csutkán 2375 Mhz-en ilyenkor is. Emiatt valószínűleg melegszik idle-ben is a komplett kártya: nálam kb. stabilan 46 fok pár perccel a gép bekapcsolása után, úgy h. 3D programot nem indítottam, windows desktop-on áll. Az Intel control panel cselesen csak a GPU core fogyasztását mutatja, ami 19 Watt körül áll ilyenkor. Viszont pl. a HWInfo v. a GPU-z a Total Board Power-t is megmutatja, amibe bizony beleszámítja a VRAM power-t, és az egyéb áramzabáló részegységeket is. Így végül az össz-fogyasztás már a 35-40 Wattot éri el. Ami azért már elég sok idle-ben egy ilyen kártyától.

Hevenyészett gyorsteszt alapján az IDLE fogyasztás: HWINFO64, ill. a GPU-Z legutolsó aktuális 2024 áprilisi verziói kezdik egyre jobban ismerni az ARC B-t, és kerülnek be újabb monitoring számlálók (temp, voltage, power stb.)

- total GPU power: kb 18W
  ez ennyi, ha ül idle a windows desktop, és nem csinál semmit (task manager szerint sincs se 2D se 3D load; ez trükkös lehet, mert pl. háttérben minimalizáltan futó browserben mehet 3D-gyorsított GPU rendering bárhol)

- GPU memory power: kb 8W, miközben végig stabil fix 2375 Mhz
- total board power: kb 35W

Na és most jön az érdekesség: az intel-nél van knowledge base article a high idle load-ra (ez már rosszat jelent, h. tudomásuk van róla, és le is merik írni): 
High Power Consumption when Intel® Arc™ Graphics Card is Idle

Mivel az A szériára is vonatkozik, nem csak a B-re, ez valószínűleg egy alapvető dizájn hiba / benézés. Az h. az A után a B-ben sem javították ki, előre vetíti h. ez bizony velünk fog maradni a termék életciklusa végéig, nem lesz rá  soha szoftveres fix.

A cikk szerint windows-ban és BIOS-ban be kell kapcsolni a PCIe ASPM (Active-state power management) opciót. Windows oldalon a lépés egyértelmű. Azonban a BIOS rész már nem az, mert ASPM-ből is van L0s es L1 is. Aki tudja mi a különbség, tegye fel a kezét. Lehet újabb iparági gányolásba beleásni, ha az ember ki akarja deríteni, meg akarja érteni.

Ezeket bekapcsolva viszont nálam 1 Watt-ot nem csökkent az idle fogyasztás, kb. marad minden változatlan.

Ezután próbáltam meg értelmezni a megadott feltételeket:

The power consumption of Intel Arc Graphics cards (even during Idle state) depends largely on the number of displays connected to the card and each display's resolution/refresh rate.

Ahogy kivettem, több szintű korlátoltsága van szerintem ennek az energiatakarékos dolognak:

1 monitor esetén 4K @ 60Hz a max, ameddig tud működni low power-ban.
2 monitor esetén már csak 1080p @ 60Hz a max, ameddig mehet a low power
3-4 rádugott monitor esetén semmiképpen nem lesz low power (az Intel ref kártyán 3 db DP és 1 db HDMI kimenet van)

Namármost azt hinné az ember, h. pl. ha 1 monitoros rendszere van, a 4K 60Hz helyett mondjuk 1440p 120Hz v. 1080p 144Hz is ekvivalens? Hát a cikk lelges-legalján van egy odacsempészett kiegészítő magyarázat, amiben már szerepel h. 60Hz felett mindenképpen nőni fog az idle fogyasztás. Felbontástól függetlenül. Azaz szerintem a 4K@60Hz-et nem lehet helyettesíteni pl. 1440p 120Hz-el. Csak 1440p@60Hz v. 1080p@60Hz az ami szóbajöhet. Ez így elég fájó, ha az ember a high refresh rate monitorok elterjedtségére gondol.

Also note that if you attach a display to Arc graphics with a refresh rate over 60Hz requires the GPU to run at slightly higher clocks to drive the pixel throughput. 

Illetve egy gyanús jövőbeli igéret:

We will be looking at making optimizations in future generations.

Ha lesz egyáltalán C generáció, ugyebár...

A beállítások szükségességénél nekem elvileg nem volt elég a windows Power mgmt: PCIE : Max power saving, hanem szerintem kellett a BIOS beállítás is.
A BIOS-ban az ASPM-nél meg vannak különféle opciók: enable L0s vagy enable L1, vagy enable L0s+L1
Viszont amit a cikk ír, h. OS controlled ASPM enable, ez így betűszerint nekem pl. nincs. Ugyanígy a: PCIExpress root port enable ASPM sem szerepel betűszerint így nálam a BIOS-ban.

Nekem egyelőre az egyetlen idle-fogyasztáscsökkentő hatást az váltotta ki, ha  az 1 monitoros 1440p @ 144Hz-ről leváltottam desktopon 1440p @ 60 Hz-re: ekkor

- total GPU power: kb 3,5 W
- GPU memory power: kb 1,7W
- total Board Power: kb 12W

Azért ezek már egyből normális(abb) értékek. Szóval ez érdekesen szopatós szituáció lesz.

Ha már fogyasztás témánál járunk, a TDP-t az intel erre a kártyára 190 W-ra lőtte be. Kicsit lehet fölé menni, ha túl akarod húzni. Viszont nagyon nem érdemes, mert fizikailag csak 1 db 8-eres PCIe power csatlakozó van rajta. Azon meg max. 150 W mehet a szabvány szerint. Mivel magán a PCIe csatlakozón is kaphat áramot az alaplapon keresztül (itt kombináltan a 3,3V és 12V-on összesen max kb. 75 W a limit), így kijön a matek. De eléggé a határ közelében egyensúlyozik vele az intel. Továbbá az alaplapok nem nagyon szokták díjazni hosszútávon ha a PCIe csatlakozón keresztül is felveszi a GPU azt a közel 75 W teljesítményt, nem erre van tervezve a PCIe trace.

Hűtés

A hűtés (legalábbis az intel referencia kártyán, a 3rd party verziókat nem tudom) kicsit gagyin viselkedik: bekapcsolgat a 2 venti ilyen 500-700-as fordulatra (itt még hangtalan a kártya), majd 5-10 másodperc után leáll. De mivel a 46 fokról az alacsony fordulatszámmal nem tudta ilyen rövid idő alatt lehűteni, 5 másodperc múlva ismét bekapcsol a venti. Megint megy 5-10 másodpercig, aztán megint leáll. És így tovább, a végtelenségig. Emiatt kb. muszáj beállítani valami ventillátor profilt, ami konstans fordulatszámon hajtja idle-ben is, máskülönben ez a rángatás nem fog hosszútávon jót tenni a ventillátoroknak.

Viszont pl. az MSI Afterburner nem enged hozzá venti profilt konfigolni, állítólag zárt az Intel API-ja, amivel hozzá lehet(ne) férni ezekhez. Az Intel gyári tool-jában van lehetőség FAN profilt állítani, de az szerintem rohadtul bugos: a grafikonon ZERO RPM nem az Y=0 tengelyen van, hanem fölötte. Így a kontroll pontokat lejjeb is tudom rakni, viszont így nem tudom értelmezni, milyen az elvárt működés. A ZERO RPM egyenesen kb. 30% a FAN fordulatszám, ami meg kb. 1400-1600 körüli érték, ez már azért cseppet sem hangtalan. Ez így le is viszi a kártya (GPU core és VRAM) hőmérsékletét 32 fokra.

Továbbá a performance counterek HWInfo-ban / MSI Afterburner-ben kicsit még foghíjasok a 2070 Super-emhez képest. Viszont changelog alapján (2025 Ápr) kerülnek be újabb sorok, remélhetőleg a következő fél évben lesz ezen a területen is előrelépés.

Driver (2025 Ápr állapot szerint) kb. minden héten (szószerint) jelenik meg hozzá legalább 1 új (de van hogy 2 is), benne mindig pár aktuális slágerjáték profil frissítésével. Remélem azért a régebbi címekhez is eljutnak előbb-utóbb.

Az RTX Quake2 kicsit gyengébben fut, mint a 2070 Super-emen. 2070 Super kb. 50%-os resolution scaling mellett képes a 1440p 60FPS-t hozni. A B580-nál ez ugyanolyan raytrace opciók mellett már csak 40%-on sikerül. Magyarra lefordítva: 2070 Super-en az 1440p helyett a 720p kamufelbontáson bírja csak a stabil 60FPS-t hozni, amit aztán felskáláz 1440p-re + denoiser.

A B580-on ehhez még alacsonyabb felbontás kell, azaz már csak 576p-n tud stabil 60FPS-t, innen skálázza fel 1440p-re a képet. Emiatt ez már észrevehetően olajfestmény-effektusos (eltűnnek a nagyfrekvenciás finom részletek a képen, minden összemosott).

A Raytrace-es Doom 1+2 (Gzdoom mutáció) valami Raytrace v. Vulkan hibával (valójában windows exception error-al) el sem bír ndulni.

Folyt. köv.

Hozzászólások

Szerkesztve: 2025. 04. 01., k – 11:20

Mi a csuda a CUDA? Eddig nem láttam hiányát, sem annak, hogy a RT gyengébb. Az AMD-mben 16 GB VRAM van, ugyanennyiért az nVidia 12-vel szúrta volna ki a szemem, szóval az utóbbi pár év múlva már gyenge lesz a legtöbb modern játékhoz, ha az optimalizálatlansági trend folytatódik, kivéve ha visszavesz az ember a képminőségből, vagy kisebb felbontásra vált.

"ha a leggyorsabbat akarod, akkor nem kérdés h. nvidia"

A leggyorsabb mit? Szállítást a varólistán? 🙂 Gyorsabban lefut a Doom? Mi az, hogy a leggyorsabb?

Lekopogom, a driverrel egyszer volt szívás: Első alkalommal, amikor a Windows úgy gondolta, másodpercekkel az Adrenaline driver telepítése előtt, hogy ő telepít egy szerinte újabbat.

Szerkesztve: 2025. 04. 02., sze – 13:30

"...régebbi géphez, ami nem támogatja a Rebar-t, nem is érdemes megvenni."

Ha olyan mimóza a B sorozat, mint pl az A380, akkor azért sem érdemes, mert Windows alatt be-befagy a kép. Egy intel 9xxx-es proci mellé lett próbálva, de állandóan ez volt a jelenség, pedig az alaplapon és a videókártyán is frissítettem fw-t. Újabb gépekben meg már működött, bár egy 10-11gen inteles Dell-el próbálva 5-ből egyszer nem indult el a gép csak áramtalanítás után, de ott is rá lehetett fogni a videókártyára, mert sem nVidiával sem intel integrált videóval nem csinálta.

Amúgy nem arról volt szó, hogy a B sorozat sebességben már nem annyira féllábú Resizable Bar nélkül?

Sub

"Mert úgy szerette Isten e világot, hogy az ő egyszülött Fiát adta, hogy valaki hiszen ő benne, el ne vesszen, hanem örök élete legyen". (János 3:16)

Továbbá az alaplapok nem nagyon szokták díjazni hosszútávon ha a PCIe csatlakozón keresztül is felveszi a GPU azt a közel 75 W teljesítményt, nem erre van tervezve a PCIe trace. >  netto hulyeseg. ez a szabvany. volt is anno only pcie slotbol taplalkozo vgam, raadasul valami olcso AM3/AM3+ lapban, soha nem volt vele problema :)

amugy #worksforme 3440x1440@155Hz VRR DisplayPort + 2560x1080@75Hz FIX HDMI ezeket szepen hajtja.
a +- 20-30W idle nalam nem oszt nem szoroz, sok tiz ev kene mire masik gyartotol vett VGA arkulonbsege kijonne belole.
3rdparty vendor, ha kapcsolgat is a 3 ventis hutese terheletlenul, total hangtalan low RPM, a varosi noise floor ejjel is boven elnyomja, hamarabb hallom meg a huto kompresszorat a konyhabol.

Szabvány szerint lehet szopkázni tápot a PCIe csatlakozón keresztül, igen. De ha a limit környékén jár folyamatosan, az olyan határeset, aminél kijöhetnek gondok (az amit linkeltél, annak mekkora volt a TDP-je?).

Nem azért baj a +20-30W extra fogyasztás, mert hú de mekkora villanyszámlát csinál. Amúgy napi 8-10 óra működés éveken keresztül az már lehet kimutatható. Hanem 1) feleslegesen melegszik akkor is amikor nem kéne neki, és 2) szorozd be pár millióval, ahányan a világon futtatják feleslegesen így, árampazarlóan. Úgy hogy semmit nem ad az élményhez idel-ben, csak fűti a gépházat. Az 1W standby konzumer elektronikai cuccok világában ez máris bődületes árampazarlás.

A ventillátor nem hangos lesz a folyamatos non-stop kibekapcsolások miatt, hanem a csapágyazásának extra felesleges  mechanikai terhelés a tízmillió extra indulás-megállás ciklus, így statisztikailag hamarabb fog tönkremenni. Megintcsak értelmetlenül, indokolatlanul. Folyamatos alacsony fordulatszámon meg elpörög sokkal tovább.

amit linkeltem ott van a TDP-je. a linken, azert linkeltem :) tampontnak jo, de overclockolhato volt, siman kivehetted a 75W-ot a csatlakozobol. es ki is szokas, nezd meg egy 100G-s multilinkes halokartya, stb. mennyit zabal. nem veletlen a szabvany, a pcie tudja boven a 75W-ot 7/24. olyanon aggodsz, amin nem kell.

statisztikailag hamarabb fog tönkremenni > milyen statisztikad van errol? :) imho ponthogy akkor fog hamarabb tonkremenni, ha folyamatosan porog. :) nem hidegen inditgatott szivodizel motor van benne :D

mutasd a statisztikad es a forrast, ami szerint a csapagy a ventillatorban hamarabb fogy, ha nem mindig forog, mintha de! kertem, mar ketszer! az, hogy en hulye vagyok, na az nem az! :) arra csak annyit tudok mondani, hogy szerintem meg te vagy a hulye! setrodje'mo:g! :D

Nem hülyézlek le, vagy sértődnék meg, annál régebb óta járunk ebbe a nyilt elmegyógyintézetbe mindketten.

Csak azt próbálnám vakerálni, h. a venti indít-megállít-indít-megállít-indít-megállít végtelen ciklusa 3-4 órán keresztül, az mechanikailag megterhelőbb lesz a csapágyazásnak, mintha 1x elindul alacsony fordulatszámon- aztán 3-4 óra múlva 1x megáll és pont. Nem lesz róla statisztikám természetesen.

Ha végig állt volna a ventillátor 3-4 órán keresztül, akkor persze hogy a csapágyazásnak az volna a legjobb. Ha be sincs kapcsolva soha. Ebben nincs vita :)

csak eppen ezt az allitasod semmivel sem tudod alatamasztani! :) tok, jo, hogy bedobtad a statisztikailag buzzwordot, csak hol van a statisztika hozza? :)

kapargassuk meg kicsit a felszint, relevans materia gyanant nezd meg ezt. :)

aztan ha mar tudod pontosan milyen technologiaju az a bizonyos csapagyazas, milyen hasznalatra terveztek (azert legyunk bizakodok, hogy a mernok urak arra a feladatra/terhelesre valasztottak, hogy egy VGA-n a sebessege fel-le valtozzek es megalljon/elinduljon, mar csak az RMA elkerulese vegett is), akkor utana lehet menni, hogy esetleg melyiktol megy tonkre hamarabb, az indulas/megallastol vagy a folyamatos uzem altali kopastol, a gyartoja mit vallal ra :)

en azt mondom, dilattans aki folymatos uzemre tervezett ventiket rak valami obskurus okbol a VGA-jara 2025-ben, es sajat magaval tol ki, mikor a userek visszakuldozgetik a 300+ dollaros termekeket, mert megpatkolt rajtuk az 1-2-3 USD-s alkatresz :)

Szerkesztve: 2025. 04. 15., k – 15:50

off: bugreportolnam, de minek :)