onlive.com jatsz egy kenyerpiriton a leg eroforras igenyesebb jatekkokal online

http://www.youtube.com/watch?v=OGdecNDDr9g

Kivancsi lennek milyen infrastrukturat tolnak moge, hogy lehet olcson sok usert kiszolgalni ilyesmivel.

Hozzászólások

Azt jól látják, hogy a játékok egyre kevésbé fillrate limitáltak és egyre inkább shader számítási teljesítmény igényesek.

Ok, hogy 5 mbit/s kell a video streamhez, nade mekkora latency? Hiába magyaráznak a low latency video codecjükről, ha a tipikus ADSL kapcsolat oda-vissza 0,5 sec-es késletetést belerak. Maga a demó amit lenyomtak elég keményen lagolt, néha el is akadt. Túlságosan is bíznak a last mile fejlesztésekben. Kérdezték még a végén a forgalomkorlátok problémáját, az USA-ban vannak (lokálisan monopól helyzetben lévő) szolgáltatók, akik nem a nálunk is szokásos 150-250GB/hó, hanem 15-20GB-os havi limitet használnak. Ez pár óra játszással már elfogy.

Aztán a jelenlegi technológiákkal 1 GPU-t fixen hozzá kell rendelni egy userhez, nincs még kész olyan megoldás, hogy magát a GPU-t virtualizálják és így megoszt több teljesen különálló játék session között. Emiatt tényleg brutális szerverfarm fog kelleni nekik. Vagy brutális fejlesztési effort a GPU virtualizációhoz, ami még egyik GPU gyártónak sincs kész. Ráadásul a játékok vegyes platformokra készültek (legalábbis ez egy nagy selling point szerintük), így méginkább elképzelhetetlen, hogy valami egységes virtualizációs megoldást fejlesszenek a háttérben. Pláne úgy, hogy keményen zárt platformokról van szó. Erről jóformán semmit nem mondtak, kitértek a kérdés elől, általánosságokat válaszoltak csak: "persze minálunk sokkal olcsóbban fut a játék, mint otthon".

Nem is igazán az a bajom vele, hogy technikailag kivitelezhető-e, hanem, hogy mégis hogy gazdálkodják ki a költséget? Az áram és az internet uplink havidíja önmagában elképesztő lehet. Legalább 200-300W/user teljesítményfelvétel és 5 MBit/s sávszélesség. 10000 userre ez 2 MW és 50 GBit/s. Hardver igényben, mondjuk 3000$-os szerverekkel számolva (ami elég olcsónak számít) 30 M$ befektetésről beszélünk. És ezt gyakorlatilag folyamatosan frissíteni kell újabb fajta hardverekkel, hogy lépést tudjanak tartani a játékokkal. Valahogy ki kell mindezt fizettetni azzal a sok userrel.

Nyilván a dolog csak úgy működik, hogy lényegesen több user fizet elő, mint ahány kiszolgálására van kapacitás, és a userek az előfizetett idejük meglehetősen kis részét használják ki. Gond lehet abból, hogy a usernek nagyjából egyszerre fogják akarni használni a rendszert. Munkaidőben, reggel, délben kevesen fogják igénybe venni, este szinte mindenki. USA-ban elvileg ugyan szét lehet szórni időzónák között a dolgot, de akkor a nagyobb távolság miatt megint a latencyvel lesz baj.

Ez a dolog azért jutott el idáig, mert voltak befektetőik akik beletoltak egy csomó pénzt, de komolyan kételkedek benne, hogy hosszútávon nyereséget tudnának termelni.
---
Internet Memetikai Tanszék

Nem csak a költségeket és a jelenlegi helyzetet kell nézni. A WoWnál és más sikeres mmorpgknél már ma is látni, hogy a havidíjas rendszer nagyon jól fial. Nem tudom, hogy az onlive-nál milyen modellt akarnak csinálni (én tippre a havidíj + játékok külön megvásárlása + kiegészítések külön megvásárlására gondolnék), de gondolom hasonlót. Végülis a rendszerrel pofonegyszerű platformfüggetlen jellegűre megoldani a fejlesztést, ami a költségeket jelentősen csökkentheti (hosszútávon mondjuk ugyanaz a kód szolgálja ki a ps3-at, xboxot, wii-t, PSPt, Linuxot, Macet, Windowst, stb), és még a warez is egyszerűen felügyelhető. Optimalizálni is egyszerűbb, ha egy környezetre kell dolgozni. Bár nem tudom milyen viszonyban vannak a fejlesztési és az üzemeltetési költségek egy platformfüggetlen online játéknál (mármint manapság).

Egyébként a videót csak átpörgettem, mert számomra nem ér meg 1 órát, de amennyit láttam, én így gondolom.

Én nagyjából végignéztem (illetve a nagyját inkább hallgattam, közben mást is csináltam, az érdekesebb részeket néztem meg).

Ok, csak azért ez egy kicsit más, mint a WoW. Itt egyrészt 1-2 nagyságrenddel nagyobb számítási teljesítmény kell a szolgáltató oldalán, és nehezen osztható meg egy gép több userre. Másrészt pedig a WoW-hoz képest sokkal jobban támaszkodik arra, hogy az ISP-k képesek legyenek alacsony latency-t ÉS ezzel egyidejűleg nagy áteresztőképességet adni. Általában egyszerre csak az egyiket szokták tudni, főleg a *DSL megoldások.

Az első fele sokkal drágábbá teszi, mint a WoW alatti infrastruktúra üzemeltetését (tehát az előfizetési díj is sokkal magasabb kell, hogy legyen), a második fele fölött pedig az égegyadta világon semmi kontrolljuk nincs (viszont őrajtuk fogják az elégedetlen userek leverni a "gyenge játékélményt").

Végülis a rendszerrel pofonegyszerű platformfüggetlen jellegűre megoldani a fejlesztést
Igen, csak a szolgáltatás most indul, és HA beválik, akkor lehet hatással a játékfejlesztő cégek hozzáállására. Hasonló a probléma a GPU virtualizálással is. Az NVidia igéri, hogy a következő generációs architektúrája már alkalmas lesz rá (a gyors kontextusváltás a kulcs, ezt idáig teljesen elhanyagolták) ÉS olyan kivitelben is fog készülni, hogy az szerverekben jól használható legyen. Hosszabb távon logikus lenne erre építeniük, csakhogy az NVidia ebből még egy korrekt mechanical sample-t sem tudott idáig bemutatni.

Az egész vállalkozás azon bukhat el, hogy túlságosan rá van utalva külső cégek még el nem készült fejlesztéseire. Ennek tipikusan az szokott a vége lenni, hogy húzzák-halasztják a dolgokat, míg végül a befektetők kihátrálnak mögülük.
---
Internet Memetikai Tanszék