Mico írt dolgokat, ebből én az LDom-ot emelném ki. Vannak olyan helyek, ahol a biztonság számít, és az, hogy ebben a gépben 128 ilyen független domaint (igaz, ilyenkor meglehetősen csekélyke teljesítmény jut egyre) lehet kialakítani, komoly érv lehet.
Nekem a legnagyobb bajom az egyes szálak teljesítményével, és az általuk okozott erőteljes késleltetéssel van. A CPU kiválóan alkalmas hálózati feladatok elvégzésére (akár pld. tűzfalnak, terheléselosztónak), de csak akkor, ha a throughput, és nem a latency számít.
Olyan hálózatokban pld. ahol eleve magas késleltetések vannak (pld. rádiós, mobilhálózatok) lehet, hogy jól alkalmazhatók.
Sajnos a SPARC-okkal nekem is ez a problémám: hiába lennének jók, drágák, és teljesítményben péppé verik az x86-os dobozok, és ez a nagy gépeknél is csak azért kevésbé igaz, mert nincs pld. 64 CPU-s opteronos doboz. :-O
Ami még megmozgatná a fantáziámat az a crypto offload, és esetleg egy olyan, specializált kernel, amely (akár saját LDom-okban futva) célfeladatokat lenne képes ellátni, anélkül, hogy egy általános OS nyűgjeit magával kelljen vinnie,
amolyan koprocesszorként funkcionálva.
Ilyeneket az Opteronok (HT) kapcsán is vártam, talán volt is egy-kettő, de sajnos eléggé kicsi a piac ahhoz, hogy általánosan elterjedjen.
Érdekes kérdés még, hogy az erősen párhuzamos, például funkcionális/párhuzamos nyelvekben írt alkalmazások hogyan lennének képesek működni.
Ezekben talán nagyobb potenciál van, mert könnyebben lehet velük sok magra skálázódni, elhagyható a többszálú, osztott erőforrásokat használó alkalmazások lockolása (ami ezen a CPU-n különönsen kritikus, mert egy-egy szál sokkal lassabban fut, ergo a lockot is tovább tartja, mint egy pécén), és talán a feladatok "szétszórása" is kisebb egységekben lehetséges és értelmes, mint másban.