Természetesen ezért nem konvertáltam át opus-ba, meg másba, hagytam aac-ben, nem akartam minőségromlást. Az a baj, hogy az Opus-t se vágja egyelőre semmi veszteségmentesen, ezt betudom annak, hogy kódekéletkorral mérve még túl fiatal, és nem nagyon terjedt el.
A 128 bitet nem a mesterséges elavultatásért erőltetném, hanem a haladásért. Megszüntetné az igényt a sok SIMD (singe intruction multiple data) vektoros utasításkiegészítésre, MMX, SSEx, AVXx, stb., többé nem nagyon tudnának ennek a mentén elavultatni. A lényege az lenne, hogy 128 biten 1) több a CPU regiszter, 2) egy 128 bites regiszterbe több adatot tudsz tölteni (2 darab 64 biteset, vagy 4 darab 32 biteset, esetleg 8 darab 16 biteset), és azokon egyszerre végzed el az utasítást, ergo gyorsít. A memória címzésére elég lenne a 64 bit, de előnye lenne a 128 bit bevezetésének. Ez pont olyan jövőbe látás lenne, ami az elavulás ellen hat, 128 bitből 100 év múlva se fogysz ki, azt még egy esetleges kvantumszámítógépes forradalom se tudná elavultatni. Elsőre az iparnak meg a szoftvereknek nehéz lenne megugrani, lenne egy kis drágulás, szenvedés, az első néhány évben, utána viszont, hogy alap a 128 bit, onnan az életben nem kéne hozzányúlni többet, se a 128 bites időbélyegzőhöz, se a 128 bites fájlrendszerhez, annyira overkill méret, hogy sose válik elavulttá, ténylegesen 100 év múlva se. A 128 bit előnye, hogy növelni lehetne a memóriasávszélt is a proci felé, meg a 128 bites lebegőpontos értékeknek a pontossága is javul tovább. Vedd felülméretezésnek, de pont azért, hogy utána alulméretezés miatt ne kelljen többé kb. semmit elavultatni. Jó példa erre az IPv6, az eleve 128 bites, igaz nem akar elterjedni, de ha egyszer alap lesz, onnan SOHA nem kell többé elavultatni. Nem véletlen ugorták át ott is a 64 bitet, pedig jó pár évtizedig elég lett volna, de tudták, hogy nehéz egy új protokollnak terjedni, nem akartak vele megint pár évtized után szenvedni. ZFS-sel is ugrottak azonnal a 128 bitre. Nem véletlen, hogy a GPU-k sem 64 bitesek most már.
Rá lenne szorulva az ipar, mert a magok számát nem tudod már hová nyomni (meg a párhuzamosítás adminisztrálása is egyre nehezebb túl sok mag, szál között, továbbá a legtöbb feladat nem párhuzamosítható egy szinten felül), meg gigahertz-eket sem lehet hová növelni, a nanométerekben se nagyon lehet majd nemsokára egy szint alá menni, ez a 128 bit segítene egy kis előremozdulást. Azt mondanom sem kell, hogy itt a CLI „szutykaim” szintén virágoznának, azokat nem kell átírni 128 bitre, csak egy 128 bites kódot előállító C fordítóval újrafordítani. A procinak a komplexitását növelné a 128 bit, de más részről csökkenteni is lehetne, nem teszik bele az AI, NPU, meg sok régi SIMD szutykot, ME engine, egyéb felesleges kreténséget, és már ki is egyenlítődött.
Ha megnézed az IT történetét, egy csomó szívás azért volt, mert technológiákat kezdetben alulméreteztek, majd lehetett szívni, meg a régi verzión, megoldáson odaragadt tömeget átszoktatni az újra. 640 KB mindenkinek el 16-32 megás FAT partícióval, meg max. 4 elsődleges partícióval, 16 bit, megszenvedtek nagyon a 32 bitre átállással, majd a 64 bit, de e lemez/partícióméreteknél is ez volt. A 64 bit ma alap, de sok szoftver ragadt még mindig 32 biten, meg az IPv4 is, egyelőre hekkekkel (NAT, címtartomány újraosztogatása) életben tartják, de ez csak átmeneti haladék. Elég csak a Y2K-re, meg a Y2038-ra gondolni, az is azért van, mert valaki anno úgy gondolta, hogy jó alulméretezni, megspórol pár bájtot itt-ott, hú de jó lesz, több marad a bloat böngészőnek meg a Faszbuknak, azoknak jobban kell.