( Raynes | 2024. 08. 09., p – 20:33 )

Nem lesz elég természetesen. De most ez a technológia falba ütközik. Gondolom egy idő után lesz helyette valami nanotechnológia, amivel lemennek még kisebb csíkszélességre. Mondanám még a kvantumgépeket, de azok is olyanok, mint a jeti, hogy senki nem látott még hasznosan működni, csak ilyen-olyan tesztlaborban lévő kísérleti prototípusok vannak, amikkel nem sok hasznosat lehet csinálni.

Addig marad ez, meg az, hogy a fejlesztők a bloatot mellőzik, meg jobban optimalizálnak, ha jobb teljesítményt akarnak.

Nyilván a 640 KB-ről is mindig tudni lehetett, hogy nem lesz elég. Az a 16 bites procinak volt a limitációja 20 bites címbusz mellett, ami valójában 1024 KiB, de az IBM PC fejlesztői úgy döntöttek, hogy ebből nem csak a videómemória jön le, hanem a BIOS és egyéb ROM-ok területére is elkülönítenek 384 KiB-ot. Nagyon gyorsan meghaladott lett, 3 évre rá jött a 286-os 24 bites címbusszal, ami már 16 mega memóriát támogat, még 3 évre rá a 386-os, 32 bites címbusszal. Ami miatt sokáig szívtak a 640 KB-os memóriakorláttal, annak inkább az volt az oka, hogy a MS a DOS-szal, és a főbb húzóalkalmazások fejlesztői megtartották ezt a 16 bites, valós módú korlátot, meg a végtelenségig életben tartották toldozgató trükkökkel (EMS, XMS, UMB, DOS extender védett módja), mindezt a visszafelé kompatibilitásra hivatkozva.

Vannak sajnos ilyen stagnáló időszakok, a már említett Intel-féle tikk-takk-ozás is ilyen volt, mindenkit 2-4 magon, 2-8 szálon, 2-8 MB cache-en tartottak, és a generációk között alig voltak ilyen pár %-os különbségek, mert a Ryzen-ig nem volt ellenfél, aki megszorongatta őket, és mikor lett is, akkor is nehezen mozdultak ki a 14 nm-ről, lényegében nem is tudtak, csak mással gyártatnak most már.