Hogy még mindig értsd: az O() jelölés nem fog semmit mondani arról, hogy a valóságban hány CPU szinten elemi lépés fog történni. Azaz a való életbeli elemi lépés idejét (pl egy gép szorzás 1 nanosec) alapul véve nem fogod megmondani, hogy két mátrix szorzása mennyibe kerül, ha csak azt tudod, hogy az implementált mátrixszorzási algoritmus magasszinten O(n^2)-es a mátrixok méretét tekintve.
De attól még nem lesz igaz, hogy két nagyméretű mátrixot mindig lassabb szorozni - ez bizony függ attól is, hogy a mátrixok elemei hány bitesek.
Hogy értsd: hiába van neked egy mátrixalgoritmusod, lehet adni neki olyan inputot, hogy két n*n-es mátrixot a valóságban gyorsabban szoroz össze, mint két (n-k)*(n-k) méretű mátrixot.
Épp ezért az O jelölés semmit nem mond például futásidő skálázódásáról.