Ott, hogy a hup és a hasonló oldalak a globális interneten elérhető statikus tartalomnak a 0,0000000000000000000000000000000000000000001%-a kb...
Mindent nem tudsz cache-elni, mert arra a világ összes tárhelye és erőforrása sem lenne elég. Mindenképp húznod kell egy limitet. Meghúzod mondjuk 100MB-ra. Az e feletti statikus tartalmak, amik amúgy felfele húznák a statisztikát, így kiesnek. A kisebb darabok maradnak - maradnának.
Üzemeltettem proxyt sokáig, tudom.. Ami statikus, azt is szokszor nocache vagy 0s ttl-lel adja a webszerver, mert a programozó vagy az üzemeltető úgy gondolja, hogy ő nem akar azért szívni, mert a user böngészője elcache-lt valamit, és majd nem úgy működik neki, ahogy kéne.
Emellett pedig vannak még olyan módszerek is (pl. egy videóbetöltés youtube-on), hogy hiába a nagy méretű statikus tartalom, nem a videó közvetlenül mint fájl van hivatkozva, hanem mindenféle kiokosított loader kéri dinamikusan, az elején boost-tal, aztán speed throttlinggal, különböző adatcsomag méretekben, különböző felbontásokban, akár más kodekkel a darabokat... És akkor arról még nem is beszéltünk, hogy ez nem mind a video.youtube.com hostról jön, hanem sdnfwh4jk5hk2q4132.googleusercontent.com, fra24s12-in-f14.1e100.net és hasonló hostokról, amit épp a dns load balancing, a geolokáció, vagy a node-ok aktuális terhelése és még 10 másik dolog határoz meg. Tehát igazából hiába kérné több kliens "ugyanazt" a videót, valójában nem feltétlen ugyanaz a videó (mert nincs is videó, csak darabok), ráadásul ha az url-je más, akkor másképp lesz cache-elve is.