( hnsz2002 | 2025. 11. 03., h – 12:08 )

A weben elérhető tartalomnak szerintem a 80-90%-a nem statikus, legalább 10 éve emiatt (másrészt a megugró sávszélességek miatt) a klasszikus http proxynak sincs semmi értelme, hacsak nem a szűrés vagy hozzáférés korlátozás, mert a cache-hit ráta annyira alacsony, hogy nem éri meg... Vagy több idő az elérése, mintha amúgy az eredeti helyről töltöd.

Nem is olyan régen láttam valahol, hogy már a CSS-t is generálja user-agent-stringhez igazítva... aminek amúgy van értelme, mert az internet explorer specifikus formázást minek kapja meg a firefox, a mobilos nézet beállításit minek a desktop, stb...

És pl. egy nem html-be linkelt tartalom (sima apache directoryindex, ahova ki van dobva iso, vagy bármi letöltésre) checksumját hogy oldod meg?

[szerk] Vagy azt, hogy van egy sima HTTP-s content, amit OK, te a HTTPS-ről jövő, checksumozott html-lel ellenőrzöl... Na de mi van akkor, ha fogod azt a képet vagy videót, copy link location, és valakinek elküldöd... vagy csak simán egy másik gépen bemásolod a direkt linket a wget-hez?
 

Ezt mind megoldja a HTTPS... Vagyis inkább úgy mondom, hogy ezek a problémák nincsenek, ha minden HTTPS-ről jön.