( Charybdis | 2011. 03. 16., sze – 18:10 )

Azt írja a Wikipedia, hogy kézzel is módosítják a találati listán. Ez nem jó. Mi alapján döntik ők el, hogy szar az adott oldal? Meg erre nincs is kapacitásuk. Hány új oldal jelenik meg a weben naponta?

Pl. az Ehow-ot kizárták. De ez édes kevés, van még rajta kívül 1000000 másik oldal, amit ki kéne zárni.

A Google-lel saját crawler-rel, saját adatbázissal lehetne csak versenyezni, az viszont durva befektetés. És az a kemény, hogy az új belépők helyzete napról napra egyre rosszabb, mert egyre több tartalom lesz a weben.

A Google minden egyes új URL-t szinte azonnal indexel. Továbbá az összes URL között ismeri a kapcsolatokat. Sőt még azt is nézni, hogy milyen szöveg veszi körbe az adott linket, hol található a forráskódban, hányszor fordul elő az adott domainen stb. Ez gigantikus méretű adatbázis.

De ha ez nem lenne elég, 0,1 másodperc alatt eredményt kell kidobni ebből az adatbázisból (ami ugye másodpercenként frissül, növekszik).

Nem csoda, hogy már csak az MS tud vele konkurálni.