( lx | 2013. 12. 18., sze – 09:25 )

"mert 20 millió soros táblákból joinol össze 5-öt (!), hogy megszerezzen olyan adatokat, amikből 10x annyi van táblánként, mint amennyi a tényleges adat lenne 1 táblában."

Az igen ritka eset, hogy a tárolt adatokról hosszú távon az derül ki, hogy túl sok; az se gyakori (de megtörténik), hogy az derül ki, hogy a táblák "túl" vannak normalizálva; az viszont kifejezetten jellemző, hogy a fejlesztő (és a tanára) a tanuláskor apróbetűs résznek (a.m.: ugord át, bammeg, mert a lényegesre is szűk az idő) vette az indexeket, Pascalban/C-ben/mittoménmiben még írnia is kellett ilyesmit, de az adatbáziskezelés tantárgy 500 rekordos vizsgapéldáján végleg bebizonyosodott, hogy felesleges sznobéria az egész - a db admin (vagy az a szerencsétlen, akit arra a posztra kisorsoltak) meg vagy képes analizálni, hogy hol hiányzik index, vagy nem.

Ahol az említett aggályos részek nem állnak fenn, ott mindegy, hogy 20 vagy 20 milliós táblákból kapcsolják össze azt az 5-öt.