- A hozzászóláshoz be kell jelentkezni
- 1929 megtekintés
Hozzászólások
Hát igen, az ilyen esetekről szól Linus törvénye. [en.wikipedia.org]
- A hozzászóláshoz be kell jelentkezni
Még szerencse, hogy valaki felhívja az ilyen problémákra a figyelmet... :)
"Andrew szerint a readahead logika egyre komplexebb, és állandóan csak foltozva van. Azt javasolta, hogy vessék el a jelenlegi megoldást, és gondolják újra azt."
Végül megint csak foltozva lett... :P
- A hozzászóláshoz be kell jelentkezni
Nem egeszen ertem, hogy miert a cache mukodesre gyanakodtak. A cache a adott teruletre koncentralt hivatkozasi mintak eseten jelent teljesitmenytobbletet (locality of reference). Szetszort random hivatkozasok eseten rontja a hatekonysagot, mert a cache muveletek extra overhead-et jelentenek.
Andrei
- A hozzászóláshoz be kell jelentkezni
nem biztos, hogy a teljes atirasa 10 percet igenyel, mig egy patch kb. annyi ido alatt kesz van, ha ismert a regression oka.
nyilvan ujra kell tervezni, es implementalni kell a designt, ami nem ket perc. az a megnyugtato, hogy meg fogjak csinalni, es van olyan ember (Andrew) aki ki is mondja a hibakat. de nem csak kimondja, hanem meg is tudja csinalni
- A hozzászóláshoz be kell jelentkezni
A cache logika epp azert olyan komplex, mert nem egyszeruen becacheli az adott teruletet ahonnan olvasas tortenik, hanem megprobalja kitalalni, hogy legkozelebb honnan fog tortenni olvasas es ugy probal elore cachelni... Ha rosszul tippel, akkor van "overhead"...
- A hozzászóláshoz be kell jelentkezni
"[...] hanem meg is tudja csinalni"
Ki is tudja javítani :)
- A hozzászóláshoz be kell jelentkezni