( pme | 2008. 03. 09., v - 23:37 )

"Mivel angolul is "teaching method", az ebbéli aggájaidat kéretik Paul Werbos úrral megbeszélni. :)"
Szerintem o mar tudja, hogy amit 30 eve kitalalt, az sok szempontbol tulhaladott mara. (Az "aggaly"-t ly-al irjak.) Ugye nem gondolod, hogy az egeshez flogisztonra van szukseg? Pedig ~350 eve errol irtak. :)

""neha-neha atugrik egy-egy helyi minimumot..."
Csak úgy mint a Newton Raphson."
Na de kollega...
Aze' van benne derivalt, mert az szabalyozza a lepeshosszt, nehogy atess a "lo" tulso oldalara.

"Most már igazán érdekelne egy link Newton-Raphson-ra NN témában."
Semmi kulonos:
1. (random) inicializaljuk a halo parametereit
2. A minimalizalando fv. a szumma hiba az osszes bemenet-vektorra
3. Keressuk azt a parameterkeszlet azon ertekeit, melynel a fenti fv-nek minimuma van.
4. Az inicialo ertekektol fuggoen megy mas-mas lokalis minimumba, de mivel a gradiens metodus piszok gyors, ezert rettenetes mennyisegut probalkozhatunk adott ido alatt. Ugyhogy hadd fusson, es kozben gyujtsuk ki a legkisebb minimumot adot, a tobbi eredmeny pedig eldobhato.