( pme | 2008. 03. 09., v – 14:08 )

Nehany megjegyzes.

1. Jol ertem u.n. "feedforward" halora gondolsz:
http://documents.wolfram.com/applications/neuralnetworks/NeuralNetworkT…

Ha igen, akkor egyetlen "hidden layer" is elegendo, kerdes csak a neuronok szama.
Cybenko es Funahashi kb. 15 evvel ezelott irtak errol.

2. Hatarolo fuggvenynek a tanh() elonyosebb a szigmoid helyett (derivalhatosag).

3. "Tanulas", mint olyan ertelmetlen. Hanem a nemlinearis hibafuggveny egy megfelelo lokalis minimumat keressuk (nem tudjuk hol van a globalis).
Ehhez vagy "simulated annealing", vagy sok Newton-Raphson, vagy a ketto kombinacioja szukseges.

4. Az eredmenyt (a halozat parametereit) verifikalni kell, de nem szazalek szamitassal!

5. Az idonkent nem mert bemenetekrol, meg az jut az eszembe, hogy mit is varsz a halotol valos idoben?