Nehany megjegyzes.
1. Jol ertem u.n. "feedforward" halora gondolsz:
http://documents.wolfram.com/applications/neuralnetworks/NeuralNetworkT…
Ha igen, akkor egyetlen "hidden layer" is elegendo, kerdes csak a neuronok szama.
Cybenko es Funahashi kb. 15 evvel ezelott irtak errol.
2. Hatarolo fuggvenynek a tanh() elonyosebb a szigmoid helyett (derivalhatosag).
3. "Tanulas", mint olyan ertelmetlen. Hanem a nemlinearis hibafuggveny egy megfelelo lokalis minimumat keressuk (nem tudjuk hol van a globalis).
Ehhez vagy "simulated annealing", vagy sok Newton-Raphson, vagy a ketto kombinacioja szukseges.
4. Az eredmenyt (a halozat parametereit) verifikalni kell, de nem szazalek szamitassal!
5. Az idonkent nem mert bemenetekrol, meg az jut az eszembe, hogy mit is varsz a halotol valos idoben?