( sinexton | 2023. 02. 08., sze – 21:27 )

Minden szoftver és matek, ez így van.

A gépi tanulást az különbözteti meg klasszikus algoritmusoktól, hogy nem magyarázzuk el neki az adatban lévő rejtett összefüggéseket és azok struktúráját, hanem ezek megértését ő tudja megtenni magától. Kvázi képes tanulni. Ezen túlmenőleg pedig következtetni a tanultakból teljesen új bemenetekre, és így számára ismeretlen kérdésekre válaszolni. Ez az elsődleges célja.

Ha valakit érdekel a konkrét különbség, akkor javaslom mélységeiben, matematikai szinten megismerni pár ilyen eljárást. Például random forest, gmm, recurrent neural net, long-short-term memory, generalized linear model, naive bayes, xgboost, elastic net, sgd, svm, stb. Van különbség a szofisztikáltságuk szintjén, előnyökkel és hátrányokkal.

Például neurális háló tanulási kapacitását bármeddig lehet növelni, cserébe nagyon nehezen megismerhető az optimális hiperparaméter struktúra és könnyen túltanítható (amikor az adatot tanulja meg, nem pedig annak általános összefüggéseit). rf-nél ez fordítva van.