Andrew Ng Machine Learning - Gépi tanulás diasor

A gépi tanulás bevezetőjeként nemrég végigvittem Andrew Ng Machine Learning Coursera kurzusát.

A kurzusról azt tudom elmondani, hogy az előadó nagyon felkészült, jó minőségben és teljesen érthetően magyarázza el a tanítandó anyagot. Az ingyenesen elérhető videókat használtam a felkészülésre, Githubon pedig találtam kiadott feladatokat is hozzájuk.

A beadandó feladatok keretrendszere Octave-ban íródott, és ebben is kell leadni őket, ha fizetős verzión vagy. Mivel szerintem elég sok volt a keretrendszer rész és elég kevés az önálló programkód írás, mindent a nulláról újraimplementáltam Mathematicában. Meg akartam nézni, hogy mit tud a program és ez némi plusz kihívást is adott.

A jegyzetelés lezárásaként a tananyagot összesűrítettem egy bemutatóba, hogy később, ha kell, gyorsabban képbe kerüljek. Ezt az elkészült tananyag-kivonatot minden érdeklődő számára elérhetővé szeretném tenni. Így, ha érdekel ez a világ, nézz bele a gépi tanulás jegyzetbe.

Elég sok minden van benne a regresszióktól, neurális hálóktól, SVM-től és a gradiens módszertől kezdve, a PCA, k-közép és anomáliaérzékelő algoritmusokon át egészen az ajánlórendszerekig bezárólag. Ennélfogva a diasor közel sem teljesen fedi le az egyes témaköröket, minden egyes altémája sokkal bővebben is kifejthető (értsd: könyvek készültek belőlük).

Igyekeztem pontosan és lényegre törően összeállítani a diákat, de ha hibát találtok benne, kérlek, jelezzétek. Köszönöm!

Hozzászólások

sub, újra neki kéne álljak ennek a kurzusnak

A sample-t tessék mintának fordítani és nem példának.

Latexben írtad?
Melyik class, sty használtad hozzá?

Az összefoglaló slide-ok nagyon jók, köszi!
Reklám: a tézisemhez írtam egy többváltozós polinom illesztőt. A legnagyobb kihívás a szimmetrikus, sokindexes tenzorok tárolása és gyors, véletlen elérése, írása. Pl: 3 dimenzióban egy huszadfokú polinomnak már kb. 3^20 eleme van, de a szimmetriák miatt alig egymillio szabad paramétere van. Sajnos kiderült, hogy ennél nagyobbakra már a long double pontosság sem elég (a mátrix invertálásnál felgyűlnek a hibák). Ennek ellenére logisztikus regressziónál meglepően jól működik (a 20 változós de csak harmadfokú polinomok).