A jegyzetelés lezárásaként a tananyagot összesűrítettem egy bemutatóba, hogy később, ha kell, gyorsabban képbe kerüljek. Ezt az elkészült tananyag-kivonatot minden érdeklődő számára elérhetővé szeretném tenni. Így, ha érdekel ez a világ, nézz bele a gépi tanulás jegyzetbe.
Elég sok minden van benne a regresszióktól, neurális hálóktól, SVM-től és a gradiens módszertől kezdve, a PCA, k-közép és anomáliaérzékelő algoritmusokon át egészen az ajánlórendszerekig bezárólag. Ennélfogva a diasor közel sem teljesen fedi le az egyes témaköröket, minden egyes altémája sokkal bővebben is kifejthető (értsd: könyvek készültek belőlük).
Igyekeztem pontosan és lényegre törően összeállítani a diákat, de ha hibát találtok benne, kérlek, jelezzétek. Köszönöm!
- szotsaki blogja
- A hozzászóláshoz be kell jelentkezni
Hozzászólások
sub, újra neki kéne álljak ennek a kurzusnak
- A hozzászóláshoz be kell jelentkezni
Szintúgy .
--
zsebHUP-ot használok!
- A hozzászóláshoz be kell jelentkezni
Letöltöttem, bár csak hosszabb távon tervezem a téma megismerését. Köszönöm.
________________________________________
https://sites.google.com/site/eutlantis/
- A hozzászóláshoz be kell jelentkezni
A sample-t tessék mintának fordítani és nem példának.
- A hozzászóláshoz be kell jelentkezni
Köszi, javítottam őket!
- A hozzászóláshoz be kell jelentkezni
Latexben írtad?
Melyik class, sty használtad hozzá?
- A hozzászóláshoz be kell jelentkezni
Nem, nekem annyira nem tetszenek a hozzá adott sablonok. Ez LibreOffice Impressben készült, Aemelia sablonnal (be Googlde Docsba, majd onnan ki PPTX-ben, végül át ODP-be). Előjött ezzel jó pár Impress hiba, ezeket jelentettem is.
- A hozzászóláshoz be kell jelentkezni
Az összefoglaló slide-ok nagyon jók, köszi!
Reklám: a tézisemhez írtam egy többváltozós polinom illesztőt. A legnagyobb kihívás a szimmetrikus, sokindexes tenzorok tárolása és gyors, véletlen elérése, írása. Pl: 3 dimenzióban egy huszadfokú polinomnak már kb. 3^20 eleme van, de a szimmetriák miatt alig egymillio szabad paramétere van. Sajnos kiderült, hogy ennél nagyobbakra már a long double pontosság sem elég (a mátrix invertálásnál felgyűlnek a hibák). Ennek ellenére logisztikus regressziónál meglepően jól működik (a 20 változós de csak harmadfokú polinomok).
- A hozzászóláshoz be kell jelentkezni