
(kép infó: 2 dimenziós cluster vizuálisan csoportosítva, ahol a szürkék a nem csoportosított zajt vagy túl kicsi halmazokat mutatják)
Bármilyen matematikai eljáráshoz nyúlok vagy újat tervezek, mindig végül köze lesz a log-hoz vagy exponenciálishoz. Nagyon érdekes számomra az univerzum ezen karakterisztikája. Amint átlép a folyamat additív domainből multiplikatívba, tele lesz a megoldás exp és inverz exp-el.
Terveztem egy új clustering típusú gépi tanuló eljárást, mely kedvezőbb tulajdonságokkal bír számomra az ipari és akadémiai területen elérhetőkhöz képest. Kezdjük ott hogy miért?
A matematikai eljárások tervezői előszeretettel tolják vissza az egyik legnehezebb problémát az algoritmusuk felhasználóira. Nekik ez az egyszerű. Ugyanis azt mondják, hogy ha ezt és ezt a paramétert megadod, akkor tuti jó eredményt adunk. Tehát parametrikus. Ezért jó paraméterek nélkül nincs használható eredmény. Akkor már csak a paraméterek kellek. Jön a következő kérdés: Hogyan találja ki a user az optimális paramétereket? Például k-means vagy k-nearest algo esetén mekkora legyen k értéke? Az egyszerű válasz: sehogy.