( XMI | 2021. 03. 30., k – 03:19 )

Egyébként kíváncsi lennék itt milyen eredményt várnál egy explainable AI-tól?

A beszédfelismerés/szintézis pont egy elég sok évtizedes múltra visszatekintő - mondhatnám alaposan kikutatott és elég jól megértett - terület. Sok modellt alkottunk már, amik kompakt matematikai képletekkel adnak elég jó közelítést. Amit ezek tipikusan nem tudnak kezelni, azok az apró irregularitások, finomságok, "kivételek", amitől fülre képesek vagyunk megkülönböztetni egy felismert-visszaszintetizált beszédet az eredetitől. Ezeket valószínűleg nem is lehet kevés együtthatóval, egyszerű általános szabályokkal lefedni. Ez utóbbiban jók a neurális hálók - persze elképesztően sok együttható árán.

Explainable AI-ra eddigi ismereteim szerint leginkább akkor van igény, ha valami óriási adathalmazon korábban nem ismert összefüggést/korrelációt talál meg egy gépi tanulási algoritmus és nagyon jó lenne ezt valahogy kompakt matematikai formára hozni hogy mi is képesek legyünk megérteni valamit belőle. Mindezt akár a finom vagy ritka kivételek felismerésének elvesztése árán is. A beszédkódolás témájában nem igazán látom, hogy erre olyan nagy igény lenne.