( hajbazer | 2021. 03. 28., v – 17:26 )

Mondjuk, hogy a felhasználó számára csak hátrányos és etikátlan megoldás lehet.

Általánosságban, ha cloudbuzi síkon gondolkodunk, a gépi tanulás a cloudban valósul meg, így a hangcsatornát kvázi le kell hallgatni és rajta olyan algoritmusokat futtatgatni, amit a felhasználók fognak a legutoljára megismerni. Az így kinyert adatok, profilozás pedig biztonsági kockázatot is jelent, egy a szolgáltatót ért támadás esetén. Erre a Google-nál relatíve kicsi az esély, mert ők az átlag tech-multiknál többet adnak a biztonságra. Más tech-multiknál pedig közepes vagy magas a kockázat, de inkább magas.

Ha nem cloudbuzi síkon gondolkodunk, hanem a gépi tanulás minden esetben a kliens oldalon valósul meg, akkor annak technológiai sajátosságai miatti CPU- és memória-overhead-et a felhasználói fizeti meg gépkidobással vagy magasabb villanyszámlával és általában kötelező jelleggel, mivel a felhasználói szabadság lábbal tiprása és a finomhangolásos opciók szándékos kihagyása mostanában a legnagyobb divat, így akkor sem tudná kikapcsolni a gépi tanulás részét, vagy átváltani más kodekre, ha kifogástalan internetkapcsolata van neki is, meg a beszélgetőpartnernek is. Másrészt, ezek az adatok a felhasználó gépén tárolódnak, ami szintén biztonsági kockázat, ha egy kártevőt arra szakosítanak, hogy többszáz órányi hanganyagból generált profilokat lopkodjon, amivel később deepfake tudják esetleg az illető hangját utánozni és ezzel újabb social engineering-szerű támadásokat végrehajtani.