Lyra, új audio codec 3kbps-on (AV1+Lyra videochat 56kbps-on)

Fórumok

Google AI blogon bemutatott Lyra audiocodec már 3kbps sávszélesség mellett is elfogadható beszédhangminőséget képes nyújtani. AV1 videocodec-kel kombinálva modemes 56kbps kapcsolattal is lehetséges a videochat. Az Egyesült Államokban sok háztartásban máig a modemes kapcsolat jelenti az egyetlen internet csatlakozási lehetőséget, így a lyra+av1 nem egy megkésett megoldás egy régóta megoldódott problémára. 

https://ai.googleblog.com/2021/02/lyra-new-very-low-bitrate-codec-for.h…

Hozzászólások

Igazán remek, de mennyi CPU-t használ?
Más nyelven beszélt szövegre is ugyanilyen jó?

"We’ve trained Lyra with thousands of hours of audio with speakers in over 70 languages"

ez alapjan elvileg igen...

erdekes a modszer amivel mukodik, talan a wavelet (jpeg2000?) keptomorites audio analogja lehet.

nyilvan nagyon cpu igenyes egy uLaw-hoz kepest, de nem hiszem hogy a mai hardverek ne tudnak megugrani.

Szerintem nem lehet már találni 8 magosnál kisebb mobilt a piacon, a retro reneszánsz nyomógombos mobilokat leszámítva. Szóval akkor ezzel most mit is akartál mondani? 

Ne használjuk ki a hardver lehetőségeit alacsonyabb sávszélességű beszédre pont egy mobilnál? 

Alapvetően a PC-kre értettem, amit írtam.

Szerintem nem lehet már találni 8 magosnál kisebb mobilt a piacon

Nem a piacon kell kisebb-nagyobb mobilt találni, hanem a felhasználóknál, amik használatban vannak. Ezek között vannak jócskán, amik nem 8 magosak. 2-4 magosak a jellemzőek.

Ne használjuk ki a hardver lehetőségeit alacsonyabb sávszélességű beszédre pont egy mobilnál? 

A kérdés a gyakorlatban így hangzik: Ne merítsük jobban az akkumulátort, hogy a 4G-5G által biztosított sávszélesség ezredrészét megspóroljuk? A válaszom egyértelműen: Ne!

A CPU-igényesebb implementáció a csilicsúcstapicskoldán is magasabb CPU-használatot fog eredményezni, max. kevésbé érzi a felhasználó. Ha viszont több évvel ezelőtti okostelefonja van, akkor sokkal jobban fogja érezni. Tehát multiék innovációja™ lényegében a régebbi okostelefonok és PC-k elavulását gyorsítja és küld szeméttelepre a felhasználókkal működő készülékeket. Pláne, ha kötelezően bevezetett, kikapcsolhatatlan kodek lesz az új AI-buziskodásuk, ahogy a felhasználói szabadság lábbal tiprását már megszokhattuk multiéktól.

Multiék innovációja az eredményezi, hogy ott is tudnak voip telefonálni és videotelefonálni ahol 56kbps az internet ma is. Ja és vezetékesen. Egyesült Államokban ez még mai valóság. Teljes 5G lefedettség pedig ott talán soha nem lesz. Itt Európában el vannak kényeztetve ebből a szempontból az emberek. Nincs mindenhol olyan optikai vezetékes és 4G 5G mobil infra mint errefelé. Egyébként meg nyílt forráskódú, még ha multioktól is van. 

Multiék innovációja az eredményezi, hogy ott is tudnak voip telefonálni és videotelefonálni ahol 56kbps az internet ma is.

A videotelefonálás 56 kbps-en továbbra is csak spekuláció és az AV1 terén nem történt semmiféle AI-buzi innováció. Egyszerűen csak van lehetőség arra, hogy az 56 kbps-ből 53 kbps-t a videó vigyen el és 3 kbps-t csak az audió. Kérdés, mi lesz azokkal a józan eszüket még el nem vesztett felhasználókkal, akiknek eszük ágában sincs videócsetelni 56 kbps-en, viszont helyette szeretnének nem robothangon hallatszódni a másik oldalon, illetve hallani a másik felet, miközben mindenféle telemetria és gépitanulásos feed készül a hangjukból.

Egyesült Államokban ez még mai valóság.

Szóval pocsékoltassunk el az egész világgal egy csomó CPU-t, dobassunk ki több millió készüléket az okozott lassulások miatt, mert az amerikai internet- és telekom szolgáltatók spúrkodnak a hálózatkorszerűsítésen és egyes helyeken 20 éve képtelenek innoválni.

Egyébként meg nyílt forráskódú, még ha multioktól is van. 

Ez jól mutat a csillogó, Google-fényező marketinghasábokon, egészen addig, amíg ténylegesen be nem kerül egy konferenciaszoftverbe, ami már zárt forráskódú és esélyed nincs újraforgatni másik kodekkel. Máskülönben szeretnék érdeklődni, hogyan vennéd ki egy Zoom-ból, Slack-ból, Discord-ból, Facebook Messenger-ből, Skype-ból az odaerőltetett kodekeket.

Azon pedig kár vitatkozni, hogy oda lesz-e erőltetve, vagy sem. Idő kérdése és megjelennek majd minden videotelefonálós és konferenciaszoftverben. Még egy kis idő kérdése és kikapcsolhatatlan lesz. Kivétel nélkül minden IT-gigász szoftvermultira jellemző, hogy a végletekig butított, tapicskoló, konfigurálhatatlan, a felhasználói szabadságot lábbal tipró alkalmazásokat ad ki. Ez ma a trend és nem azok a multik fogják megtörni, akik mindenféle finomhangolás implementáláshoz túl milliárdosok.

"A videotelefonálás 56 kbps-en továbbra is csak spekuláció és az AV1 terén nem történt semmiféle AI-buzi innováció. Egyszerűen csak van lehetőség arra, hogy az 56 kbps-ből 53 kbps-t a videó vigyen el és 3 kbps-t csak az audió."
Ha az audiocodec elvisz 20kbps-ot akkor a megmaradt sávszélességen már az AV1 sem tud elfogadható videóminőséget produkálni. 

"Kérdés, mi lesz azokkal a józan eszüket még el nem vesztett felhasználókkal, akiknek eszük ágában sincs videócsetelni 56 kbps-en, viszont helyette szeretnének nem robothangon hallatszódni a másik oldalon, illetve hallani a másik felet, miközben mindenféle telemetria és gépitanulásos feed készül a hangjukból."
Ez most kicsit olyan mint amikor a milliárdos vadprivatizátor magyar politikusok nagyon meg akarják mondani "a nép hangjaként", hogy mit akarnak szegény prolik. :) Gondolom nálad nem modemes internet van. Magyarországon nehéz elképzelni ma már, hogy valaki olyan településen lakjon ahol modemes betárcsázós internet van és kész. És tőle 200km-re minden irányban ugyanez a helyzet. Szóval még át sem lehet menni a haverhoz, aki az "utca jó oldalán lakik". 
A robothang pedig konkrétan nem felel meg a valóságnak. Ennyi idő alatt amit itt kommentek írására szántál már ki is próbálhattad volna. Vagy ha elvből nem ott vannak hangminták a linkelt blogban. Igen jó hangminőséget produkál a lyra codec 3kbps mellett is. 

"Szóval pocsékoltassunk el az egész világgal egy csomó CPU-t, dobassunk ki több millió készüléket az okozott lassulások miatt, mert az amerikai internet- és telekom szolgáltatók spúrkodnak a hálózatkorszerűsítésen és egyes helyeken 20 éve képtelenek innoválni."
Nem csak az Egyesült Államokról van szó. De ha ott ez van ma az ország még mindig jelentős részén, akkor szerinted mi lehet Afrikában, Latin-Amerikában?! Vagy a szintén fejlett Ausztráliában, ahol a hatalmas terület és alacsony népsűrűség miatt még nagyon sokáig nem lesz gazdaságosan megoldható a stabil és szélessávú internetkapcsolat a nagyvárosokon kívül. 
Illetve Magyarországon ugyan jól el vagyunk kényeztetve sávszélességgel, de itt is vannak még fehér foltok a térképen. Illetve a korlátlan mobilinternet árait még ma sem akarja megfizetni a magyar előfizetők többsége. Az adatforgalmi korlátos mobilnetes csomagoknál pedig itt is nevetségesen alacsony havi adatcsomagok vannak. Nem mindegy, hogy 3kbps -al vagy 30kbps-al fogyasztja az adatot a voip. A Skype például 4-30kbps között fogyaszt. Gyenge internetes kapcsolatnál az alsó határ közelében elég borzalmas a hangminősége. Ha gyors 4G, 5G mobilneten megy a Skype beszélgetés akkor pedig 30kbps-ra fog beállni, mert a mobilnet minősége jónak érzékeli, de az adatforgalmi korlát akkor is ott van. És végül egyes magyar mobilszolgáltatók pont 56kbps környékére lassítják a mobilinternetet a havi adatkeret túllépése után. Még mindig jobb mint az a csomag ahol teljesen kikapcsolják a mobilnetet. Ezen a lassított mobilneten is működik a Lyra codeces Duo, sőt még videotelefonálni is lehet. 

"Ez jól mutat a csillogó, Google-fényező marketinghasábokon, egészen addig, amíg ténylegesen be nem kerül egy konferenciaszoftverbe, ami már zárt forráskódú és esélyed nincs újraforgatni másik kodekkel. Máskülönben szeretnék érdeklődni, hogyan vennéd ki egy Zoom-ból, Slack-ból, Discord-ból, Facebook Messenger-ből, Skype-ból az odaerőltetett kodekeket."
Miért akarnánk ilyet?
Open source lényege nem az, hogy legyen nyílt Zoom-tól Discordig minden, hanem a lehetőség arra, hogy kis teamek vagy akár egyéni programozók maguk tudnak komplett szoftvert fejleszteni. Messenger típusú alkalmazásoknál például esélytelen lenne egy egyéni programozó ha nulláról kellene írnia audio codec-től protokollig mindent. (A kommunikációs szerverekkel közvetlenül kommunikáló alternatív kliensek támogatását többek között azért kezdték megszüntetni, mert ez elég nyitott hackelési pont). 
Discord például nem nyílt, de van nyílt forráskódú alternatívája több is. Element például elég jó, ki is váltja a textelős részt. Hang és videókonferenciázásban viszont elég gyenge. A lyra egy nyílt forráskódú és ingyenes eszköz arra, hogy ha van erre szándék a fejlesztőknél az Element még jobb is lehessen voipozásban mint a Discord a jövőben. 

"Azon pedig kár vitatkozni, hogy oda lesz-e erőltetve, vagy sem. Idő kérdése és megjelennek majd minden videotelefonálós és konferenciaszoftverben. Még egy kis idő kérdése és kikapcsolhatatlan lesz. Kivétel nélkül minden IT-gigász szoftvermultira jellemző, hogy a végletekig butított, tapicskoló, konfigurálhatatlan, a felhasználói szabadságot lábbal tipró alkalmazásokat ad ki. Ez ma a trend és nem azok a multik fogják megtörni, akik mindenféle finomhangolás implementáláshoz túl milliárdosok."
Szvsz ennek a fő oka az, hogy sok mindenhez IS értő it pistike user van, akik addig "optimalizálják" a millió beállítási lehetőség között a programot amit használnak, még a nekik fontos user-esetre teljesen alkalmatlanná teszik. Ilyenkor persze nem az van, hogy "szétbarmoltam segítsetek helyrehozni", hanem telesírják a fórumokat és a közösségi médiát azzal, hogy X szoftver mennyire ócska szar. 

Ha az audiocodec elvisz 20kbps-ot akkor a megmaradt sávszélességen már az AV1 sem tud elfogadható videóminőséget produkálni.

Az a 20 kbps nem sok érdemit fog hozzátenni az egy nagyságrenddel sávszélességigényesbb videócsatorna minőségéhez. Pláne nem ott, ahol tényleg szükség van a hangcsatorna 3 kbps-be tuszkolására és nem megy magasabb bitrátán. Ott bizony nem lesz videó.

A robothang pedig konkrétan nem felel meg a valóságnak. Ennyi idő alatt amit itt kommentek írására szántál már ki is próbálhattad volna. Vagy ha elvből nem ott vannak hangminták a linkelt blogban. Igen jó hangminőséget produkál a lyra codec 3kbps mellett is. 

Meghallgattam a mintákat. [1] A Lyrának 3 kbps-en abszolút robothangja van. A Speex-nek és az Opus-nak meg csak szimplán tompa, mintha egy rozogább hangszóróból szólna. Persze, ez már az ízlések és pofonok kategória. Ha már robothangon kell valakit hallgatnom, én inkább írásban kommunikálnék vele. Az még jobban elfér 3 kbps-en és AI sem kell hozzá.

Nem mindegy, hogy 3kbps -al vagy 30kbps-al fogyasztja az adatot a voip.

De igen, totál mindegy, amikor a másik 99%-át eljútyúbozzák, elszpotifájozzák, eltiktokozzák. Kb. annál számít valamit, akinek havi 100-200 MB mobilinternete van (van még ilyen?). Sok lakossági fogyasztói csomagban 1 GB a minimum, amit kérhetsz egy hónapra. A 30 kbps-t használó Speex/Opus-szal még így is 2^30/(30000/8)/60 = 4772 percet (77 órát) kéne folyamatosan beszélned egy hónapban, hogy kitelítsd.

Ha gyors 4G, 5G mobilneten megy a Skype beszélgetés akkor pedig 30kbps-ra fog beállni, mert a mobilnet minősége jónak érzékeli, de az adatforgalmi korlát akkor is ott van.

Ahelyett, hogy beállna normálisan egy 60-120 kbit/s-re, hogy tényleg 21. századi hangminőséget hallj, ha már 21. századi internetet raktál alá. De nem, akkor is marad az elbaszott, szintetikus, steril, agyonzajszűrt robothang, ha nem sajnálod a pénzt normális internetre, vagy mobilnetre. Na ez, a másik, ami undorító, multiék részéről. Mert addig még közel tűrhető, amíg egy ember van ott, amellett, hogy semmiféle plusz élményt nem ad egy telefonvonalhoz képest. Ott viszont már kezdődnek a bajok, amikor többen vannak az okostelefon/számítógép környékén, távolabb a mikrofontól, és ők is szeretnének beszélgetni a távoli partnerrel. Hiába van gyors interneted, jó mikrofonod, a kikapcsolhatatlan agyontömörítő szutykok elintézik neked, hogy ha akarod, se tudd úgy élvezni a videokonferenciát, mintha a másik oldal tényleg ott lenne a szobádban. Aztán mehetsz HiFi hangminőséget az égről lehazudó USB/Bluetooth kihangósítókat venni ötven-százezrekért.

a lassított mobilneten is működik a Lyra codeces Duo, sőt még videotelefonálni is lehet

Ahogy a Speex/Opus vagy az AMR vagy a GSM (mint hangkodek) is működik. A videótelefonálásnak pedig továbbra sincs semmi köze a Lyrához, csak benyaltad multiék marketingasztalon előkészített asszociációs mézesmadzagját. Amilyen minőséget át tudnak vinni azon a pár tíz kilobiten, az pont olyan, hogy nincs értelme bekapcsolva tartani a kamerát, inkább szeretném nem látni és tisztábban hallani a másikat, mintsem életidegen robothangon.

Messenger típusú alkalmazásoknál például esélytelen lenne egy egyéni programozó ha nulláról kellene írnia audio codec-től protokollig mindent. 

Ezzel gyakorlatilag el is ismerted, hogy egyéni felhasználó szemszögéből semmi értelme nincs az open-source címke kiragasztásának, még akkor sem, ha ez a felhasználó éppenséggel programozó, sőt azt is, hogy az open-source címke kiragasztása ebben az esetben egy nüansznyit se járul hozzá a felhasználói szabadsághoz. Továbbra is arról beszélünk, hogy multiék beleerőltetik az összes használt csevegőalkalmazásba az új kodeket, kikapcsolhatatlanul, mert túl™ sokba™ kerülne egy kodekbeállító combo box, aztán ha nem tetszik, marad az a lehetőség, hogy megpróbálod újraírni az egész alkalmazást nulláról, feláldozva erre az összes szabadidőd, magánéleted stb. és még úgy sem tudsz teljes feature-paritásban lévő alkalmazást készíteni. Vagy írhatsz egy hasonló, egyszerűbb sajátot, amire mind az 5 ember át fog menni az 50-ből, akit sikerül átrángatnod. Gratulálok! Ezek aztán tényleg igen előnyös™ és reális™ választási lehetőségek.

sok mindenhez IS értő it pistike user van, akik addig "optimalizálják" a millió beállítási lehetőség között a programot amit használnak

Az ugye eszedbe se jutott, hogy esetleg azért optimalizálják, mert alapból szarul működik és mivel milliárdosék szarnak a fejükre a support fórumokon, meg kiszúrják a szemüket kedves hangvételű marketingválaszokkal, így megpróbálják a saját kezükbe venni a problémamegoldást. Egyébként a haladóbb felhasználók elég sokat sírnak mindenféle alkalmazás butításán, kiherélésén, konfigurációs beállítások kiszedésén. Sokkal többet, mint azok a bizonyos pistikék, akikből valószínűleg sokkal több van a vezető babzsákfejlesztők és idealista termékgazdák álomvilágában, mint a valóságban.

Ugye megint write-only módba kapcsoltál és pár kiragadott kulcsszó triggereli a megfelelő szabványválaszodat?! De még az általad bemásolt mondatot sem olvasod el! :) 

"Ezzel gyakorlatilag el is ismerted, hogy egyéni felhasználó szemszögéből semmi értelme nincs az open-source címke kiragasztásának, még akkor sem, ha ez a felhasználó éppenséggel programozó, sőt azt is, hogy az open-source címke kiragasztása ebben az esetben egy nüansznyit se járul hozzá a felhasználói szabadsághoz. Továbbra is arról beszélünk, hogy multiék beleerőltetik az összes használt csevegőalkalmazásba az új kodeket, kikapcsolhatatlanul, mert túl™ sokba™ kerülne egy kodekbeállító combo box, aztán ha nem tetszik, marad az a lehetőség, hogy megpróbálod újraírni az egész alkalmazást nulláról, feláldozva erre az összes szabadidőd, magánéleted stb. és még úgy sem tudsz teljes feature-paritásban lévő alkalmazást készíteni. Vagy írhatsz egy hasonló, egyszerűbb sajátot, amire mind az 5 ember át fog menni az 50-ből, akit sikerül átrángatnod. Gratulálok! Ezek aztán tényleg igen előnyös™ és reális™ választási lehetőségek"

Azt írtam, hogy ha free és opensource codec nélkül nulláról írva akkor nem lenne rá esély, mert codecekkel tokkal vonóval hatalmas munka lenne. De free és opensource codec elérhetősége mellett lehetséges egy ilyen app megírása. Kis csapatoknak vagy akár egyéni programozónak is. 
Nem a szabadidőt feláldozva és pláne nem a magánéletet feláldozva lehet írni egy messenger appot. Because we can!
Nyilván vannak különbségek. Ami egy hobbiprogramozónak 3 hónapos munka az egy valódi programozónak egy hétvége. Tervezéssel. Ezt a hobbiprogramozók gyakran kihagyják pedig időt nem spórolnak, inkább később lesz kész a tervezett program. 
Az előbb is írtam, de akkor itt is. Nem kell nyílt forráskódónak lennie egy codec-nek ahhoz, hogy fel tudja használni egy külsős/független programozó. De a nyílt forráskód egyrészt további beállítási lehetőségekre ad teret, amit annyira követelsz. Illetve egy voip messenger app bizalmi szoftver is. Ha már sajátot ír valaki alapelvárás, hogy a kémkedés elméleti lehetősége is ki legyen zárva. Ahhoz pedig bizony jó, ha van forrás a felhasznált lib/dll-ekhez is. Sőt le is fordítja a saját kódjával együtt. 
Eleve azt írtam, hogy haveroknak írom. Nem a világ meghódítása a cél. Ha az 5 haver használja akkor cél elérve. Because we can!

Dehogynem. Igenis van értelme az opensource címkének. Pl. ennek köszönheted, hogy az XP-den a böngészők meg lejátszóprogik még mennek. Abszolúte nem csak egy dísznek kiragasztott címke, hanem a felhasználó szemszögéből is egy nagyon fontos elv, nem csak programozóknak. Persze, ne feledd, hogy önmagában a nyílt forráskód még nem minden, attól a licenc lehet zárt, lehet fizetős, engedélykérős, nem szabadon terjeszthetős, stb..

Illetve ne azt nézd, hogy egy adott nyílt megoldást magadnak írsz, meg 50-ből csak 5 ember tér át rá. Már akkor is több, mint a semmi, és előrébb lettél vele, mintha zárt kódról lenne szó, amit magadnak sem tudnál átírni, nem hogy másik 5 embernek (megint, pl. annak a nagyon kevésnek, aki még XP-t használna). Valamit így még hozzátehetsz a technológiához. Ha reális lehetőségnek tűnik számodra, ha nem, akkor is lehetőség, és több, mint a 0 lehetőség.

Mobilnetnél nem azt kell nézni, hogy 100 vagy 1000 megás csomag. Hanem hogy sok területen irtó szar a térerő, kicsi a sávszél, mert a szolgáltató csesznek normálisan kiépíteni az infrastruktúrát, adótornyokon, lefedettségen spórolnak. Ez meg új technológiákat, extrémebb megoldásokat kíván. Ha robothangon, akkor robothangon, de ne szakadjon meg a hangkapcsolat, értsed, amit hozzád pofáznak, meg téged is értsenek.

A videótelefonálásnak meg annyi köze lehet a Lyrához, hogy ha a Lyra tud sávszélt spórolni az audióból, azt a videócodec hasznosíthatja, ami jól jöhet. Nyilván ettől még neked nem kötelező használni, a kettőt összekapcsolni. Továbbra is léteznek majd Speex, Opus, AMR-t használó megoldások.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

Dehogynem. Igenis van értelme az opensource címkének. Pl. ennek köszönheted, hogy az XP-den a böngészők meg lejátszóprogik még mennek.

Azokat nem multik írták és jelenleg nem multik backportolják. Próbáld meg nem szándékosan félreérteni. Én arról a típusú álszentségről beszéltem, amit multiék művelnek az open-source projektekkel, mindeközben a valódi, széles körben használt, végfelhasználói alkalmazásokat már closed-source adják ki.

Már akkor is több, mint a semmi

Én arról beszéltem, hogy lehet-e teljesértékű alternatívája egy csevegőalkalmazásnak az által, hogy multiék open-source projektekből rakják össze. A válasz az, hogy nem lehet. Mert az API ugyanúgy zárt. Mert jön a banhammer és a fióklezárásos terror, ha alternatív klienssel használod a profilod.

Hanem hogy sok területen irtó szar a térerő, kicsi a sávszél, mert a szolgáltató csesznek normálisan kiépíteni az infrastruktúrát, adótornyokon, lefedettségen spórolnak.

Lehet, hogy szar a térerő, de az nem a 3 vs 30 kbps síkon jön le, hanem 1 Mbit/s vs 10 Mbit/s síkon. Plusz, az is sokat belekomplikál, hogy a divatbuzi okostelefongyártók képtelenek normális antennát tenni a telefonra, mert az már idejétmúlt™. Így gyakorlatilag van az okostelefonokban néhány hullámhosszhoz igazított mérettől rettentő távol álló fóliaantenna, amit le is árnyékolsz a tenyereddel-fejeddel, miközben a füledhez tartod. Amikor netezel, akkor meg csak a tenyereddel.

A videótelefonálásnak meg annyi köze lehet a Lyrához, hogy ha a Lyra tud sávszélt spórolni az audióból, azt a videócodec hasznosíthatja, ami jól jöhet

A videotelefonálásnak semmi köze nincs a Lyrához. 56 kbps-en nem tesz hozzá az AV1-hez a megspórolt 20 kbps. Feljebb, mondjuk 1 Mbit/s-en, ahol lehet normális minőségű, nem homályos, kockás szar videót is átvinni, meg már semmit nem tesz hozzá az, hogy 3 kbps vagy 30 kbps. Ezt a két dolgot a Google a marketingasztalon egymás mellé tolta. A valóságban viszont két külön dolog.

Továbbra is léteznek majd Speex, Opus, AMR-t használó megoldások.

Egészen addig, amíg multiék majd A-B tesztelik az új szutykuk, aztán tapicskolóék 51%-ának tetszik, akkor majd a maradék 49% torkán is lenyomják, ahogy egyébként szokásuk.

Ja, az, ha zárt az API az nem opensource. Meg arról se az opensource tehet, hogy a multik álszentek. Egyébként nekem pont ez a bajom a multikkal, amit írsz, hogy 1 megoldást akarnak mindenki torkán lenyomni, meg a bloat corporate bullshitjeiket erőltetik, és nem a tényleges technológiai fejlődésre mennek. Nyilván, én itt amiről írtam, az a tisztán free opensource. Ha a multik ezt nem kezelik megfelelően, az az ő hibájuk.

A térő nagyon sokszor irtó gagyi, ilyen analóg modemes-betárcsázós szintet nem üt meg. És nem csak M.o.-n, meg a Balkánon, hanem pl. itt kint, angliai nagyvárosokban is jó pár szolgáltatónak egyes városrészeken és kiesebb területeken annyira fos a jelerősség, hogy normál, plain HTML, mobil weboldalakat alig lehet kiszenvedni vele, ilyen szutyok 64 kbit/sec-os netrádió is beakad rajtuk. Pedig ez itt a nagy őskapitalista nyugat, és még amerikaiaktól is hallottam, hogy a nagy, technológiában éllovas USÁ-ban is sok embernek van még betárcsázós sebességszintnek megfelelő hitványságú nete, amin ne is sávszélességnek nevezett valami van, hanem sávszűkösségnek lehetne csúfolni, az integrált GPU-k hardveres lassítónak csúfolásához hasonlóan. Szóval de, ilyen elcseszett helyzetekben igenis nem mindegy, hogy valami 3 vagy 30 kbps-ot visz el a sávszélből. Abban igazad van, hogy ennek a 2021-es technológiai szinten nem kéne gondot okoznia, mert tényleg az isten háta mögötti zsákfalus meg túrahelyeken is elvárható lenne az 1-10 Mbit, de ha egyszer a szolgáltatók az infrastruktúrán rágják a kakát, akkor sajnos ez van. Annak én is jobban örülnék, ha a pénzüket nem gépi tanulós AI szutykokra fordítanák, hanem rendes infrastuktúra kiépítésére, és itt nem csak netet értek ez alatt, hanem rendes áramszolgáltatás, jó ivóvíz, csatornázottság, közbiztonság, normális eü-ellátás, meg egyéb luxus, high-tech dolgok. Nagyobb haszna lenne, mint a netes adatlopós meg gépi tanulós baromságaiknak.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

Félig offként, egyébként Afrika lakott területen meglepően jól áll gerinchálózat terén. Úgy általában, a lakott területek elég jól állnak 
https://www.infrapedia.com/app

Viszont tényleg nagyon sok terület van, ahol csak nagyon minimális vagy valami régebbi fajta, elavultabb kommunikációs mód érhető csak el. Ott sokat számít egy jobb codec vagy egy jobb kapcsolat lehetősége. És ott is emberek milliói élnek és dolgoznak, ami a világ hátamögött van.

Ez pont az a fajta érvlés, mint amikor a UX-ökrök kihipózzák, színtelenítik, szagtalanítják a felhasználói felületet, mert van 1% színtévesztő is a felhasználók között. Aztán persze jó™ lesz™ az a másik 99%-nak is. Meg amikor a desktop Linuxokat eltabletesítik, helypazarló, végtelen paddingos megjelenéssel, mert van egymillióból egy Tapicskoló Tamás ivadék, aki sajnálta a pénzt Windows-licenszre a Lenovo Yogájára, ami így Ubuntuval jött.

Szerintem legyen a boltban is csak szárazkenyér, mert Afrikában is csak az van, no meg egészségesebb is, hiszen csak lassabban lehet megenni.

Ismétlem: nem a kodek kifejlesztésével van a baj, hanem azzal, ha majd kötelezően erőltetik bele mindenbe, a felhasználói szabadságot lábbal tiporva, a készülékeket belassítva, kidobatva.

Azért a szolgáltatások üzemeltetőinek sem mindegy, hogy mennyi helyet foglal vagy mekkora forgalmat generál valami. 

A frissítetlen régi 2g telefonodon nem probléma, mert úgysem megy fel rá egyik program sem.  Viszont abban igazad van, hogy nem a leggyengébb láncszemhez igazodik az egész világ, mert akkor sosem jutnánk egyről a kettőre. S bizony, te az a kisebbség vagy, aki fogalom nélkül kapaszkodik a régi jó dolgokért. Az mellékes, hogy fogalomzavarban szenvedsz felhasználói szabadság terén :D

Azért a szolgáltatások üzemeltetőinek sem mindegy, hogy mennyi helyet foglal vagy mekkora forgalmat generál valami. 

Tessék peer-to-peer megoldásokkal dolgozni cloudbuziskodás helyett és nem fog számítani a 30 kbps vs 3 kbps különbség az adatközpontoknak, egy európai hálózaton meg főleg nem.

igazad van, hogy nem a leggyengébb láncszemhez igazodik az egész világ, mert akkor sosem jutnánk egyről a kettőre

De igen, jutnánk. Annyira jutnánk, amennyire valóban szükségünk volna, de nem dobálnánk ki működő eszközöket az innovációnak hazudott erőltetett növekedés és a babzsákfejlesztői, szoftveres kényelmeskedés miatt.

S bizony, te az a kisebbség vagy, aki fogalom nélkül kapaszkodik a régi jó dolgokért.

Igen, a régi dolgokért, amiket új, a mi körülményeink között kevésbé jó dolgokkal akarnak erőltetve felváltani, csak azért, hogy néhány befektető a milliárdosabbnál milliárdosabb legyen. A mi körülményeink között itt most azt jelenti, hogy azért kell majd Európában robothangon hallgatni a beszélgetőpartnert, meg több millió okostelefont és számítógépet kidobni a magasabb CPU-használat miatt, mert az USÁ-ban a pénzéhes multik képtelenek innoválni és még mindig a '90-es években élnek az 56kbps-t biztosító betárcsázós internethálózatukkal. Érdekes, amikor velem kötekszel a még mindig jól működő 2G 3G telefonom miatt, amivel amúgy elégedett vagyok, erről mélyen kussolsz.

Esetleg lehet, hogy nem az én szememben kéne keresned a gerendát a sosem jutnánk egyről a kettőre kényszerképzeteddel? Esetleg lehet, hogy van egy csomó más terület, amit annál is maradibb, begyöpösödött, spúrabb, élősködőbb kiskirályok uralnak, mint amilyennek engem látsz a 3G-telefonommal? Nézzél szét, hogy állunk az egészségüggyel, a vasúthálózattal, a közoktatással, az egyetemi képzések egyre csökkenő színvonalával, a légszennyezettséggel, a környezetbarát energiatermeléssel (és direkt nem kizárólag megújulót mondtam), a társadalmi feszültségekkel (ez most kiemelten igaz az USÁ-ra). Biztos, hogy az okostelefonok és a szoftverek terén van szükség még további fejlődésre kerékújrafeltalálásra és minél gyakoribb készülékújravásároltatásra?

Tedd fel magadnak a kérdést, hogy ha ezt a rengeteg pénzt, amit az IT összekaszált eddig, az előbb felsoroltakba öltük volna bele (és most mindegy, hogy állami vagy befektetői pénzből, a ráfordított energia a lényeg), és most egy olyan világban élnénk, ahol a városokban is tiszta a levegő, van mindenhol normális bicikliút és elegendő zöldövezet, nem vet fel minket a szemét, az oktatásban nem 30 éve elavult módszerekkel tanítanak képzetlen amatőrök és begyöpösödött Erzsi nénik, a vonatok 400-500 km/h-val száguldanak egyik megyeszékhelyről a másikba, akkor tényleg az lenne a legnagyobb problémád, hogy csak egy 3G mobiltelefonon tudsz beszélgetni, ha épp nem vagy gépnél?

Szerintem itt most feleslegesen mész neki ennek a technológiának.

1. Nyílt forráskódú, átnézheted, nem állja meg a helyét a multizás.

2. Opcionális, nyugodtan használhatod a meglévő módszereket, vagy akik szeretnék azok implementálják ezt az appjukba és te mint enduser eldöntheted hogy megkötöd-e a minőségért cserébe a magasabb hw igény üzletet.

Szvsz teljesen vállalható kompromisszum ha jobban merül a telefonod de cserébe nem abból áll a beszélgetés jelentős százaléka hogy "halló... halló, nem hallak, akad, szakad, recseg, elismételnéd? bocsi". 

Illetve pont azon a területen lesz hasznos ahol tényleg ott tart az infra hogy betárcsás modem a max elérhető net.

1. Nyílt forráskódú, átnézheted, nem állja meg a helyét a multizás.

Egészen addig nem állja meg a helyét a multizás, amíg ténylegesen be nem kerül egy Google Chat-be, Zoom-ba, Slack-be, Discord-ba, Facebook Messenger-be, Skype-ba, Teams-be, ami már zárt forráskódú és esélyed nincs újraforgatni másik kodekkel.

2. Opcionális, nyugodtan használhatod a meglévő módszereket, vagy akik szeretnék azok implementálják ezt az appjukba és te mint enduser eldöntheted hogy megkötöd-e a minőségért cserébe a magasabb hw igény üzletet.

A szélsőségesen idealista, mintakapitalista világodban még lehet, hogy ez tényleg így is működik. A valóságban azonban úgy működik, hogy frissítik a Google Chat, Zoom, Slack, Discord, Facebook Messenger, Skype, Teams stb. alkalmazást, amiben már benne van ez a kodek. Innentől két választásod van.

  1. Frissíted az alkalmazást, belassítod és lemeríted hamarabb a telefonod, miközben pontosan ugyanazt csinálod, mint előtte.
  2. Nem frissíted az alkalmazást és várod a napot, hogy mikor lesz verzióblokkolás vagy olyan API-csűréscsavarás, ami miatt már nem tudod használni a régi verziót. Innentől meg goto 1.

A harmadik persze az, hogy kidobod az okostelefonod és veszel egy újat, csupán azért, hogy ugyanarra, ugyanúgy használhasd, mint előtte. Tényleg nagyszerű™, felettébb etikus™ üzlet ez, multiék részéről.

Azon pedig kár vitatkozni, hogy oda lesz-e erőltetve, vagy sem. Idő kérdése és megjelennek majd minden videotelefonálós és konferenciaszoftverben. Még egy kis idő kérdése és kikapcsolhatatlan lesz. Kivétel nélkül minden IT-gigász szoftvermultira jellemző, hogy a végletekig butított, tapicskoló, konfigurálhatatlan, a felhasználói szabadságot lábbal tipró alkalmazásokat ad ki. Ez ma a trend és nem azok a multik fogják megtörni, akik mindenféle finomhangolás implementáláshoz túl milliárdosok.

nem abból áll a beszélgetés jelentős százaléka hogy "halló... halló, nem hallak, akad, szakad, recseg, elismételnéd? bocsi"

A csomagvesztés 3 kbps-en is csomagvesztés. Tetszettek volna nem a dizján mindenekfelett alapon normális antennát tenni az okostelefonokba a NYÁK-ra integrált fóliaszarok helyett. Tetszettek volna nem szar-húgy, túlterhelt, megbízhatatlan, csomagkapcsolt hálózaton UDP-n áttolni mindent, hanem vonalkapcsolt technológiát használni (2G, 3G), ha már szempont a folyamatosan érthető hang.

pont azon a területen lesz hasznos ahol tényleg ott tart az infra hogy betárcsás modem a max elérhető net

Ott még az lehet. Cserébe fogyasszon gigawattokkal többet az egész világ és a régebbi gépeket dobja ki mindenki a gépitanulásos algoritmus overhead-je miatt. Megéri™.

1. Ha be is kerül, akkor is nyílt forráskódú marad, leforgatod a saját appodba amit te magadnak csinálsz és raksz bele egy kapcsolót hogy on/off.

2. Nem a fentiek közül választasz hanem mivel nyílt a cucc ezért implementálod a sajátodba, vagy ha valóban van rá valós igény akkor egészen biztosan lesz forkja amit használhatsz.

3. Nem kell újat venni, az én okostelefonom is 5 éves és köszöni szépen remekül elvan gyárilag up2date szoftverrel. Nem mellesleg az előző két pont áll, vagy megírod magadnak, vagy ha van igény rá akkor lesz ebből nyílt forrású app is amit szépen feltelepítesz a régi telefonodra.

4. A csomagvesztés csomagvesztés, de nem mindegy hogy egy csomagban mennyi hasznos adat van. Ha kellően jól működik az AI akkor szépen ki fogja korrigálni a hiányzó darabot vevő oldalon és a csomagvesztés kevésbé lesz bántó. Illetve alapból kevesebb csomag indul útjára, kisebb az esélye annak hogy elveszik. Meg itt nem feltétlen a csomagvesztésről van szó hanem egyszerűen arról hogy azon a vékony dróton/egyéb hálón mennyi adatot tudsz x idő alatt átpréselni.

5. Fogyasztást tudod kompenzálni napelemekkel és egyéb megújulókkal és így pont a te álláspontod érvényesül: Használható marad a régi is csak jobb minőségben a fogyasztás kárára.

 

Amúgy szerinted itt mi lenne a jó megoldás? Mert az nyilvánvalóan látszik hogy neked ez nem tetszik. Te hogyan oldanád meg a fenti helyzetet ahol adott x vékony hálózat, x eszköz és ne kelljen őket újra legyártani vagy újra cserélni?

Szvsz az hogy nyílt és az csinál vele és azt amit akar elég jó alap. De ha van alternatív ötleted egy már kialakult helyzetre akkor ne tartsd magadban. Mert hiába írod hogy szart gyártottak és most szopó van, ezzel a probléma nem oldódott meg.

Az 1, 2, 3. gyakorlatilag ugyanaz a szélsőséges idealizmus, csak más szavakkal leírva. Nem, a használt, closed-source alkalmazásokba beerőltetett open-source kodek semmiféle választási lehetőséget nem ad egy closed-source kodekkel szemben, amennyiben a closed-source alkalmazásokat szeretnéd tovább használni és nem akarod reverse-engineer-elni, írni egy saját, vele kompatíbilis open-source alkalmazást, elbaszva minden létező szabadidőd, kockáztatva egy nyakadba akasztott pert.

Ha kellően jól működik az AI akkor szépen ki fogja korrigálni a hiányzó darabot vevő oldalon és a csomagvesztés kevésbé lesz bántó.

Az AI™ laboratóriumi 3 kpbs-en működik jól™, de még ott is agyonzajszűrt, életidegen robothangot produkál. Ha elvesznek a csomagok, az már nem 3 kbps.

Illetve alapból kevesebb csomag indul útjára, kisebb az esélye annak hogy elveszik.

Ha viszont elveszik, sokkal több értékes információ veszik el. Ez úgy en-bloc igaz a tömörített vs tömörítetlen adatfolyamokra.

Fogyasztást tudod kompenzálni napelemekkel és egyéb megújulókkal és így pont a te álláspontod érvényesül: Használható marad a régi is csak jobb minőségben a fogyasztás kárára.

Igen, a soron következő szélsőséges idealizmus. Persze, majd pont napelemet fog venni a smartpolgár 2 millióért és nem egy új okostelefont 200 000-ért. Mutass egy embert ezen a világon, aki azért installált napelemeket, hogy a bloated szoftver által elpocsékolt energiát környezetbarát módon termelje meg. Mindeközben az okostelefonja továbbra is lassulgat, hiszen nincs beállítási lehetőség a CPU-kímélőbb kodek használatára.

Amúgy szerinted itt mi lenne a jó megoldás?

Ha eddig nem jött volna át a válaszaimból: Egy kibaszott, rühes, nyamvadt beállítási lehetőség, amivel ki lehet választani a használt-preferált kodekeket. Mint ahogy ez minden nem egységsugarú, Google-milliárdokból fizetett kényelmes babzsákfejlesztők által összetákolt és nem végletekig butított, valamirevaló VoIP szoftverben alapdolog. Tessék, ismerkedj a látvánnyal (Available, Enabled és azon belül a fel-le prioritási lista): https://www.microsip.org/images/microsip-7.png

1-2-3 azért ugyanaz mert a pontok amiket te felvetettél is pontosan ugyanazok voltak.

Open source alkalmazásba úgy raksz open source cuccot ahogy jónak látod, senki nem fog beperelni. Meg kell írni az alkalmazást ha van rá igény, ha meg nincs akkor szépen elhal mert a kutyát nem érdekli.

Ha úgy érzed hogy a világon rajtad és még néhány nagyhangú fórumharcoson túl mást is érdekel akkor hajrá, írd meg, vagy ha nem tudod keress fejlesztőt és írasd meg vele. Ha igazad van és valóban van erre igény akkor sikeres lesz, ha nem akkor pedig fogadd el hogy egy olyan kisebbség része vagy akinek a véleményével nem ért egyet a világ.

Illetve nem csak kereskedelmi sikerre lehet írni voip-messenger appot. Ha neked és pár barátodnak kell egy saját, amiben minden úgy állítható ahogy az szerintetek helyes miért ne?! Because we can! :) 
Mivel a szükséges kódok, amik elég munkaigényesek lennének teljesen saját erőből, például audio codec rendelkezésre forráskóddal by open source ez egy kivitelezhető feladat. 
Persze a codec forráskódja nem kötelező ahhoz, hogy programot írj amiben csak simán használod. Túloptimalizáláshoz, extra beállításokhoz viszont jól jön. 

Aha és Facebook Messenger, Zoom, Skype hívást is lehet majd vele indítani, igaz? Anélkül, hogy éjt nappallá téve töltenénk el minden időnket bitbogarászással, meg hogy perelnének multiék, hogy reverse engineer-eltük a zárt API-jukat. Ha meg nem vagyunk perelhetőek, akkor meg jön a felhasználók terrorizálása és az accountok letiltogatása, ahogy azt már megszokhattuk az alternatív appok esetében.

Azért néha hihetetlen, hogy átmosták az agyatokat a korporatizált open-source maszlaggal.

Illetve nem csak kereskedelmi sikerre lehet írni voip-messenger appot. Ha neked és pár barátodnak kell egy saját, amiben minden úgy állítható ahogy az szerintetek helyes miért ne?! Because we can! :) 

A kommunikációs szerverekkel közvetlenül kommunikáló alternatív kliensek támogatását többek között azért kezdték megszüntetni, mert ez elég nyitott hackelési pont.

Írhatsz saját Duo klónt, nem fognak perelni ezért. Csak saját szervert kell hozzá működtetned, a hivataloshoz nem kapcsolódhat. 

kliensek támogatását többek között azért kezdték megszüntetni, mert ez elég nyitott hackelési pont.

Ez ócska kifogás. A rosszindulatú támadók ugyanúgy kifürkészik a zárt API-k támadhatóságát, ahogy a nyíltakét. Sőt, a nyílt API-kat mivel eredendően több fehérkalapos is látja, így hamarabb kiderülnek a gyenge pontok is. A marketingasztalon biztos jól mutat ez a kifogás, de valójában azért erőltetik a saját, zárt forráskódú alkalmazásokat, hogy a kelleténél sokkal több eladható adatot gyűjtögessenek a kliens eszközön, lehetőleg a tudtod és a részletes (forráskódba való) betekintési lehetőséged nélkül.

Csak saját szervert kell hozzá működtetned, . 

Loop: mind az 5 ember az 50-ből majd átjön rá. [1]

Fogd már fel végre, hogy nem a saját hálózat vs multiék hálózata síkon vagyunk, hanem ott, hogy milyen választási lehetőséged van, ha te holnaptól nem szeretnéd a Lyra robothangját hallgatni 3 kbps-en, hanem inkább a természetesebb hangzású Opus-t szeretnéd 30 kbps-en, ami tegnap és tegnapelőtt is még jól működött, holnaptól meg már nem működik, sőt az okostelefonod is belassul és jobban merül. Semmilyen lehetőséged nincs és az okostelefonod kidobása is csak félmegoldás, ha a Google kikapcsolhatatlanná teszi a Lyrát. A saját hálózat nem alternatíva arra, hogy kapcsolatban maradj mindenkivel, akivel tegnap még kapcsolatban voltál multiék hivatalos appján keresztül, mert nem fog mindenki átjönni a te hálózatodra. Sőt a nagy részük nem fog átjönni. [2]

a hivataloshoz nem kapcsolódhat

De igen, kapcsolódhat, ha egy kis reverse engineeringgel megoldod, hogy eredeti kliensnek hazudja magát. Mint a Youtube Vanced, mint a NewPipe, mint az MQTT-alapon működő purple-facebook, mint Miranda NG. Itt szoktak jönni a jogi izmozások, vagy ha az nem jön össze, mert a GPL licensz véd, vagy nem azonosítható egyértelműen a fejlesztők kiléte, akkor ráállnak a felhasználók terrorizálására, pl. letiltogatják azokat a felhasználókat, akiknél valahogy észlelik, hogy alternatív klienssel csatlakoznak. A magadfajtákkal meg benyalatják a hivatalos maszlagot, hogy erre a biztonság™ érdekében™ van szükség.

"Ez ócska kifogás. A rosszindulatú támadók ugyanúgy kifürkészik a zárt API-k támadhatóságát, ahogy a nyíltakét. Sőt, a nyílt API-kat mivel eredendően több fehérkalapos is látja, így hamarabb kiderülnek a gyenge pontok is. "
https://hup.hu/comment/2613422#comment-2613422

Tehát szerinted a nyílt API = nyilvánosan, azonosítás és korlátozás nélkül használható, személyes adatokat kiszolgáltató API. Gratulálok.

Akkor, gyengébbek kedvéért: nyílt API = nyílt specifikációval rendelkező API, ami ezekívül nyugodtan védhető loginnal, API kulcsokkal és rate limit-tel.

Értettem én, csak csúsztató módon kevered a fogalmakat. A legtenyérbemászóbb az egészben, hogy ezzel burkoltan megpróbálod a felhasználói szabadság lábbal tiprásával együtt járó zárt API-k felsőbbrendűségét igazolni, miközben itt sem az volt a baj, hogy más, nem Facebook-os alkalmazások is használták, hanem hogy teljesen korlátlanul, mindenféle azonosítás és rate limit nélkül. Közben, azt a látszatot kelted, hogy ez minden nyílt (specifikációjú) API-ra igaz. Szánalmas.

Ha szarul van összerakva és kiajánlva az API, akkor valóban az, de itt alapvetően nem azonosítás, korlátozás nélkül használható API-król beszéltünk, hanem arról, hogy pl. felhasználók felmehetnek XMPP-protokollon (magukat felhasználónévvel, előre beállított alkalmazásjelszóval azonosítva) is Facebook-chatelni, tetszőleges XMPP-klienssel. Áruld el légyszíves, hogy ez miben jelent több biztonsági kockázatot, mint a mostani zárt GraphQL és MQTT API, amire a libpurple-facebook-ot használó kliens vagy egy Miranda NG ugyanúgy felmegy.

Majd Musk megoldja. Multkor volt a muholdas rendszere Linus Tech Tips-en, 4 darab, asszem 4k-s videot streamelt rajta egyszerre.

A strange game. The only winning move is not to play. How about a nice game of chess?

A Starlink szlogen "Better Than Nothing". Azért van benne némi önirónia. A letöltési sebesség 50 és 150mbps között van, az upload meg 10 és 60mbps között. 99 dollár egy hónapra, illetve a szükséges eszközök 500 dollárba kerülnek, de ez egyszeri költség. Az biztos, hogy 56kbps modem internetnél jobb. 

Mivel fizetnék a havidíjat? Pénzt nemigen használnak. Talán nem is igénylik az Internetet. Áram egyáltalán van náluk? Mert valami minimál fogyasztású arm gép csak elmegy napelemről de a Starlink eszköz már nem biztosan.

Az ottani dzsungelirtások viszont nagyobb figyelmet kapának ha valamilyen alapítvány fizetné nekik. Furcsa a brazil törvény. Ha leég egy erdő utána már nem számít természetvédelmi területnek. Vissza is élnek ezzel rendesen.

Mivel fizetnék a havidíjat? Pénzt nemigen használnak. Talán nem is igénylik az Internetet.

Majd fizeti helyettük valamelyik multi, amelyik függővé akarja tenni őket. Például a Facebook.

Furcsa a brazil törvény. Ha leég egy erdő utána már nem számít természetvédelmi területnek.

Meg furcsák még az indonéz és egyéb erdőirtásbuzi országok erdőirtásbuzi törvényei is. Például, simán végignézzük 4K-ban, ahogy Indonéziában kiirtják az esőerdőket, hogy az élelmiszer- és kozmetikai ipar spúrkodhasson a költségein és mindenbe pálmaolajat rakhasson. Mégse teszünk semmit ellene. Előbb bojkottáljuk a Huawei-t, egyértelmű bizonyítékok nélkül. Meg megpróbálunk megszabadulni az orosz gáztól (még nem sikerült), mert ezek mind-mind fontosabbak™, mint az ökoszisztémák megóvása.

Meglepően jól szól az ultraalacsony bitrátához képest. Egy dolog nem tetszik benne, hogy gépi tanulós móka. Jobban örülnék, ha valami hagyományos diszkrét algoritmussal oldották volna meg.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

Az, hogy nem bízom ezekben a gépi AI-s algoritmusokban, mert nem tisztán értjük, hogy hogyan működik. Gépi tanulás kihozta olyanra, amilyen, de mivel nem pontosan tudjuk hogy működik, nem lehet optimalizálni. Ez kb. olyan, mint mikor a matekból bukdácsoló tanuló kilesi a feladatmegoldást a megoldókulcsból, hogy x=5, meg beüti a wolframalphába, és az megcsinálja neki a házit, csak épp érteni nem fogja, hogy hogyan jött az ki.

Nem a tömörítésével van bajom, mert az a hangminták alapján zseniálisnak tűnik. Hanem a megoldás tisztasága, reprodukálhatósága algoritmikus szinten.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

Igen mátrixban vannak például a súlyok. De az egész alapja az emberi (illetve fejlettebb élővilág) agy működési elve. Az emberi agy nagyon bonyolult de egy neuron az agyban eléggé egyszerűen működik. Ha a szummázott input elér egy értéket akkor van output jel, egyébként nincs. Ennyi. A bemenetek pedig súlyozva vannak. Szóval nem mindegyik egyenértékű. A súlyok beállítása a mesterséges neurális háló betanításának eredménye. Általában van még módosító (bias) ami neurononként +n érték de a lényegen nem változtat. 
Egyáltalán nem mágia ez. Valójában a mesterséges neurális hálók döntéseit, mintafelismeréseit is pontosan végig lehetne követni. Egyesével mesterséges neuronról neuronra. De nincs az a kínai felhőkarcolónyi matematikus, mérnök aki erre hajlandó lenne. De hasonló a helyzet menedzselt kódokkal is, ott sem vizsgálja senki egy komplex szoftvernél assembly-re átírva, hogy akkor most milyen gépi kódú utasítások is történnek a mélyben. Még kritikus futási sebességű kódrészeknél sem szokás ennek utána menni. Vagy CPU tervezésél sem rajzolnak ma már schematics-ot kapunként megtervezve egy új processzort. CPU vagy gpu tervezése ma már nagyon hasonlít a szoftverfejlesztés folyamatára. 

Egyébként kíváncsi lennék itt milyen eredményt várnál egy explainable AI-tól?

A beszédfelismerés/szintézis pont egy elég sok évtizedes múltra visszatekintő - mondhatnám alaposan kikutatott és elég jól megértett - terület. Sok modellt alkottunk már, amik kompakt matematikai képletekkel adnak elég jó közelítést. Amit ezek tipikusan nem tudnak kezelni, azok az apró irregularitások, finomságok, "kivételek", amitől fülre képesek vagyunk megkülönböztetni egy felismert-visszaszintetizált beszédet az eredetitől. Ezeket valószínűleg nem is lehet kevés együtthatóval, egyszerű általános szabályokkal lefedni. Ez utóbbiban jók a neurális hálók - persze elképesztően sok együttható árán.

Explainable AI-ra eddigi ismereteim szerint leginkább akkor van igény, ha valami óriási adathalmazon korábban nem ismert összefüggést/korrelációt talál meg egy gépi tanulási algoritmus és nagyon jó lenne ezt valahogy kompakt matematikai formára hozni hogy mi is képesek legyünk megérteni valamit belőle. Mindezt akár a finom vagy ritka kivételek felismerésének elvesztése árán is. A beszédkódolás témájában nem igazán látom, hogy erre olyan nagy igény lenne.

Régóta vágyok én, az androidok mezonkincsére már!

Szerintem elmosódik a határ, hogy mi számít AI-nak és mi nem. Nyilván sokan mindent IS így próbálnak marketingelni.
Egy sima klaszterezés például történhet hagyományos algoritmussal vagy neuronhálóval is.
Talán még a neuronhálókat is túlzás önmagukban intelligenciának nevezni. Ez inkább csak az emberi idegrendszerrel való eufemisztikus párhuzam miatt van így nevezve szerintem (illetve természetesen marketing bullshit).

Az Explainable AI területet nem én neveztem el így. De úgy látom, hogy annak ellenére, hogy a szigorú értelemben vett AI valóban csak általános ágenseket jelent, az Explainable AI területbe belesorolnak minden black-box döntéshozó vagy gépi tanuló rendszer működésébe belelátást célzó kutatást.

Régóta vágyok én, az androidok mezonkincsére már!

Pár éve volt arról egy cikk, hogy betanítottak egy AI-t hogy megkülönböztesse a farkasokat a kutyáktól a képeik alapján. Aztán amikor megnézték hogy mégis mi alapján döntött, akkor kiderült hogy a háttér alapján: a farkasoknál a mintákon havas volt a háttér... A hangtömörítésre én sem tudom hogy lehetne valami magyarázó réteget rátenni, de azt sem tudom eleve hogy tudják betanítani.

pontosan. ez nem az AI hibaja volt, hanem a tanitasnal hasznalt mintake.

ahogy a spamszuro is teved, ha a tanitasanal sok mintaban elofordul pl. egy adott nev (pl. Kovacs Istvan) mert o amugy is sok spamet kap, a szuro megtanulja hogy ez a nev egyet jelent a spammal...

egyebkent is sokat fejlodik a terulet, a CapsNet pl. sokkal megbizhatobb ilyen felismeresekre mint a sima ConvNet-ek. utobbi csak azt nezi hogy az adott elemek kulon-kulon szerepelnek-e a kepen, elobbi az egymashoz valo viszonyukat is nezi

Mondjuk, hogy a felhasználó számára csak hátrányos és etikátlan megoldás lehet.

Általánosságban, ha cloudbuzi síkon gondolkodunk, a gépi tanulás a cloudban valósul meg, így a hangcsatornát kvázi le kell hallgatni és rajta olyan algoritmusokat futtatgatni, amit a felhasználók fognak a legutoljára megismerni. Az így kinyert adatok, profilozás pedig biztonsági kockázatot is jelent, egy a szolgáltatót ért támadás esetén. Erre a Google-nál relatíve kicsi az esély, mert ők az átlag tech-multiknál többet adnak a biztonságra. Más tech-multiknál pedig közepes vagy magas a kockázat, de inkább magas.

Ha nem cloudbuzi síkon gondolkodunk, hanem a gépi tanulás minden esetben a kliens oldalon valósul meg, akkor annak technológiai sajátosságai miatti CPU- és memória-overhead-et a felhasználói fizeti meg gépkidobással vagy magasabb villanyszámlával és általában kötelező jelleggel, mivel a felhasználói szabadság lábbal tiprása és a finomhangolásos opciók szándékos kihagyása mostanában a legnagyobb divat, így akkor sem tudná kikapcsolni a gépi tanulás részét, vagy átváltani más kodekre, ha kifogástalan internetkapcsolata van neki is, meg a beszélgetőpartnernek is. Másrészt, ezek az adatok a felhasználó gépén tárolódnak, ami szintén biztonsági kockázat, ha egy kártevőt arra szakosítanak, hogy többszáz órányi hanganyagból generált profilokat lopkodjon, amivel később deepfake tudják esetleg az illető hangját utánozni és ezzel újabb social engineering-szerű támadásokat végrehajtani.

A gépi tanulás általában cloud, de ahogy a kolléga írta feletted, a végén a lényege általában belesűrűsödik egy-két transzformációs mátrixba. Onnantól már offline is megy, nem kell hozzá gépi tanulás, se cloud. De! Ez a veszélye is, hogy mágikus számok egy mátrixban, amit AI hozott ki, és nem értjük miért azok a számok. Pedig lehet, hogy egy elméletileg rendesen megalapozott, diszkrét algoritmussal (amiben hagyományos ciklusok, elágazások vannak) sokkal optimálisabban megvalósítható lenne, vagy tovább lehetne optimalizálni, csak ahhoz érteni kéne a mögötte lévő elméleti megfontolásokat, de ugye azt a gép se érti, ami kiszenvedte ezeket a számokat nagyon sok próbálkozás árán. Épp ez az ész nélküliség van ellenemre, ha mindig valami AI-ra támaszkodunk elbutul az emberiség, és AI rabszolgák leszünk. Persze, nagyon kényelmes, hogy az AI majd gondolkodik is helyettünk, csak egyben veszélyes is.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

nem igazan ertem a cloud-ot miert keveritek ide. a gepi tanulas tanulas resze nagyon eroforrasigenyes, de ez inkabb gpu vagy ha nagyban tolod akkor valamilyen szuperszamitogep, a cloud nem erre valo...  de ugye tanitani a fejlesztonek kell, a felhasznalonal mar csak par matrix szorzast kell elvegezni, ami valoszinuleg sokkal kevesbe eroforrasigenyes az mp3 vagy aac tomoritesenel is.

es igen, az eredmeny par matrix lesz tele szamokkal. de ugy kell nezni, hogy a neuralis halo (az AI ugye sok egyebet is takar) nem mas, mint statisztika, es azon belul is fuggveny optimalizalas/illesztes. adott inputra adott outputot csinal, es remenykedunk benne, hogy mas inputra - amit nem latott tanulaskor - is jo lesz az output. nagyon sok parameterrel dolgozik, ezert sokkal jobb es pontosabb kozelitest tud adni szinte barmilyen problemara, mint egy kezzel irt algoritmus.

de konyorgom, irj mar meg kezzel egy arcfelismerest! aztan hasonlitsd ossze egy par ezer keppel tanitott neuralis haloval a pontossagat...

barmilyen teruleten kiprobaltak a neuralis halokat az utobbi evekben, robbanasszeru fejlodesnek indult. egyszeruen ilyen pontossagot nem lehet kezzel optimalizalgatva elerni, csak vegtelen sok ev alatt.

de eleg ha csak osszehasonlitod az emberi gondolkodast (ami ugye egy bazi nagy neuralis halo) a programozott (=kezzel irt algoritmus) szoftverek "gondolkodasaval". persze az utobbinal - a bugokat leszamitva - tudod hogy mukodik, mig az embernel nem igazan :)  de talan megis csak jobb, hogy emberek vagyunk es nem robotok...

+1

Attól, hogy AI a neve, nem kell valami misztikus intelligenciát gondolni mögé, amit ,,nem lehet érteni" és ,,majd átveszi az uralmat".
Ahogy Árpi is írta, általában egy neurális háló van mögötte a maga mátrixaival, szorzásaival és összeadásaival. Semmi medzsik. Csak a statisztika itt is győz a paraszti gondolkodással szemben.
A meló egy része lett gépesítve, ami mellesleg gyakran még jobb eredményt is produkál.

AL

Jogos. Viszont egy kontrollált tanulási folyamatot szerintem nehéz átverni, ezek inkább amolyan proof-of-concept-ek, nem?
Egy masszív mintahalmazba szerintem nem tudsz elegendő rosszindulatú mintát injektálni ahhoz, hogy súlya is legyen.

Jó ezekről tudni és feltérképezni a flipside-ot, de ez nem jelent szerintem automatikusan no-go-t. Vagy akkor ilyen alapon egy csomó minden mást is dobni kéne.

Egy masszív mintahalmazba szerintem nem tudsz elegendő rosszindulatú mintát injektálni ahhoz, hogy súlya is legyen.

A gyereked nevelését is el tudod baszni olyan rossz mintákkal, amikről magad sem tudod, hogy rossz minták.

Naivitásból kicsit vissza kéne venned, mielőtt még világmegváltásként tekintesz az AI-ra, meg az ilyeneket fejlesztő multikra.

Nem tekintek világmegváltásként az AI-ra, de tetszik vagy sem, ez most a trend. Attól, hogy csúnyán nézel rá, ez nem fog változni.
Pusztán megjegyeztem, hogy páran a kellő ismeretek hiánya miatt misztifikálják túl. Lófasz ahol ma ez az egész tart ahhoz képest, amit egyesek gondolnak róla.

Visszatérve a példához: mivel a tanítás nagy adathalmazon történik, ami sokféle kulturális környezetből származik, a torzító hatások nagyrésze egyszerűen kiesik. Elég csak a termelési adatbázisaink elemzésére gondolnom: az itt hivatkozottnál nagyságrendekkel kevesebb adatnál is látszik már, mi inkább a ,,szabály" és mi inkább a ,,kivétel" vagy a ,,zaj".
A gyereked nevelését se egy-egy partikuláris dologgal, botlással rontod el. Hanem azzal, hogy következetesen, hosszú időn keresztül, jellemzően rossz példát mutatsz neki. És ott kiemelt szereped van. Míg egy ilyen kódolás tanításánál az egységsugarú paraszt aligha tud szignifikánsan torzítani.

Ez a bármilyen témáról a ,,multikra" való utalgatás kicsit egyhangú már. Szerintem a probléma amit feszegetsz sokkal mélyebben gyökerezik, aminek a ,,multik" (úgy vélem) nem okai, hanem következményei.

Lehet, hogy egy sokkal jobb világban élnénk, ha a hw teljesítménye szaturált volna mondjuk a '90-es éveknél. Én jobban szerettem azt a kort, de - tetszik vagy sem - nem így történt. Fáj látni, hogy azt a számítási teljesítményt, aminek értelmes dologra hogy örültünk volna, most egyesek arra használják, hogy posztolják, milyet szartak. De sajnos ez van. A tömeg nagyon kreatív abban, mit hogyan kell misuse-olni.
Jobban örülnék neki, ha az életünket mérnökök irányítanák, és nem közgazdászok. De sajnos nem így alakult.
Bár elmozdulna onnan az értékrend, hogy mindent dollárra vagy euróra próbálunk konvertálni.

Szerintem nem vagy Te rossz gyerek, csak egy idő után nehéz ezzel az örökös siránkozásoddal mit kezdeni. Ha úgy érzed, hogy neked ez az ügyed, képviseld konstruktívan. Találd meg a helyed.

Ezt én is tudom, hogy semmi medzsik nincs benne, semmi valódi intelligencia. Csak nyers gépi próbálkozás, statisztikai elemzés. Semmi nem veszi át az uralmat, hanem ha elkezdünk ilyen gépi tanulós megoldásokra támaszkodni, az elbutuláshoz vezet, pont az veszik el, amit te paraszti gondolkodásnak hívsz. Én ezek miatt szkeptikus szoktam vele lenni, jobban bízom a diszkrét algoritmusokban, amit emberek írtak, rendes elméleti megalapozás után. Paraszti gondolkodással.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

Így van, azokban sem bízom. Tele vannak mókolással, Spyware Management Engine, csomó sérülékenység (Spectre, Meltdown és egyéb cache / side attack) rejtett mikrókódos, belső mikroutasításos működés, ami a user elől el van rejtve, stb.. És ez nem az én paranoiám, hogy mindennel szemben bizalmatlan vagyok, hanem a gyakorlat igazolta be, hogy ezek nem megbízhatóak.

Pedig a procikat ma még azért főleg ember tervezi, legalábbis az architektúrás főbb vonásokat, csak az optimalizációt végzi szimuláció alapján részben AI. Mondom, meg is látszik sajnos.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

Azért a Spectre és Meltdown szerintem nem ,,sérülékenység", hanem mellékhatás. Nem az vezetett ide, hogy elkúrtak valamit.
Az elmúlt évtizedekben mindent megtettek a tervezők azért, hogy gyorsítsák a jellemző kódblokkok (pl. ciklusok, nem-alu-intenzív részek, stb.) futását, az utolsó óraciklust is kisajtolva az optimalizálásokkal, részegység-megosztásokkal. Erre volt igény, hogy nőjön a CPU teljesítmény (most nem is első sorban az otthoni gépekre gondolok, hanem a szerverekre). Amikor vasból már nem megy, a mérnök kreatív, és megnézi, hol megy el sok idő, és elkezdi ezeket az eseteket sorban ,,kezelni" valahogy.
Azért a Meltdown és a Spectre nem annyira gáz szerintem; nagyon minősített esetben használhatók csak ki értelmesen.

Aztán valaki rájött, hogy ezeknek az optimalizációknak a mellékhatásait ki is lehet használni. Korábban nem gondolt erre senki. Kellett a teljesítmény, megkaptuk, aztán most meg megy a sírás.

Más területeken is megjelent a side channel attack: pl. kriptó algoritmust sem jó optimalizálva fordítani, mert a fordító optimalizációi miatt a kulcs bitjeitől függhet ilyenkor egyes blokkok futási ideje, amiknek mérésével lehet következtetni a kulcs bitjeire.
Pedig itt is nulladik közelítésre azt gondolná az ember, hogy az a jó, ha minél gyorsabban fut.

A mikrokódos működés egy design döntés. Ha nem mikrokódos a processzor, a user elől akkor is el van rejtve a belső működés, hiszen a mag huzalozásába ugyanúgy nem látsz bele.

Egyébként én mindig RISC párti voltam, nem kedvelem a komplex architektúrákat, de ezt azért nem mondanám, hogy ,,nem bízom bennük". Igen, vannak olyan tulajdonságaik, mint minden komplex rendszernek. De az extenzív használat miatt talán kiderülnek a hibák és ilyenkor milyen jól jön, hogy frissíthető a mikrokód...

nem ,,sérülékenység", hanem mellékhatás

Nem sérülékenység, valóban, de processzormultiék és a lakájmédiájuk úton-útfélen ezt akarják elhitetni, a belassítással javított™ processzorokat kidobatni, újravásároltatni.

Nem az vezetett ide, hogy elkúrtak valamit.

De igen. Elkúrták az architektúrát, az AMD-vel szembeni versenyelőnyért és a vadtermelés csúcsra járatásáért cserébe.

Kellett a teljesítmény, megkaptuk, aztán most meg megy a sírás.

Megkaptuk volna, ha a kényelmes babzsákfejlesztők által összetrehánykodott (sajnos főleg mainstream) szoftverek nem hízzák ki néhány év alatt és produkálják ugyanazt a teljesítményt, mint a régebbi generációk régebbi, azonos célú és közel azonos funkcionalitású szoftverekkel.

pl. kriptó algoritmust sem jó optimalizálva fordítani, mert a fordító optimalizációi miatt a kulcs bitjeitől függhet ilyenkor egyes blokkok futási ideje, amiknek mérésével lehet következtetni a kulcs bitjeire.

Igen™. Semmit nem™ jó™ optimálisan fordítani. Mindent érdemes™ lassabbra, erőforráspazarlóbbra csinálni, hogy minél előbb vegyenek új processzort. Sokkal egyszerűbb megvenni az újat, kidobni a régit, mint értelmesen bevédeni egy rendszert úgy, hogy idegen kódnak esélye ne legyen elindulni rajta. Más kérdés, hogy a hardveres crypto, mint olyan már 2. generációtól (2010) benne van a processzorokban, így nem kell külön a teljes algoritmust futtatgatni, szoftverből, csak ugye használni is kéne tudni, amit a stackoverflow-copy-paste-egyetemek nappali tagozatos koffein-kód konverter képzésein már nem biztos, hogy megtanítanak.

A mikrokódos működés egy design döntés.

A mikrokódos működés a fejlesztői kényelmeskedés követekezménye és egyben táptalaja. Babzsákfejlesztőék nyugodtan kiadhatják szarul a mikrokódot, majd javítjuk később, aki nem frissíti, az vessen magára, usererror™, sohanemmultiékahibásak™ stb.

Egyébként én mindig RISC párti voltam, nem kedvelem a komplex architektúrákat, de ezt azért nem mondanám, hogy ,,nem bízom bennük". Igen, vannak olyan tulajdonságaik, mint minden komplex rendszernek. De az extenzív használat miatt talán kiderülnek a hibák és ilyenkor milyen jól jön, hogy frissíthető a mikrokód...

Ezt a véleményed még osztani is tudom.

Alapvetően egyetértek az elveid gyökerével, magam is azon a párton vagyok, hogy hosszabb termék életciklus (úristen, de rühellem ezt a kifehezést) kellene. Ami egyrészt a jó rendszertervezéssel, másrészt (egyes terméktípusoknál) a javíthatóságra való tervezéssel valósulhat meg. Egy autónak pl. 25 évig szerintem simán mennie kellene.

Ennek legnagyobb gátját az árversenyben látom, ami 99%-ban az árcédulára optimalizál és nem az életciklus alatti összköltségről szól a történet. Ez pedig az emberi természetre, szokásokra vezethető vissza. A ,,multik" viselkedése szerintem itt többé-kevésbé kényszerpályán mozog. Abban igazat adok, hogy a nagyvállalatok növekedési kényszere egy zsákutca a társadalmi előnyök szempontjából.

De itt most kicsit fordítva ülsz a lovon, mégpedig vagy azért, mert elvakít az indulat, vagy pedig egyszerűen nem tudsz eleget ezekről a dolgokról.

A kriptónál pl. az optimalizációkkal fordítás konkrétan ahhoz vezet, hogy az implementáció széthekkelhető a picsába side channel attack-eken keresztül. Nincs ebben semmi összeesküvés valamint az opt nélküli fordítás messze nem hoz annyi hendikeppet, hogy egyáltalán megérezd.

A mikrokódos működés sem arról szól, hogy  nem baj, majd később javítjuk. Architekturális korlátok, döntések vannak. Egy komplex processzor(család) fejlesztésekor könnyű szopóágra kerülni, ha bizonyos döntéseket rosszul hozol meg.

Helyesen felismersz folyamatokat és jelenségeket, ezeket azonban utána megpróbálod mindenbe belemagyarázni, mindenre ráerőltetni. Pedig nem mindig és mindenhol csak erről szólnak a dolgok. Egy csomó dolog magára az emberi alaptermészetre vezethető vissza, amit a marketing még jól fel is korbácsol és ki is aknáz, míg az oktatás nem fordít elég figyelmet és energiát, hogy bizonyos alapvető összefüggéseket, csapdákat megtanítson.

Mondom, nem vagy Te rossz gyerek, csak túl sokat pofázol és így keveset hallgatsz, pedig a hallgatás is hasznos, mert mindig lehet tanulni olyankor valamit.
Magam is hajlamos vagyok olykor a pálya széléről bekiabálni, pedig sokszor beigazolódott már, hogy nem mindig minden úgy van, ahogy az ember első gondolatra hiszi.

Egy autónak pl. 25 évig szerintem simán mennie kellene.

Megy is, bizonyos márkáknál, mert ott még tud szempont lenni a hosszú távú javíthatóság.

Ennek legnagyobb gátját az árversenyben látom, ami 99%-ban az árcédulára optimalizál és nem az életciklus alatti összköltségről szól a történet.

Én meg abban látom, hogy a befektetői kapitalizmus bástyái, vagyis az általam oly sokat emlegetett multik, 99%-ban arra mennek, hogy minél többen vegyék meg minél több termékét és nem arra, hogy az minél értékesebb legyen és esetleg nagyobb árréssel is el lehessen adni a magasabb eszmei értéke miatt. Senki nem akar második vagy harmadik lenni, hiába úgy is fenntartható a vállalat jövedelmezősége. A milliárdos befektetők nagyravágyása, arroganciája és önzése véigiszáguld fölülről, a multicégen keresztül a fogyasztóig. Így a legnagyobb problémát a befektetői kapitalizmus térnyerésében és abban látom, hogy nincs törvényileg, vagy akárhogy szabályozva, hogy egy vállalat nem nőhet egy bizonyos méretnél nagyobbra. Ha lenne, akkor nem tartanánk ott, hogy a Google megfojthatja a technológiai versenyt akár azzal, hogy hátrébb sorolja bizonyos konkurensek keresési találatait, de azzal is, hogy a Youtube felvásárlása után kitiltja az olyan nagyszerű alkalmazásokat a Play Store-ból, mint a NewPipe, ami nagyságrendekkel jobb a hivatalos szutyoknál.

A kriptónál pl. az optimalizációkkal fordítás konkrétan ahhoz vezet, hogy az implementáció széthekkelhető a picsába side channel attack-eken keresztül.

Még egyszer mondom, van dedikált hardver, ami tud kriptózni és 2010-től külön utasításkészlet is van a processzorokban erre. Azt kell kihasználni és nem tisztán szoftveresen kódolgatni. Amúgy meg nem értek egyet a side-channel támadásoktól való hivatásos rettegéssel. Viszonylag nehezen kivitelezhető, cserébe nagy szakértelmet igénylő támadásról beszélünk. Ami könnyen kivédhető azzal, hogy nem futtatgatsz orrba-szájba minden szart a gépeden, userként sem.

Egy komplex processzor(család) fejlesztésekor könnyű szopóágra kerülni, ha bizonyos döntéseket rosszul hozol meg.

Rosszul hozták meg, az eredmény a processzorok belassítása lett, ami előbb-utóbb egyenlő a kidobásukkal. Ha ROM lenne a processzorokban és nem lehetne holmi frissítésekkel mikrokódot cserélni, talán az Intel is jobban érezné a sorozatos rossz döntéseinek a súlyát. Például azon, hogy ha az adatközpontmultiknak már új gépeket kell venniük, akkor nem Intelt vesznek.

Egy csomó dolog magára az emberi alaptermészetre vezethető vissza, amit a marketing még jól fel is korbácsol és ki is aknáz

Az emberi alaptermészetet felhozni ide nagyon gyenge kifogás. Az emberi alaptermészetben nagyon sok minden benne van és az fog felerősödni, amit a környezet megkíván. Régen természetes volt, hogy az emberek párbajoznak egymással, ha nem értenek egyet, leszúrják, megölik egymást. Ma ezt gyilkosságnak és önbíráskodásnak hívják és egy civilizált társadalomban elfogadhatatlan. Pedig ez is az alaptermészet része, hiszen évezredekig úgy csinálták az emberek, mintha tök normális lenne.

A marketinget leginkább a koronavírushoz tudnám hasonlítani. A marketing egy mentális pandémia, a marketing-kampányok pedig mesterségesen kialakított járványok. Lehet azt mondani, hogy majd felkészítjük az egészségügyet oktatást hogy kezelje a helyzetet, de a pandémia mindig két lépéssel előbbre jár majd. Az egyetlen megoldás, a korlátozó intézkedésekhez hasonlóan, a reklámok betiltása, majd ha ez megvan, akkor lehet felkészíteni az oktatást, hogy egy egészségesebb, tudatosabb kapitalizmusra neveljen. De amíg a gyereket, a tinédzsert, az egyetemistát jobban érdekli a TikTok, a Facebook, a Youtube, a Netflix, meg hogy milyen okostelefont vegyen jövőre apuci pénzén, addig hiába erőlködünk a tudatosítással. A pandémia többször annyit fertőz, mint amennyit tudatosítasz, nem beszélve a különféle feszültségekről. Tőlem például sokan megkérdezték már ezen a fórumon, hogy nem érzem-e cikinek a 8 éves 3G telefonomat, amikor állásinterjún előveszem felírni egy telefonszámot. Én nem érzem annak, mert megvannak rá a megfelelő válaszaim és valószínűleg az fogja magát szarul érezni utána, aki megkérdezte, ha sokat firtatja. De mi van másokkal, mi van egy önbizalomhiányos tinédzserrel, akinek igazából maximum azért lenne feltétlenül szükséges mobilra, hogy elérjék a szülei, arra meg a 2G telefon is tökéletes. Na igen, ezen a téren kéne rendet rakni a fejekben. Így is tudna bőven fejlődni a világ és sokkal nagyobb értéke lenne egy kisebb példányban gyártott, drágább okostelefon szériának, ami tényleg csak azoknak lenne, akiknek szükségük van rá és már elértek valamit az életben, nem pedig kikunyerálták otthon, hogy tudjanak rajta tapicskolni, digitális konzumerkedni, függővé válni. Továbbá, mindig lesz a társadalomnak egy olyan rétege, aki szereti mindenből a legújabbat megvenni, meg úgy egyébként érdeklődik az új technológiák iránt. Ami a legnagyobb hiba, hogy ezt tömegtrenddé teszik, már-már megalázva, megszégyenítve azokat, akik nem követik.

Megy is, bizonyos márkáknál, mert ott még tud szempont lenni a hosszú távú javíthatóság.

Nekem nem kell bemutatni. Van egy 23 éves AFN TDI-nk, amit kiránduló- és kempingautónak használunk. Remélem van még jópár éve.
Cinkelt karosszéria, alig 360.000 km-rel a motor is szinte még új.

Így a legnagyobb problémát a befektetői kapitalizmus térnyerésében és abban látom, hogy nincs törvényileg, vagy akárhogy szabályozva

Nagyon jól látod. Ezzel tökéletesen egyetértek. Törvényileg szabályozni kellene.
De mit vársz, amikor a politikusok és a törvényhozás a gazdasági elit zsebében vannak?

NewPipe: sajnos addig kell örülni, amíg minél kevesebben tudnak róla és minél nehezebben elérhető. Mert amíg egy bizonyos szint alatt marad a penetráltsága, addig megtűri a google.
Egyébként abban igazad van, hogy ilyen lenne egy normális kliens. Nem az a fos, amit a google ad.

Processzorfejlesztés: számomra úgy tűnik, ezen a téren még van benned fejlődési potenciál :-) Azért ez nem ennyire egyszerű.
Annyit azért megjegyeznék, hogy ha scrappelni kellene rendszeresen egy csomó hardvert az talán pont ellentmond az eredeti szándékodnak. Mert akkor ráfognák, hogy azért szar a régi proci, mert sajnos nem tudunk átbillenteni benne egy bitet és akkor inkább unsupported... Mindegy, messzire vezet ez.

van dedikált hardver, ami tud kriptózni

Nem mindenre és nem mindenben. De semmiképp sem az optimalizáción múlik. Kriptónál a hatékonyság másodlagos. (És itt eleve nem akkora különbségekről beszélünk, hogy e miatt ,,avulna el" egy proci.)

Rosszul hozták meg, az eredmény a processzorok belassítása lett

Pont a mikrokódos működés miatt nem kell jobban belassítani. Nem a mikrokódos működés következménye, hogy elavulnak a CPU-k.

Régen természetes volt, hogy az emberek párbajoznak egymással, ha nem értenek egyet, leszúrják, megölik egymást. Ma ezt gyilkosságnak és önbíráskodásnak hívják és egy civilizált társadalomban elfogadhatatlan.

Persze, de az emberek alaptermészete ettől még nem változott meg. A hétköznapokban sokkal körmönfontabb módon tesznek alá egymásnak, de a különböző aljas indokokból elkövetett gyilkosságok se mentek ki a divatból.
A kulturális réteget és ez által a civilizációs vívmányokat pont a megfelelő oktatással lehet felvinni az egyedekre.
Az utóbbi tízezer évben olyan gyorsan fejlődött a társadalom és olyan gyorsan változott az életformánk, amit az evolúció ilyen hamar nem tud követni, az agyunk felépítése nem tud ilyen gyorsan adaptálódni az új helyzetekhez. Ebből adódik szerintem nagyon sok nehézség.

A marketing és a reklámok ellen nem tudsz védekezni. Felvértezni lehet ezek ellen az embereket. Szerintem ez nem annyira reménytelen, mint sugallod. Nem tud majd a marketing mindig egy lépéssel előbbre járni; nem túl bonyolult, alapvető összefüggések megértésével gyökeresen meg tudna változni a helyzet. Meg kell tanítani az embereket gondolkodni.
Az az igazi baj, hogy ennek az alapszintjétől is sajnos nagyon messze vagyunk. Tömegek vannak, akik a logikai gondolkodás egyszerű formáira is képtelenek, hibás következtetéseket vonnak le dolgokból, buták, vagy egyszerűen csak a pillanatnyi érzelmeik irányítják őket. És sajnos ez a képességbeli egyenlőtlenség az egyik melegágya a társadalmi egyenlőtlenségek elmélyülésének. (Meg a szolidaritás csaknem teljes hiánya.)

De amíg a gyereket, a tinédzsert, az egyetemistát jobban érdekli a TikTok, a Facebook, a Youtube, a Netflix, meg hogy milyen okostelefont vegyen jövőre apuci pénzén, addig hiába erőlködünk a tudatosítással.

Mert tudod ezt látja otthon, az iskolában, nagyjából mindenhol a környezetében. A tévéről, internetről ne is beszéljünk.
Nagy probléma, hogy a mai fiatalok számára nemigen van érvényes referencia.
Elcsúszott az értékrend, és a ,,siker" fogalmának értelmezése is.
Azt el kell fogadni, hogy a világ és az életmódunk változik. Nem ez a baj. Egy másik topikban pl. a spotify-t fikáztad a ,,hagyományos" zenehallgatással szemben. Pedig a record label-ök talán még sokkal nagyobb gecik voltak. Valamint pont ez a médiabuzulás (zenegyűjtögetés, filmgyűjtögetés) az előszobája a tiktok és faszbuk-buzulásnak, tapicskolásnak, függőségnek ahogy fogalmazol. Pedig az életben ezek mind kurvára lényegtelenek (kellene, hogy legyenek). Én pl. azért spotify-ozok, mert pont ennyit vagyok hajlandó megtenni azért, hogy hallgassak valamit. Amíg nem volt, inkább leszartam. Nem fogok cédégyűjteményre rejszolni, inkább kezdek magammal valami értelmeset.

sokkal nagyobb értéke lenne egy kisebb példányban gyártott, drágább okostelefon szériának, ami tényleg csak azoknak lenne, akiknek szükségük van rá

Ebben is egyetértek veled. Régen így is működött a piac: volt a biz class telefon (Nokiánál pl. a 6110, 6210, 6310, illetve a kommunikátorok), amit megvettek sok pénzért azok, akiknek szükségük volt rá. A proliknak, diákoknak meg jó volt a 3210, 3310. Pofázni azon is lehetett.
Aztán valaki rájött, hogy a nagy pénz nem a kis darabszámú minőségi készülékekben van (amiknek ráadásul a fejlesztése is drága), hanem a tömegeket kell rávenni, hogy sok pénzt legyenek hajlandóak fizetni a hulladékért. És ezt minél gyakrabban. Ezt pedig generált ,,igények" mentén lehet megtenni.
Groteszk, hogy pár évtizeddel ezelőtt nagyságrendekkel kevesebb memóriával és CPU sebességgel embereket juttattak a világűrbe, most meg a sokmagos szutykát arra használja valaki, hogy lefényképezi, milyet kulázott. A ,,tömeg" mindig nagyon jól tudta misuse-olni a technológiát.

Talán lesz egyszer egy magasabb igényű fiatal generáció, aki felhagy ezzel és véget vet ennek. Nem tudom.

Bárhogy is, szerintem ez az elvakult fanatizmusod nem fogja előbbre vinni sem a világot, sem a saját sorsodat. Ugyanazt a térítést próbálod végezni, amit a marketing. Csak negatív előjellel. Aminek annyi az eredménye, hogy elszigeteled magad.
Kezdetnek szerintem elég lenne simán csak jó példát mutatni és másokat (a véleményükkel) legalább annyira elfogadni, amennyire Te szeretnéd, hogy téged elfogadjanak (a véleményeddel).

A Nokia 6310-et sose értettem. Faternak is vett a cég egyet annak idején, még 10 év után is jó pénzért el lehetett adni, pedig addigra dinoszaurusz technológia volt a megjelenő okostelefonok között. Sokan magyarázták nekem a hosszú akkuidővel, stb., de szerintem bullshit. Egyszerűen csak túl nagy volt a Nokiáknak a hype-ja. Még ma se kevés pénzért mennek el ezek, túl vannak értékelve. A 3310 szintén, azon kívül, masszív volt, nem volt sok előnye, és a mai napig hype-olják meg nosztalgiáznak róla, és újrakoppintják, kiadják kínaiak modernebb formában.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

A 3310 a maga korában is egy szar volt. Ezt szerintem tisztán a nosztalgia élteti. Erre telt a csóró gimiseknek, és most szép arra a korra visszaemlékezni.

6310-ed volt? Nekem igen. Pár éve persze nem kapcsoltam be, de nagyon sokáig kitartottam vele még az okostelefon-korszak elején is. Akkuidőben valóban verhetetlen, de nem ez az igazi ütőkártyája.
Van benne már bluetooth, lehetett rajta emailezni, és egy csodálatosan összerakott, remek szerkezet. Egy kerek egész. Ha van olyan, hogy kész szoftver, na ezen az futott.
Jó formájú, vékony, könnyű, simulékony telefon, a hossza ellenére simán eltűnik a ruházatban.

A maga korában nemcsak jó műszaki tartalmú, de magas minőségű termék volt.

Mikrokód nem kizárólag optimalizáció miatt kell. Az órajelek emelkedésével egyre rövidebb időszeletek maradnak arra, hogy "az elektronok átjussanak a kapukon". Vannak bonyolult elektronikát igénylő utasítások. Ezekhez pedig több idő kell. Ha nem akarjuk, hogy ezek adjanak órajelben a felső limitet, üvegplafont akkor bizony szét kell bontani mikrokódokra amik külön gyorsabban végrehajthatóak. A cpu órajelnek a leglassabban végrehajtható utasításhoz kell igazodnia. Természetesen cél, hogy ne legyenek kiugróan lassú utasítások. RISC-en is van a mikrokód utasítás-tördelés, csak ott jóval több utasítás megy közvetlen végrehajtásra. 
Szóval mikrokód nélkül már korábban jóval alacsonyabb órajelen fékezett volna be a cpu világ.

Egyébként közel vagyunk a technológiai lehetőségek határaihoz. Két szilícium atom egymás mellett úgy 1 nm hosszúságot jelent. Összehasonlításként egy vörösvérsejt 6-8 ezer nm széles, egy vírus úgy 1500 nm hosszú és 50 nm széles.

Spectre minden cpu-t érint ahol van elágazásbecslés. Meltdown is érintette az Intel x86 procik mellett az out-of-order ARM cpu magokat is. Sőt egyes POWER procikat is. Az AMD meg valamit nagyon jól csinálhat, mert az AMD x86 ebben nem volt érintett. 

Így van. Sok helyzet egyszerűen nem kezelhető már máshogy észszerűen.

Spectre és Meltdown engem azért elgondolkodtat, hogy akkor most mi a megoldás. Ne legyen elágazásbecslés? Ne legyen out-of-order és a többi medzsik? Hiszen ezek miatt fut jobban a gyakori alkalmazások szempontjából fontos kód ezeken a vasakon. Lényegében optimalizálod a processzort a feladathoz.

Tényleg akkora fenyegetést jelentenek ezek, hogy egyből ki kell kapcsolni őket?

Nem követtem csak hírek szintén a Meltdown javításokat, de úgy tudom az out-of-order maradt továbbra is. Intelnél durván csökkent bizonyos típusú alkalmazásoknál a teljesítmény AMD-nél meg emiatt semmi nem jellett javítani őket csak a Spectre érintette, amely egyébként minden más out-of-order processzort is. De egyik miatt sem lett teljesen kikapcsolva az out-of-order.

A VLIW cpu-k by design elég jól védettek az ilyen hibákra. Ott szoftveresen nagyon sok felmerülő hiba megoldható. Viszont az Itanium elég nagy bukás lett. A Transmeta nem volt egy nagy katasztrófa de valamiért nem terjedt el. Szóval itt az elmélet még nem ment át üzletileg megálló gyakorlatba.

> Az AMD meg valamit nagyon jól csinálhat

hat en arra emlexem, hogy anno a pentium1 idejeben az AMD k5/k6 procikban ugy ment az elagazas becsles, hogy fixen egy rom-ban le voltak tarolva a kod mintak hogy mikor merre menjen. persze mindezt az akkoriban elterjedt benchmark programok es nehany gyakran hasznalt alkalmazas alapjan toltottek fel. igy ezeken a teszteken irrealisan jo eredmenyt produkalt :)

lehet, hogy ezen a jol bevalt recepten azota sem valtoztattak, igy nem lehet kivulrol befolyasolni a becsleset, a teszteken megis jobb mint az intel?

Igen, az AMD és a Cyrix is kb. ebből élt, hogy majd' egy generációval korábbi magot felpimpeltek, benchmark-ra optimalizáltak. A K5 konkrétan egy rakás szar volt; a K6 (vagy inkább a K6-II) korában kezdett elindulni valami konstruktív változás.

Kedvencem volt a Cyrix PR intézménye, amikor 166-osnak mutatta a 133 MHz-es magot (mert hogy egy Intel 166 MHz teljesítményét nyújta, lol). FPU teljesítmény meg lófasz se volt.
Az AMD K5 nagyjából ugyanezt csinálta, ha jól emlékszem.

A K7 Athlonnal kezdődött az AMD szárnyalása.
A Slot-A-sból nekem is megvan egy a mai napig. Nagyon jól húzható procik voltak. ASUS A7V variáns alaplapok rulz.

Mára szerintem mindkét gyártó (AMD és Intel) méltó helyet foglal el, nem favorizálnám egyiket se a másikkal szemben.

Igen, ezt írom én is, mellékhatás. Bonyolult dizájn, AI kihozta, nem teljesen értettük. Vissza is üt. A mikrokódos működéssel nincs is baj, a gond azzal van, hogy ki van takarva a felhasználó elől, emiatt ilyen ne lásd a kezem, csalok jellegű mókolás, teljesen érthető, hogy nem bízok benne. Ha rendesen, nyíltan lenne dokumentálva, akkor egész más lenne.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

Most írom harmadszor: nem bízok benne. Nincs mégis. Nincs bizalom. Pont. Igen, gyakorlatiasság miatt használom, mert nem akarok helyette abakuszt meg logarlécet használni, de ettől még nem bízom benne. Egyszerűen egyik zárt hardver se megbízható. Ahogy egyik zárt szoftver (szoftver, OS, BIOS, UEFI, stb) sem. Te bízhatsz bennük, nem tiltja meg senki, csak könnyen kiderülhet idővel, hogy visszaélnek vele.

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

a neuralis halokban nem bizni kell, hanem hasznalni. bizni abban kell, aki tanitja, es hogy jo legyen a dataset, azt meg ugyanugy (tobbsegeben) emberek allitjak ossze. a neuralnet csak egy eszkoz ami a datasetbol general egy "programot". ha ugy nezzuk, a dataset a forraskod, a neuralnet a binaris.

ennyi erovel a gcc-ben se bizz meg, ki tudja hogyan lesz az altalad irt C kodbol gepi kod? vagy azt teljesen atlatod? vagy csak siman bizol benne?

neuralis halokkal viszont olyan problemakat tudtak megoldani az elmult 10 evben, amit soha a budos eletben nem fog tudni ember diszkret algoritmusokkal leprogramozni, mert egyszeruen tul bonyolult, hogy felfogjuk, es mert nem 3-5 parameter van hanem tobb 100 vagy neha tobb 100 millio.

+sok. Az AI nem a terminátor hanem rengeteg mintaelemzés és ezeknek az eredményeinek megfelelő felhasználása.

Ha akarod te is nekiülhetsz és kiszámolhatod x milisecundumonként hogy mi lesz a legjobb eredmény ha összetömöríted és utána kibontod, az AI annyit csinál hogy "erejétől függően" sokkal sűrűbb mintavétellel sokkal gyorsabban végigszalad rajta. Illetve amíg te egy algoritmus alapján nézed, az AI végigpörget rajta sokszor annyit mint amennyit te valaha is tudnál egy emberélet alatt.

Amúgy hasonló AI dolgozik videókkal is, lásd yt-on mostanában terjengő ezer éves felvételek 4k 60FPS-re húzását. Azt is úgy képzeld el hogy framenként egyesével kijavítgatod a képet és úgy rakosgatod egymás után hogy másodpercenként 60 legyen. El lehet vele pöcsölni és a végén elmondhatod hogy ez az életműved mert ráment bitang sok órád, de mennyivel egyszerűbb ráugrasztani az AI-t és azt mondani este hogy na hajrá bodri és reggel egy kiadós alvás után megnézni a kész videót.

 

ps: nem válasz, hanem általános leírás és pls ne kössetek bele szakmailag, illetve ha igen akkor úgy hogy laikus megértse, ez most direkt konyhanyelven való megfogalmazás szeretett volna lenni.

Igazán nem mondanám, hogy algoritmusokat pörget úgy maga a neurális háló. Még az aktivációs függvényt is a programozója írja. 

Nemrég az Nvidia is előállt egy nagyon hasznos AI megoldással. 1080p videó felskálázása 4k-ra de valódi 4k képminőségre. A korábbi felbontást felskálázó megoldások nem tudtak ilyet.

Valóban nagyon kevés a bitrate...

Anno a legelső interneten keresztüli hangkommunikációs eszköz, amit használtam, a Virbiage-féle (később talán Freshtel) Firefly program volt.
Azon 56 kbps Dial-up vonalon (küldés irány 33.6 kbps) meglepően jó hangminőséggel lehetett kommunikálni.

Ha jól olvastam, ez IAX protokollon működött amúgy (legalábbis a Freshtel időkben), de a fenti megoldás csak cirka 3 kbit/s sávszélesség-igényű (igaz, rosszabb hangminőséggel).

Igen, de a fenti megoldás figyelembe veszi, hogy a 33-56 kbps sávszélességen nem csak odafelé megy az audio, hanem vissza is, meg csomagkiesések és sávszélingadozások is lehetnek (gyenge mobiltérerő például), meg más szoftver is forgalmaz. Pont az volt a lényeg, hogy extrém alacsony bitrátán is kihozzanak valami elfogadhatót. Azokra a bitrátákra, amit te írsz, már régóta ott az Opus, codec2, Speex, stb..

A computer is like air conditioning – it becomes useless when you open Windows.” (Linus Torvalds)

Persze, csak ez volt az a megoldás, amit 56/33.6 kbit/s sávszélességen használtam.
Speex pl. (Asterisk-kel) nagyon szépen működött az N900 beépített kliensével is, de ezt már sokkal kevésbé limites kapcsolaton használtam.
Egyébként duplex volt az az analóg modemen keresztül is, de, ha jól emlékszem, a sávszélesség nagy részét kihasználta.

Nyilván a Lyra esetén más a cél és sokkal optimalizáltabb is, maga a sávszélesség-igény bravúrosan jó...

Szerkesztve: 2021. 03. 28., v – 20:23

Miközben a szolgáltatók ajánlataiban csak úgy röpködnek a gigabitek, az 5G őrület mindennél alacsonyabb pingeket és válaszidőket ígér, multiék az alacsonyabbnál alacsonyabb sávszélességre lőnek, és inkább abból pazaroltatnak el többet, amiből sokkal kevesebb van: CPU-ból, memóriából.

Mindeközben, 2021-ben továbbra is megoldhatatlan a tech-multik agyonra marketingelt újrafeltalált kerekeivel, hogy közel valós idejű, nem szaggató, nem akadozó, nem agyonzajszűrt, nem életidegen, nem robothangú, esetlegesen peer-to-peer (nem cloud-adatközpontok által továbbított), nem limitált sávszélességű megoldással videokonferenciázzunk, mondjuk 60 FPS-en, 720p-ben, vagy 1080p-ben. Pedig a hardveres gyorsítás (x264-DXVA, VA-API, VDPAU stb.) több, mint 10 éve adott a videó kódolásához relatíve alacsony processzorhasználattal. Az extra latency vs. FPS és felbontás skálán pedig szerintem tudnánk sokkal jobb kompromisszumokat találni.

Jajj Hajbikám. Ilyen pandémiás időkben pláne nem árt a még jobb tömörítés, a növekvő kapacitású de mégiscsak véges erőforrás, a hálózat jobb kihasználására. Lehet, hogy a kliens jobban merül egy picivel, de egyszerre több kliens lóghat fenn és/vagy több sávszélesség jut bármi másra. Szerencsére vannak már SIMD és lassan NN gyors futtatását is segítő utasításkészletek, még csak el se kell dobni a régebbi SOC-okat egy újabb tömörítés támogatása miatt, elég szoftvert frissíteni, szóval örülni kell egy új, jobb tömítési eljárásnak, nem rinyálni.

Lehet, hogy a kliens jobban merül egy picivel

Amire production lesz a kód, átmegy jónéhány Electron-buzi babzsákfejlesztőn, így nem picivel merül jobban, hanem sokkal jobban merül.

egyszerre több kliens lóghat fenn és/vagy több sávszélesség jut bármi másra

Beszélünk itt kilobites felszabadult sávszélességekről, tíz-száz megabites, gigabites kontextusban, vadkivezetés alatt álló 3G-vel, vadbevezetés alatt álló 5G-vel. Majd a 100 fős meetingen megspórolt sávszélességen valakinek a 4K-kijelzős okostelefonján eggyel nagyobb bitrátás 4K-videóra vált a Youtube úgy, hogy észre se veszi. Nagyszerű. Tényleg megérte™ spórolni.

szóval örülni kell egy új, jobb tömítési eljárásnak, nem rinyálni.

Elnézést™, örülni™, azt tényleg elfelejtettem. Éljenek multiék!

Rádióamatőr területen lejjebb mentek: 700 bit/másodperc. Bár itt már erősen szintetizált a hang. Rövidhullámon ha a 100 wattos adó-vevőd kimenőteljesítményével Dél-Amerikával vagy netán Új-Zélanddal akarsz összeköttetést létesíteni, akkor bizony csökkenteni kell a csatornában az információmennyiséget (vagy növelni a kimenőteljesítményt).

Bővebben: https://freedv.org/

A két dolog nem ugyanarról szól. Rádióamatőrködés a műszaki érdeklődésről, kísérletezésről és tanulásról szól; nem lehet és nem is cél a telefonálás alternatívájának tekinteni.
Egy a fent említett kodek amatőr célokra tök jó és érdekes, sőt fantasztikus. Kereskedelmi forgalomban azonban kevés relevanciája lenne ebben a formában, mert amikor a kanadai nagymamával akarsz beszélni, ott nem fogod elfogadni a robothangot. Mert ha csak a mondanivalója érdekelne, akkor inkább leveleznétek. Az még kevesebb bit per szó. Az emberi kapcsolatok ennél sokkal többről szólnak.

Külön kell tehát választani mi az, ami műszaki érdekesség (és ettől nem szar ahogy írtad, csak másra jó), és mi az, aminek kereskedelmi relevanciája van, mert sokan hajlandók fizetni érte.

A két dolog nem ugyanarról szól. Rádióamatőrködés a műszaki érdeklődésről, kísérletezésről és tanulásról szól; nem lehet és nem is cél a telefonálás alternatívájának tekinteni.

A probléma ott kezdődik, hogy a modern szoftverek (általában agilis módszertan szerinti) implementációjánál háttérbe szorul az érdeklődés, a kísérletezés és a tanulás. Marad az egységsugarú, középszar koffein-kód konverzió. Így az egységsugarú, középszar megoldás is általában magáért beszél, ha épp nem akadozik a CPU-pazarlás, az audiopuffer-alulcsordulás, vagy a proxyként használt adatközpontok sávszélsesség szűkössége miatt.

:) jó kis irónia volt.

Van értelme? A civilizáció vívmánya, hogy a kommunikációra mára tényleg biztosított az általánydíjas mobiltelefon, sőt videótelefonálás lehetősége, így ma már nem kell félni, hogy telefonpótló szerepbe kerülne a rádióamatőr sáv. Ellenben rádióamatőr területen a kihívás és utána az apró sikerélmény még mindig igen kellemes. Csak te, az ionoszféra és akár a másik kontinensen található ellenállomás. Főleg az utóbbi 2 évtizedben fokozatosan lehetségessé váló mindenféle digitális megoldással együtt.
A bakancslistán így marad bőven a sok-sok év múlva esedékes nyugdíjaskoromra is, mert talán akkor több időm lesz erre is.

Megjegyzem, a megszállottak továbbmentek, 450 bit/s most az, amivel kísérleteznek, de az már tényleg nagyon szintetikus hang. Szépnek nem szép. Itt az a cél, hogy a rádióba mondott mondandót hibátlanul megérti-e a túloldal az ionoszféra nehezítő körülményei ellenére is.
Kábelen TCP/IP-n hangot átvinni az ionoszférán pattintással összevetve olyan, mint a tükörsima német autópálya és a tibeti hegyi ösvény kontrasztossága.