
U složenim sredinama ljudi mogu razumjeti značenje govora bolje od AI-a, jer ne koristimo ne samo naše uši, već i naše oči.
Na primjer, vidimo da nečija usta kreću i može intuitivno znati da zvuk koji čujemo mora doći iz te osobe.
Meta AI radi na novom AI dijalogu sustavu, što je naučiti AI da također nauči prepoznati suptilne korelacije između onoga što vidi i čuje u razgovoru.
Visualvoice uči na sličan način kako ljudi nauče savladati nove vještine, omogućavajući razdvajanje audio-vizualnog govora učenjem vizualnih i auditornih znakova iz neobičnog videozapisa.
Za mašine to stvara bolju percepciju, dok se ljudska percepcija poboljšava.
Zamislite da možete sudjelovati u grupnim sastancima u metavru s kolegama iz cijelog svijeta, pridruživanju manjim skupinama grupi dok se kreću kroz virtualni prostor, tokom kojih se zvučni reverkti i timaši u sceni učine u skladu s tim u skladu s tim.
To jest, može istovremeno dobiti audio, video i tekstualne podatke, a ima bogatiji model razumijevanja okoliša, omogućujući korisnicima da imaju zvučno iskustvo "vrlo wow".
Vrijeme objavljivanja: jul-20-2022