Description

Et ph.d.-projekt på DTU forsker i at analysere sammenhængen mellem tale-og ansigtsbevægelser hos mennesker for at udvikle AI-modeller til at kunne vurdere, hvem der siger hvad. Sammenhængen har fået interesse i forbindelse med coronarestriktioner om mundbind, der gjorde det sværere at forstå folks tale, når mundbevægelserne ikke kunne ses. Ifølge professor ved Institut for Elektroniske Systemer på Aalborg Universitet Zheng-Hua Tan, der er eksaminator på ph.d.-projektet, tager projektet også højde for hjernens kapacitet til at identificere relevante lydkilder og samtidig sortere andre lyde fra. (Resumé leveret af Infomedia) Kilder:Ingeniøren, LYD, side 10, 08-04-2022

Period8 Apr 2022

Media coverage

1

Media coverage