Nossos cérebros têm uma notável capacidade de distinguir vozes individuais em um ambiente barulhento, como um refeitório lotado ou uma rua movimentada da cidade. Isso é algo que até mesmo os aparelhos auditivos mais avançados se esforçam para alcançar.
Agora, engenheiros da Universidade de Columbia desenvolveram uma tecnologia experimental que imita a capacidade natural do cérebro de detectar e amplificar uma voz entre muitas outras.
Alimentado pela inteligência artificial, é um aparelho auditivo controlado pelo cérebro que age como um filtro automático, discrimina as ondas cerebrais do usuário e aumenta a voz da pessoa que quer escutar.
Embora ainda esteja nos estágios iniciais de desenvolvimento, essa tecnologia é um passo importante em direção a melhores aparelhos auditivos que permitem aos usuários conversar com as pessoas ao seu redor de maneira transparente e eficiente. Os resultados são publicados na Science Advances.
“A área do cérebro que processa o som é extraordinariamente sensível e poderosa; Ele pode ampliar uma voz em detrimento de outra, aparentemente sem esforço “, explica Nima Mesgarani, pesquisadora do Instituto Mortimer B. Behavior, da Columbia, e principal autora do artigo, em um comunicado.
“Ao criar um dispositivo que aproveita o poder do cérebro, esperamos que nosso trabalho leve a melhorias tecnológicas que permitam que as centenas de milhões de deficientes auditivos em todo o mundo se comuniquem tão facilmente quanto seus amigos e familiares.”
Algoritmo de separação de voz
A tecnologia básica deste trabalho é um algoritmo de separação de voz que pode reconhecer e decodificar uma voz, qualquer voz, desde o início.
Aparelhos auditivos modernos são excelentes para amplificar a fala e suprimir certos tipos de ruído de fundo, como o tráfego. No entanto, eles têm problemas para aumentar o volume de uma voz individual sobre os outros.
O aparelho auditivo controlado pelo cérebro da equipe da Columbia é diferente. Em vez de confiar apenas em amplificadores de som externos, como microfones, também controla as ondas cerebrais do ouvinte.
“Anteriormente, descobrimos que quando duas pessoas conversam entre si, as ondas cerebrais do falante começam a se assemelhar às ondas cerebrais do ouvinte”, acrescenta Mesgarani.
Usando esse conhecimento, a equipe combinou poderosos algoritmos de separação de fala com redes neurais, modelos matemáticos complexos que imitam as capacidades computacionais do cérebro.
Assim, eles criaram um sistema que primeiro separa as vozes dos falantes individuais de um grupo e, em seguida, compara as vozes de cada falante com as ondas cerebrais do ouvinte. A voz cujo padrão de voz coincide mais intimamente com as ondas cerebrais do ouvinte é amplificada sobre o resto.
Achou útil essa informação? Compartilhe com seus amigos! xD