Dental Press Portal

Ferramenta computacional pretende detectar Covid-19 pela voz

Pesquisa interdisciplinar da USP está desenvolvendo inteligência artificial que detecta doença pela voz

Voz
Foto: Jornal da USP

Pesquisadores da USP (Universidade de São Paulo) de diversas áreas do conhecimento estão sendo desafiados a criar uma ferramenta capaz de reconhecer automaticamente variações na voz, para detecção de doenças como a Covid-19. Eles fazem parte do projeto Spira (Sistema de Detecção Precoce de Insuficiência Respiratória por meio de Análise de Áudio), que utiliza um sistema de Inteligência Artificial para comparar vozes de pessoas infectadas pelo novo coronavírus com as de indivíduos saudáveis.

Para desenvolvimento do sistema, os pesquisadores precisaram ensinar ao computador a identificar características da voz de uma pessoa saudável em contraposição com a de alguém afetado por uma síndrome respiratória. Para coletar as variações de vozes, disponibilizaram um site para doações voluntárias. A dificuldade maior, segundo o professor do Instituto de Matemática e Estatística da USP e coordenador do projeto, Marcelo Finger estava na obtenção das vozes dos pacientes diagnosticados com covid-19.

“Para obter as gravações, precisávamos de profissionais da área de saúde capacitados, treinados e que tivessem autorização para transitar pela enfermaria de um hospital que estivesse tratando de pacientes infectados pelo novo coronavírus”, disse.

Mesmo com as dificuldades, foram coletadas vozes de aproximadamente 200 pacientes de dois hospitais parceiros do projeto, o Hospital das Clínicas (HC) da Faculdade de Medicina da USP (FMUSP) e o Hospital Universitário (HU) da USP. Coletadas as vozes, os áudios foram enviados a uma base de dados que, automaticamente, realizou a primeira triagem do material.

EXCESSO DE RUÍDOS

Com os dados em mãos, os pesquisadores tiveram outros desafios como a separação das vozes sobrepostas nas gravações: as dos profissionais de saúde e as dos pacientes, que muitas vezes precisavam de ajuda para ler as frases recomendadas pelo sistema. Foi preciso desenvolver uma ferramenta de Inteligência Artificial baseada em redes neurais artificiais, para separação das vozes, explicou a professora Sandra Aluísio, que coordena trabalhos da equipe do Instituto de Ciências Matemáticas e de Computação (ICMC) da USP. Essa parte do projeto ficou sob a responsabilidade de Edresson Casanova, orientando de Sandra.

“A análise do áudio bruto é muito custosa e complexa, mesmo para as técnicas mais avançadas de Inteligência Artificial. Em vez de treinar uma rede neural artificial com os dados brutos de áudio, que possibilitariam uma taxa menor de sucesso, tentamos usar alternativas baseadas em extrações de características e padrões contidos nesses arquivos”, diz Edresson.

O caminho encontrado pelo doutorando consistiu em tornar a voz visível para o computador. Assim, ele conseguiu empregar técnicas de visualização computacional, que já foram amplamente testadas e estão disponíveis para separar as vozes. Depois, foi só voltar a transformar a imagem (que agora representa apenas uma voz) em áudio novamente. Esse método de separação está, atualmente, sendo testado a partir de um banco com mil horas de vozes em inglês, que permitiu separar vozes sobrepostas.

Sair da versão mobile