sexta-feira,22 novembro, 2024

Meta usa IA para aprimorar reconhecimento de fala em assistentes virtuais

Apesar dos recentes avanços nos sistemas de inteligência artificial generativa, o aprimoramento das assistentes virtuais em dispositivos móveis ainda parece empacado – especialmente em relação aos mecanismos de reconhecimento de fala. A fim de mudar tal cenário, a Meta apresentou um conjunto de dados que promete melhorar o desempenho das ferramentas de reconhecimento automático de fala (ASR).

Segundo o Engadget, a empresa já trabalha há algum tempo para melhorar o desempenho de seus ASRs, ensinando-os a treinar sem o auxílio de transcrições, reconhecer mais de 4 mil idiomas falados e até ler lábios com maior proficiência do que especialistas humanos. No entanto, muitos dos conjuntos de dados usados para treinar esses modelos são organizados por dados demográficos – faixa etária, gênero, nacionalidade, sotaque – o que limita a variação de pronúncias nas quais os modelos são treinados, dificultando sua compreensão mais ampla.

Para melhorar esse treinamento, a Meta AI, núcleo de desenvolvimento de IA da Meta, criou um conjunto de dados que usa um método de agrupamento de enunciados. “Em vez de dividir um conjunto de dados com base nas informações demográficas dos falantes, nosso algoritmo proposto agrupa a fala no nível de elocução”, explicou a equipe em postagem no blog da empresa. “Um único cluster conterá declarações semelhantes de um grupo diversificado de falantes. Podemos então treinar nosso modelo usando os vários clusters e usar conjuntos de dados de equidade para medir como o modelo impacta os resultados em diferentes grupos demográficos.”

Texto: Soraia Alves

Redação
Redaçãohttp://www.360news.com.br
1º Hub de notícias sobre inovação e tendências da região Centro-Oeste e Norte do Brasil.

LEIA MAIS

Recomendados