Empresa diz que o dispositivo abrirá novas possibilidades em uma ampla gama de áreas de pesquisa
A Meta anunciou o lançamento dos óculos inteligentes experimentais de pesquisa Aria Gen 2. Em uma postagem em seu blog, a big tech disse que esta próxima geração de hardware “desbloqueará novas possibilidades em uma ampla gama de áreas de pesquisa, incluindo percepção de máquina, IA egocêntrica e contextual e robótica”.
Comparado ao Aria Gen 1, o novo modelo inclui conjunto de sensores atualizado, incluindo um que mede a frequência cardíaca, câmeras de rastreamento ocular e um microfone de contato para distinguir a voz do usuário das dos espectadores.
Além disso, a empresa destacou que os óculos podem ser usados continuamente de seis a oito horas, pesam cerca de 75 gramas e têm hastes dobráveis para fácil a portabilidade.
Outra novidade em relação à geração anterior é que os usuários recebem feedback de áudio por meio de melhores alto-falantes de ouvido aberto com cancelamento de força.
“Nossa jornada de uma década para criar a próxima plataforma de computação levou ao desenvolvimento dessas tecnologias críticas. Na Meta, as equipes da Reality Labs Research e do laboratório FAIR AI as usarão para avançar nossa visão de pesquisa de longo prazo”, salientou a Meta.
Ela acrescentou que disponibilizá-las para laboratórios de pesquisa acadêmica e comercial por meio do Projeto Aria avançará ainda mais a pesquisa aberta e a compreensão pública de um conjunto-chave de tecnologias que acreditamos que ajudarão a moldar o futuro da computação e da IA”.
O Projeto Aria, desde 2020, já levou à criação de ferramentas de código aberto utilizadas na academia e na indústria, como o conjunto de dados Ego-Exo4D. O Aria Gen 1 foi utilizado pela Carnegie Mellon University em seu projeto NavCog, que visava construir tecnologias para auxiliar indivíduos cegos e com baixa visão com navegação interna.
Com base nessa fundação, os óculos Aria Gen 2 agora estão sendo alavancados pela Envision. A empresa dedicada a criar soluções para pessoas cegas ou com baixa visão está explorando a integração de seu assistente Ally AI e áudio espacial usando os novos óculos para aprimorar a navegação interna e as experiências de acessibilidade.
O dispositivo ainda não está disponível, mas a Meta informou que pesquisadores interessados podem se inscrever para receber atualizações.
Por Renata Turbiani