O campo da inteligência artificial generativa na criação de música cresce rapidamente. E a mais recente empreitada do Google, feita em colaboração com pesquisadores japoneses, amplia ainda mais esse potencial.
Há algumas semanas, o Google apresentou ao mundo o MusicLM — uma ferramenta que compõe melodias a partir de texto simples. Porém, a inovação agora embarca em uma jornada mais complexa.
O Google e pesquisadores japoneses desenvolveram um método revolucionário para criar música a partir de sinais cerebrais humanos captados por fMRI (Imagem por Ressonância Magnética Funcional) — uma técnica que obtém imagens em tempo real da atividade cerebral ao medir variações no fluxo sanguíneo.
Na pesquisa intitulada “Brain2Music“, uma rede neural foi treinada usando exames fMRI de participantes. Eles foram expostos a trechos musicais variados de 15 segundos, abrangendo gêneros que incluem blues, música clássica, country, disco, hip-hop, jazz, heavy metal, pop, reggae e rock. Desse modo, a inteligência artificial do Google conseguiu perceber a conexão entre atividade cerebral e os elementos das músicas, como ritmo e sentimento.
Para entusiastas interessados em se aprofundar mais nessa inteligência artificial, há um site do Google que apresenta essa fusão de tecnologia e arte.
Um destaque inclui uma interpretação da IA da canção “Oops!…I Did It Again”, de Britney Spears. Embora represente a energia animada da original, a inteligência artificial vai além das letras, enfatizando a essência musical.
Esse modelo do Google, combinando a inteligência artificial generativa com insights musicais a partir de padrões de ondas cerebrais, pode revolucionar a forma como percebemos a música e sua criação.
Contudo, com os avanços tecnológicos surgem preocupações. Neste caso, o que pode tranquilizar os mais cautelosos é que esse processo, em sua forma atual, exige longas sessões em um grande scanner fMRI, protegendo qualquer preocupação imediata com a privacidade.
Fonte: UOL