Especialistas alertam que as informações enviadas pelos criadores podem ser usadas para treinar modelos de IA do Google
teEm outubro, o YouTube lançou a ferramenta “detecção de semelhança”, que identifica quando o rosto de um criador é usado sem sua permissão em vídeos falsos criados com inteligência artificial (deefakes). Mas, para usá-la, a plataforma exige que os criadores enviem um documento oficial e um vídeo biométrico, um tipo de gravação utilizada para verificar a identidade de uma pessoa com base em suas características físicas.
O recurso, apesar de atender a uma demanda importante dos produtores de conteúdo, tem gerado críticas. Especialistas consultados pela rede CNBC disseram que o Google treina seus modelos de IA com os dados sensíveis que ele coleta.
Os entrevistados afirmaram que, ao vincular a ferramenta à política de privacidade do Google, o YouTube abriu caminho para futuros usos indevidos dos dados biométricos dos criadores. A política declara que conteúdo público, incluindo informações biométricas, pode ser usado “para ajudar a treinar os modelos de IA do Google e desenvolver produtos e recursos”.
“Com a Google correndo para competir em IA e os dados de treinamento se tornando um recurso estratégico valioso, os criadores precisam pensar cuidadosamente se desejam que sua imagem seja controlada por uma plataforma em vez de permanecer sob seu controle”, disse Dan Neely, CEO da Vermillio, empresa que ajuda indivíduos a proteger sua imagem contra o uso indevido e também facilita o licenciamento seguro de conteúdo autorizado. “Sua imagem será um dos ativos mais valiosos na era da IA e, uma vez que você ceda esse controle, poderá nunca mais recuperá-lo.”
Luke Arrigoni, CEO da Loti, companhia que trabalha com criadores, celebridades e empresas de mídia para monitorar e garantir o uso de direitos de imagem na internet, acrescentou que os riscos da atual política biométrica do YouTube “são enormes”.
“Como a versão atual permite que alguém associe esse nome aos dados biométricos reais do rosto, essa pessoa poderia criar algo mais sintético que se pareça com ela”, ele indicou.
Ambos os executivos afirmaram que, no momento, não recomendariam que nenhum de seus clientes se inscrevesse em serviços de detecção de semelhança no YouTube.
Jack Malon, porta-voz do YouTube, disse à CNBC que “a detecção de semelhança é um recurso completamente opcional, mas requer uma referência visual para funcionar”. “Nossa abordagem em relação a esses dados não está mudando. Como nossa Central de Ajuda afirma desde o lançamento, os dados fornecidos para a ferramenta de detecção de semelhança são usados apenas para fins de verificação de identidade e para ativar esse recurso de segurança específico”, salientou.
Ele complementou que a plataforma está “considerando maneiras de tornar a linguagem dentro do produto mais clara”, mas não especificou quais mudanças serão feitas nem quando entrarão em vigor.
Por: Renata Turbiani


