Imagens reais das vítimas estão sendo incorporadas em modelos de IA, que, então produzem novas representações delas, alerta a Internet Watch Foundation (IWF); em um fórum, foram encontrados quase 3 mil conteúdos que violavam a lei britânica de Proteção da Criança
Em seu novo relatório anual, a Internet Watch Foundation (IWF) disse ter encontrado quase 3 mil imagens de abuso infantil feitas por inteligência artificial que violam as regras do Reino Unido. Segundo a organização, imagens reais das vítimas estão sendo incorporadas em modelos de IA, que, então produzem novas representações delas.
Além disso, como destaca reportagem do jornal The Guardian, a tecnologia tem sido usada para criar imagens de celebridades que foram “rejuvenescidas” e depois retratadas como crianças em cenários de abuso sexual. Outros exemplos incluem o uso de ferramentas de IA para desnudar fotos de crianças vestidas encontradas online.
Susie Hargreaves, diretora executiva da IWF, afirmou que “os piores pesadelos se tornaram realidade”. “No início deste ano, alertamos que as imagens da IA poderiam em breve tornar-se indistinguíveis das imagens reais de crianças que sofrem abuso sexual e que poderíamos começar a ver estas imagens proliferarem em números muito maiores. Já ultrapassamos esse ponto.”
Ela acrescentou: “O assustador é que estamos vendo criminosos treinando deliberadamente sua IA em imagens reais de vítimas que já sofreram abusos. Crianças que foram violadas no passado estão agora sendo incorporadas em novos cenários porque alguém, em algum lugar, quer ver isso”.
A IWF revelou ainda que viu evidências de imagens geradas por IA sendo vendidas online. Essas descobertas, informa o The Guardian, foram baseadas em uma investigação de um mês realizada em um fórum sobre abuso infantil na dark web.
A entidade analisou 11.108 imagens no fórum, sendo que 2.978 delas violavam a lei britânica de Proteção da Criança, que criminaliza a obtenção, a distribuição e a posse de “fotografia indecente ou pseudofotografia” de crianças. Desse total, mais de uma em cada cinco foram classificadas como categoria A, o tipo de conteúdo mais grave, que pode retratar estupro e violência sexual.
Dan Sexton, diretor de tecnologia da IWF, relatou que a ferramenta de geração de imagens Stable Diffusion foi a única citada no fórum. “Temos visto discussões em torno da criação de conteúdo usando Stable Diffusion, que é um software disponível abertamente.”
A Stability AI, a empresa do Reino Unido por trás do produto, informou que “proíbe qualquer uso indevido para fins ilegais ou imorais”.
Texto: Época NEGÓCIOS