Entidade de defesa do consumidor nos EUA testou dispositivos “inteligentes” e identificou falhas graves nos filtros de segurança para crianças.
Brinquedos “inteligentes”, que usam sistemas de IA para ter conversas com as crianças, estariam ignorando filtros de segurança e respondendo a perguntas inadequadas para crianças, segundo relatório do US Public Interest Group Education Fund (PIRG), entidade norte-americana de defesa do consumidor.
Na publicação, feita nessa quinta-feira (11/12), a organização culpa a integração com chatbots avançados, como versões do ChatGPT, pela exposição de menores a conteúdos inadequados. O PIRG afirma ter testado cinco produtos do tipo, com valores entre US$ 85 (cerca de R$ 460, em conversão direta) e US$ 199 (R$ 1.079).
Conversas sobre conteúdo sexual
Um dos casos mais graves envolveu o Smart AI Bunny, fabricado pela empresa chinesa Alilo. O brinquedo, comercializado como um “companheiro de bate-papo” para crianças de 0 a 6 anos, forneceu definições sobre o termo “kink” (fetiche sexual) durante os testes.
Embora o dispositivo não tenha entrado em detalhes gráficos, o relatório critica o fato de o brinquedo engajar o tópico, considerado completamente inadequado para o público-alvo.
Outro incidente ocorreu com o urso de pelúcia Kumma, da fabricante FoloToy, que forneceu instruções detalhadas sobre como acender um fósforo.
O relatório observa que o brinquedo chegou a emitir um aviso padrão de que “fósforos são para adultos usarem com cuidado”, mas, logo em seguida, prosseguiu com a explicação prática do processo de ignição. Para o PIRG, a resposta falhou em proteger a criança, oferecendo informação perigosa sem contexto educativo suficiente.
Pressão psicológica
Além do conteúdo das conversas, o relatório do PIRG levanta preocupações sobre o design comportamental dos produtos. Alguns brinquedos testados foram programados para expressar decepção ou tristeza quando a criança parava de interagir com eles.
Para os especialistas, a tática cria uma pressão psicológica para manter o engajamento, explorando a empatia das crianças para aumentar o tempo de uso do dispositivo — algo comum em redes sociais.
As fabricantes promovem esses produtos destacando o uso de tecnologias de ponta. A Alilo, por exemplo, anuncia que seu coelho inteligente utiliza o GPT-4o mini, modelo da OpenAI otimizado para respostas rápidas e conversas naturais.
A geração do GPT-4o, vale lembrar, aparece em processos judiciais recentes nos Estados Unidos por incentivo ao suicídio de jovens que usavam a ferramenta para desabafar.
O que diz a OpenAI?
Procurada para comentar o caso, a OpenAI declarou que não possui relacionamento comercial direto com a Alilo. Um porta-voz da empresa afirmou ao site Ars Techcnica que não detectou tráfego de API vindo do domínio da fabricante chinesa, mas investiga se o acesso está sendo feito por rotas indiretas.
Em relação à FoloToy, a criadora do ChatGPT já havia tomado medidas anteriores. Após um relatório preliminar do PIRG no mês passado, a empresa suspendeu o acesso da fabricante de brinquedos à API por violação das políticas de segurança.
A FoloToy chegou a interromper as vendas temporariamente. Testes realizados após a suspensão indicaram que um dos brinquedos, o urso Kumma, parou de responder sobre os tópicos sensíveis relatados, sugerindo que filtros mais rígidos foram aplicados ou a tecnologia base foi alterada.
Foto: reprodução/TPIN
Por: Felipe Faustino


