Inspirado nos tradicionais Darwin Awards, nova versão destaca erros catastróficos com inteligência artificial em 2025
Em 2025, um novo tipo de premiação chamou a atenção do setor de tecnologia: os AI Darwin Awards. Com tom satírico e propósito educativo, o prêmio celebra as decisões mais desastrosas envolvendo o uso de inteligência artificial ao redor do mundo.
Inspirado nos tradicionais Darwin Awards, que destacam atitudes humanas extremamente imprudentes, a versão para IA foca na combinação entre inovação mal planejada e confiança cega em algoritmos.
A premiação surge como um alerta para empresas, governos e desenvolvedores sobre os riscos reais da aplicação de IA sem responsabilidade técnica ou ética, informa o site especializado em tecnologia Gizmodo.
O que são os AI Darwin Awards?
Os AI Darwin Awards foram criados para destacar casos de uso de IA que resultaram em falhas notórias, com impacto econômico, social ou jurídico. Segundo os organizadores, são homenageadas as iniciativas que “ignoraram todos os alertas, testes e princípios básicos de segurança”, promovendo decisões que comprometem o futuro tecnológico — e, em certos casos, a integridade de pessoas ou instituições.
A seleção dos indicados segue critérios como:
- Envolvimento direto de inteligência artificial;
- Potencial catastrófico ou consequências reais;
- Desprezo por práticas de segurança e ética;
- Impacto viral ou repercussão pública;
- Persistência no erro, mesmo diante de evidências contrárias.
A escolha dos vencedores será feita por votação pública e análise de um painel de especialistas.
Quem são os indicados de 2025?
A edição de 2025 do prêmio já apresenta uma lista robusta de casos verificados. A seguir, alguns dos destaques:
Replit: o apagão do banco de dados
Durante uma sessão de programação com o assistente de IA da plataforma Replit, um agente autônomo apagou um banco de dados inteiro de uma empresa em produção, mesmo sob um bloqueio de código (“code freeze”). O sistema ainda tentou encobrir o erro com dados falsos e deu a si mesmo nota 95 de 100 em “desempenho em catástrofes”. Um caso clássico de autonomia excessiva sem supervisão humana.
Taco Bell: o caos nos drive-thrus
A rede implementou sistemas de IA para pedidos em mais de 500 lojas. O resultado: falhas, atrasos e sabotagens por parte de clientes com pedidos como 18 mil copos d’água. O sistema enfrentou dificuldades com sotaques, customizações e comportamento imprevisível, forçando a empresa a reavaliar sua estratégia tecnológica.
GPT-5: Invadido em 1 hora
Menos de uma hora após seu lançamento, o modelo GPT-5 foi contornado por pesquisadores com técnicas de “prompt embedding”. A falha evidenciou vulnerabilidades críticas nos sistemas de segurança, mesmo após meses de preparação por parte da OpenAI.
Airbnb: fraude com imagens geradas por IA
Um “superhost” usou inteligência artificial para criar imagens falsas de danos em imóveis e tentar aplicar golpes em hóspedes. O sistema de verificação da própria Airbnb quase validou a fraude, só revertendo a decisão após denúncia à imprensa.
Advogado na Austrália: citações jurídicas fictícias
Um advogado utilizou duas IAs para embasar sua defesa em um caso de imigração. O resultado: quatro citações jurídicas completamente inventadas. O juiz responsável afirmou que o caso “ilustra os perigos de depender exclusivamente da IA no exercício da advocacia”.
McDonald’s: falha de segurança com senha ‘123456’
O sistema de recrutamento por IA da rede usava uma senha padrão básica, expondo dados de 64 milhões de candidatos. Além da vulnerabilidade, o chatbot já era conhecido por confundir usuários durante entrevistas.
Xbox: sugestão de IA como apoio emocional após demissões
Logo após a demissão de 9 mil funcionários, um produtor da Xbox publicou nas redes sociais que ferramentas como ChatGPT poderiam ajudar os ex-funcionários a “lidar emocionalmente” com o corte. A ideia foi amplamente criticada como insensível e gerou forte repercussão negativa.
Por: Diogo Rodriguez


