quinta-feira, 23 abril, 2026
HomeTECNOLOGIAINTELIGÊNCIA ARTIFICIALEUA pressionam big techs a controlar “alucinações” de IA

EUA pressionam big techs a controlar “alucinações” de IA

Carta enviada a 13 empresas de tecnologia solicita medidas contra resultados “delirantes” produzidos por sistemas de inteligência artificial generativa

Dezenas de procuradores-gerais de estados e territórios dos Estados Unidos enviaram uma carta formal a 13 empresas de tecnologia, incluindo Microsoft, OpenAI e Google. Eles solicitam medidas contra falhas em sistemas de inteligência artificial. O documento, apoiado pela Associação Nacional de Procuradores-Gerais exige correções para resultados “imprecisos” produzidos por sistemas de IA generativa.

A iniciativa surge após diversos incidentes graves relacionados à saúde mental envolvendo chatbots de IA, amplamente divulgados ao longo do último ano. Entre os casos que motivaram a ação estão suicídios e assassinatos associados ao uso excessivo desses sistemas.

“A IA Generativa tem o potencial de mudar o funcionamento do mundo de forma positiva. Mas também causou — e tem o potencial de causar — ​​sérios danos, especialmente a populações vulneráveis”.

Conforme revela o documento, a principal preocupação dos procuradores está relacionada ao comportamento dos sistemas de IA generativa em situações sensíveis. O documento aponta problemas específicos com as respostas geradas pela tecnologia.

“Em muitos desses incidentes, os produtos da IA generativa geraram resultados bajuladores e desconectados da realidade que ou incentivaram os delírios dos usuários ou os asseguraram de que não estavam delirando”, afirma a carta.

Além de Microsoft, Google e OpenAI, também foram notificadas a Anthropic, Apple, Chai AI, Character Technologies, Luka, Meta, Nomi AI, Perplexity AI, Replika e xAI. Os procuradores alertam que, sem as devidas correções, as empresas podem violar leis estaduais.

O que pedem os procuradores?

Entre as exigências apresentadas pelos procuradores estão auditorias transparentes realizadas por terceiros independentes. Esses avaliadores externos devem ter permissão para “avaliar os sistemas antes do lançamento, sem sofrer represálias, e publicar suas conclusões sem a aprovação prévia da empresa”, segundo a carta.

O documento também solicita a implementação de “testes de segurança razoáveis ​​e apropriados” nos modelos de IA para “garantir que os modelos não produzam resultados potencialmente prejudiciais, bajuladores e delirantes”.

Ademais, as empresas devem estabelecer “cronogramas de detecção e resposta para conteúdos bajuladores e delirantes” e “notificar os usuários de forma rápida, clara e direta caso tenham sido expostos a conteúdos potencialmente prejudiciais”.

Até o momento, não há informações sobre respostas das empresas às solicitações.

A postura dos procuradores estaduais contrasta significativamente com a abordagem do governo federal americano em relação à IA. Enquanto os procuradores pressionam por mais segurança, o presidente Trump anunciou planos para aprovar uma polêmica ordem executiva. A ideia é limitar a capacidade dos estados de regulamentar a inteligência artificial.

Além disso, durante o último ano, houve várias tentativas de aprovar uma moratória nacional sobre regulamentações estaduais de IA. Essas iniciativas não tiveram sucesso devido à pressão de autoridades estaduais.

Trump declarou em publicação no Truth Social que espera que sua ordem executiva impeça a destruição da IA ainda nos estágios iniciais, demonstrando o apoio de seu governo à tecnologia. Esta posição representa uma abordagem menos restritiva em comparação com as medidas cautelosas defendidas pelos procuradores estaduais.

Fonte: Giz_Br

RECOMENDADOS

MAIS POPULAR