terça-feira, 10 março, 2026
HomeTECNOLOGIAINTELIGÊNCIA ARTIFICIALIA como terapeuta? Sam Altman alerta para a falta de sigilo em...

IA como terapeuta? Sam Altman alerta para a falta de sigilo em conversas sensíveis

Para o CEO da OpenAI, ainda é cedo para confiar na IA como terapeuta. O motivo? Falta de estruturas que garantam a privacidade.

Com a popularização da Inteligência Artificial generativa, como o ChatGPT, milhões de pessoas passaram a interagir com a tecnologia não só para aumentar produtividade e resolver problemas do dia a dia. Mas também como uma forma de apoio emocional. Vários estudos já indicam que o uso da IA como uma espécie de “terapeuta virtual” está se tornando comum, principalmente entre os mais jovens.

Mas, essa prática ainda levanta uma série de preocupações. Em um episódio recente do podcast This Past Weekend, de Theo VonSam Altman, fundador e CEO da OpenAI (criadora do ChatGPT), trouxe um alerta de que a indústria de IA ainda não encontrou uma forma de garantir a privacidade legal dessas conversas sensíveis.

“As pessoas falam sobre as coisas mais pessoais de suas vidas com o ChatGPT”, disse Altman. “As pessoas o usam – principalmente os jovens – como um terapeuta, um coach de vida; tendo esses problemas de relacionamento e [perguntando] ‘o que devo fazer?’. E, neste momento, se você conversar com um terapeuta, um advogado ou um médico sobre esses problemas, existe o sigilo legal. Existe a confidencialidade médico-paciente, existe o sigilo legal, seja lá o que for. E ainda não descobrimos como fazer isso para quando você fala com o ChatGPT.”

Confidencialidade da IA

O ponto levantado por Altman é que não existe, hoje, uma estrutura legal que assegure confidencialidade às interações com Inteligências Artificiais. Isso deixa os usuários vulneráveis em conversas que, se fossem com profissionais humanos, estariam protegidas por lei.

Durante o episódio, o apresentador também comentou que não costuma usar o ChatGPT exatamente por preocupações com privacidade. Altman respondeu de forma direta: “Acho que faz sentido querer realmente a clareza da privacidade antes de usar [o ChatGPT] muito – como a clareza jurídica”, disse Altman.

A reflexão vem em um momento em que a IA ocupa um espaço cada vez mais íntimo na vida das pessoas. Por um lado, ela oferece acesso rápido, anônimo e gratuito a conselhos e orientações. Por outro, a ausência de normas claras sobre confidencialidade pode representar riscos éticos e legais importantes. Afinal, como proteger os dados e a privacidade dos usuários que recorrem à IA em busca de apoio emocional e psicológico?

RECOMENDADOS

MAIS POPULAR