Qual é a profundidade e a extensão dos efeitos da inteligência artificial sobre os usuários? É importante lembrar que ainda estamos nos primórdios dessa tecnologia, tornando prematuro atribuir à IA mudanças significativas na natureza humana

Nos últimos dois anos, observou-se um crescimento significativo na adoção de plataformas de conversação com inteligência artificial (IA), impulsionado por avanços em modelos de linguagem de grande porte (LLMs) – como o ChatGPT da OpenAI, Claude da Anthropic, Gemini do Google, Llama da Meta – e sua integração crescente à vida cotidiana. A indústria tem buscado, intencionalmente, ampliar a personificação e antropomorfização desses sistemas para aumentar o engajamento dos usuários. Uma pergunta frequente ilustra essa tendência: faz diferença dizer “bom-dia” ou “obrigado” à esses sistemas? Ou seja, não basta apenas responder às demandas objetivas dos usuários; é necessário também “harmonizar-se com seus ecossistemas sociais e psicológicos”, conceito denominado de “alinhamento socioafetivo” – o que pode gerar uma temporária sensação de conforto emocional ou, em casos extremos, manipulação.

O rápido avanço da inteligência artificial tem suscitado debates acalorados, incluindo especulações sobre como o uso frequente dessas tecnologias afeta o comportamento humano e até mesmo sua estrutura cognitiva e social. Esse debate, contudo, exige como pré-requisito um consenso sobre definições básicas: Qual é a profundidade e a extensão dos efeitos da IA sobre os usuários? É importante lembrar que ainda estamos nos primórdios dessa tecnologia, tornando prematuro atribuir à IA mudanças significativas na natureza humana.

A evolução biológica, para a maioria das espécies – especialmente os seres humanos -, é um processo tão lento que só pode ser observado ao longo de milhares ou centenas de milhares de anos, um intervalo que transcende uma vida humana. O tamanho do cérebro humano, por exemplo, encontra-se na menor dimensão que já tivemos nos últimos 100.000 anos, sendo que a maior parte dessa redução ocorreu nos últimos 6.000 anos. Cientistas estudam organismos de reprodução rápida, como bactérias (cuja evolução pode ser observada em semanas) ou moscas-de-frutas (em meses). Em comparação, a linhagem dos hominídeos divergiu dos primatas há 5-8 milhões de anos – Charles Darwin, em A Origem das Espécies (1859) e A Descendência do Homem (1871) na verdade não afirmou que “o homem descendia dos macacos”, apenas que, teoricamente, compartilhamos um ancestral comum – e o Homo Sapiens existe há apenas cerca de 100.000 anos.

Quando falamos de mudança de comportamento humano, referimo-nos à modificação de ações, atitudes ou hábitos para alcançar um resultado desejado. Esse processo pode ser intencional (como em terapias ou treinamentos) ou não intencional (como em aprendizado ou adaptações a novos ambientes). Historicamente, transformações disruptivas na civilização sempre envolveram três pilares: como aproveitamos a energia, os alimentos que consumimos e como nos comunicamos. A inteligência artificial, particularmente as soluções de IA generativa, está transformando justamente o terceiro pilar: a maneira como nos comunicamos (sem deixar de afetar os outros dois pilares).

Em março último, pesquisadores da OpenAI em colaboração com o Massachusetts Institute of Technology (MIT), publicaram dois estudos sobre os impactos do ChatGPT no comportamento e emoções dos usuários. O primeiro, “Investigating Affective Use and Emotional Well-beingmon ChatGPT”, investigou até que ponto as interações com o ChatGPT – especialmente no modo voz – afetam o bem-estar emocional e as experiências dos usuários. Foram analisadas mais de 4 milhões de conversas e entrevistados mais de 4.000 usuários sobre suas percepções. Além disso, um ensaio clínico randomizado (RTC-Randomized Controlled Trial), aprovado pelo Institutional Review Board (IRB) – Conselho de Revisão Institucional, também conhecido como Comitê de Ética em Pesquisa ou Comitê de Ética Independente, avalia e aprova pesquisas que envolvem seres humanos, garantindo que a ética e a segurança dos participantes sejam respeitadas -, acompanhou cerca de mil participantes ao longo de 28 dias, avaliando mudanças comportamentais em diferentes cenários de interação. Os resultados indicaram que o impacto depende do estado emocional inicial do usuário e do tempo de exposição ao sistema (conclusões meio que intuitiva).

O segundo, “How AI And Human Behaviors Shape Psychosocial Effects Of Chatbot Use: A Longitudinal Randomized Controlled Study”, investigou como essas interações, motivadas pela busca de suporte emocional ou companhia, podem impactar a solidão e a sociabilização dos usuários com pessoas reais. A metodologia da investigação foi um experimento randomizado, controlado e aprovado pelo IRB, durante quatro semanas e 300 mil mensagens, buscando identificar se e como influenciam o psicossocial (solidão, interação social, dependência emocional e uso inadequado da IA). Os resultados mostraram que, embora os chatbots baseados em voz inicialmente parecessem benéficos na mitigação da solidão e da dependência em comparação com os chatbots baseados em texto, essas vantagens diminuíram em altos níveis de uso, especialmente com chatbot de voz neutra. “De modo geral, o maior uso diário – em todas as modalidades e tipos de conversação – correlacionou-se com maior solidão, dependência e uso problemático, além de menor socialização”. Os pesquisadores alertam que os resultados observados contribuem para repensar o design de futuros sistemas de IA e a elaboração de proteções regulatórias destinadas a minimizar potenciais danos.

Com outra abordagem – como a ascensão da IA Generativa em fluxos de trabalho de conhecimento impacta as habilidades e práticas de pensamento crítico, envolvendo atividades cognitivas como análise, síntese e avaliação – pesquisadores da Carnegie Mellon University e da Universidade de Cambridge (esses também pesquisadores da Microsoft), em 25 de abril de 2025, publicaram o artigo “The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers”. Foram entrevistados 319 trabalhadores do conhecimento com uso pelo menos uma vez por semana, que compartilharam 936 exemplos de uso, sobre a) quando e como percebem a manifestação do pensamento crítico ao usar a IA generativa e b) em que momentos e por quais motivos (limitação: os participantes ocasionalmente confundiram redução de esforço no uso das soluções com redução de esforço no pensamento crítico). Os resultados indicaram a tendência dos trabalhadores do conhecimento “abandonarem” o pensamento crítico em tarefas secundárias (ou seja, inibir o engajamento crítico, reduzindo a habilidade para resolução de problemas), enquanto o praticam para aprimorar suas habilidades profissionais, e garantir a qualidade do trabalho (por exemplo, verificando fontes externas). Existe uma relação inversa entre confiança e pensamento crítico: maior confiança na IA generativa associa-se a menos pensamento crítico, enquanto menor confiança na IA generativa (ou maior autoconfiança) associa-se a mais pensamento crítico (conclusão igualmente intuitiva). “Ao usar soluções de GenAI, o esforço investido em pensamento crítico muda da coleta de informações para a verificação de informações; da resolução de problemas para a integração de respostas de IA; e da execução de tarefas à administração de tarefas”, concluem os pesquisadores.

As três pesquisas reforçam que a) Ainda é cedo para conclusões definitivas sobre os impactos socioemocionais da IA generativa; b) Não podemos ignorar potenciais danos, como dependência emocional e erosão do pensamento crítico; e c) Soluções regulatórias e de design devem ser priorizadas para minimizar riscos.

A vigilância crítica – sem pânico, mas com rigor científico – é essencial para que a IA sirva à humanidade, e não o contrário.

Por: Dora Kaufman