As decisões, que antes eram lineares e rastreáveis, agora se desenrolam em redes de pessoas e sistemas de inteligência artificial. Para os líderes, isso significa que a antiga busca por um culpado perdeu relevância
À medida que as empresas adotam sistemas cada vez mais autônomos, como robôs de negociação e tomadores de decisão algorítmicos, torna-se cada vez mais difícil apontar um único culpado quando algo dá errado. E isso revela uma mudança profunda na forma como a responsabilidade deve ser compreendida e atribuída na era das tecnologias inteligentes.
Em artigo publicado no MIT Sloan Management Review, François-Xavier de Vaujany, professor titular de estudos organizacionais na Université Paris Dauphine-PSL, e Aurélie Leclercq-Vandelannoitte, pesquisadora do CNRS (Centre National de la Recherche Scientifique) no LEM (Lille Économie Management), dão um exemplo desta complexidade. Em 2018, um veículo autônomo da Uber atropelou fatalmente uma mulher em Tempe, no Arizona. Quem era o responsável? A motorista de segurança ao volante? Os engenheiros que projetaram os algoritmos? A liderança da Uber? Ou os reguladores que permitiram os testes de veículos autônomos?
As decisões, que antes eram lineares e rastreáveis, agora, com novas tecnologias, se desenrolam em redes de pessoas e sistemas de inteligência artificial. Para os líderes, isso significa que a antiga busca por um culpado perde relevância.
Por que os modelos clássicos de responsabilidade não funcionam mais?
Segundo os autores, as organizações frequentemente recorrem a modelos tradicionais de responsabilização, mirando normalmente um líder sênior. Eles dão mais um exemplo: após dois acidentes fatais com o Boeing 737 MAX, que mataram 346 pessoas em 2018 e 2019, o CEO Dennis Muilenburg foi demitido. Apesar dessa ação e das promessas de mudança cultural feitas por seu sucessor, as falhas subjacentes de qualidade e segurança persistiram, culminando na explosão de um tampão de porta de um 737 MAX em pleno voo em 2024 e na saída de mais um CEO. Ou seja, remover uma única pessoa raramente resolve as causas profundas e complexas das falhas organizacionais.
Para eles, essas abordagens de responsabilização sempre tiveram limites, mesmo antes da ascensão das tecnologias digitais. O que há de novo na era da IA e da automação é a velocidade, a complexidade e a opacidade com que as decisões estão sendo tomadas, tornando os modelos antigos ainda menos viáveis.
A queda de um drone de entrega Prime Air da Amazon, no Oregon, em 2022, é outro exemplo. Embora relatórios oficiais tenham focado em erros técnicos ou operacionais, a responsabilidade por incidentes desse tipo é distribuída entre programadores, equipes de aprovação e gestores de operações ou projetos. Ações e consequências se distribuem de maneiras que os modelos antigos não conseguem abarcar.
Isso exige das empresas uma nova abordagem da responsabilidade, que vá da culpa para a responsabilidade narrativa.
O que é responsabilidade narrativa e como torná-la prática com 3 ações
A aprendizagem e a resiliência organizacional dependem de uma revisão conjunta de como as decisões são tomadas e de como se definem responsabilidades, o que os autores chamam de responsabilidade narrativa.
Transformar a responsabilidade narrativa em prática exige que líderes reformulem como a responsabilização é construída, sustentada e vivenciada, para que cada incidente se torne um aprendizado coletivo e melhoria contínua.
Veja como aplicar esses princípios, segundo Vaujany e Leclercq-Vandelannoitte:
1) Mapear a história real — além do óbvio
Após um incidente, análises organizacionais técnicas, legais ou gerenciais geralmente buscam uma explicação coerente sobre o fato. Embora isso seja comum e necessário, também pode restringir a responsabilidade ao privilegiar explicações em detrimento de outras questões ambíguas ou contestadas.
A resposta do Google à falha de geração de imagens do Gemini, no início de 2024, oferece um exemplo parcial, apontam os autores. Quando a ferramenta gerou imagens historicamente imprecisas, o Google publicou uma explicação detalhada apontando falhas no ajuste de diversidade e no comportamento do modelo. Em um memorando interno, o CEO Sundar Pichai prometeu mudanças estruturais, melhorias nos processos de lançamento e expansão de testes críticos.
Isso foi um mapeamento, identificando o que falhou e por quê. Mas uma análise mais completa poderia incluir fatores como pressão competitiva por lançamentos rápidos, incentivos organizacionais que desencorajavam testes cautelosos e o descompasso entre riscos conhecidos e a decisão de lançar o programa.
Portanto, mapear a história real significa ir além do diagnóstico técnico e revelar as dinâmicas humanas e organizacionais que permitiram a falha.
2) Distribuir a responsabilidade, não a culpa
Em organizações que usam IA, decisões e resultados não vêm de uma única pessoa, mas da interação entre várias equipes e sistemas ao longo do tempo.
Muitas organizações inovadoras estão criando estruturas formais — como comitês, painéis de revisão de incidentes, sistemas de rastreabilidade e grupos interdisciplinares — para institucionalizar a responsabilidade narrativa. Esses espaços são projetados para serem abertos e psicologicamente seguros, permitindo que funcionários reflitam, expressem verdades difíceis e reconstruam coletivamente os eventos.
3) Incorporar a reflexão no dia a dia
Para prosperar, a responsabilidade narrativa não pode existir apenas após crises: ela precisa se tornar rotina organizacional.
Algumas empresas incluem momentos de revisão em reuniões regulares, com perguntas como: “O que aprendemos?”, “Onde falhamos?” ou “Como nossas ações contribuíram para o resultado?”. Outras integram essas narrativas em relatórios de gestão contínuos.
Responsabilidade narrativa como DNA organizacional
Sustentar a responsabilidade narrativa exige mais do que iniciativas isoladas: ela precisa fazer parte do DNA organizacional da empresa.
À medida que as organizações adotam agentes de IA, elas não podem mais depender apenas de auditorias retroativas ou equipes de conformidade para atribuir responsabilidade. Em vez disso, construir, questionar e evoluir coletivamente a narrativa organizacional torna-se estratégico.
Para finalizar, os autores voltam ao caso da Uber. A resposta oficial focou na culpa individual: a motorista foi processada e o programa de veículos autônomos foi interrompido. No entanto, fatores sistêmicos, como decisões de design, cultura de segurança e lacunas regulatórias, receberam menos atenção.
Segundo os especialistas, uma abordagem de responsabilidade narrativa teria promovido uma análise coletiva mais profunda, envolvendo todos os atores e fatores relevantes. Embora isso não revertesse o dano, poderia gerar aprendizados mais significativos, uma responsabilização mais efetiva e mudanças estruturais mais amplas.
Por: Thâmara Kaoru


