Para Mark Bailey, sistemas de IA têm uma limitação significativa: grande parte de seu funcionamento interno é impenetrável
A inteligência artificial (IA) é algo alienígena – um sistema inteligente sobre o qual as pessoas têm pouco entendimento. Os humanos são em grande parte previsíveis para outros porque compartilham a experiência humana. Mas isso não se estende à IA, mesmo que pessoas a tenham criado.
Para quem tem pressa:
- Para Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), IA é algo alienígena, porque seu funcionamento interno é em grande parte impenetrável;
- Isso a torna fundamentalmente inexplicável e imprevisível para os humanos, segundo o especialista;
- Para ele, a confiança num sistema ou pessoa depende da previsibilidade do comportamento – esse princípio não se aplica à IA;
- O professor também explicou que sistemas de IA podem ter trilhões de parâmetros, o que torna as razões por trás de suas decisões frequentemente “opacas”;
- Ao contrário dos humanos, a IA não ajusta seu comportamento com base em percepções sociais ou normas éticas. Sua tomada de decisão é fundamentada em um modelo estático do mundo determinado pelos dados de treinamento, segundo Bailey.
- Para aumentar a confiança na IA, é importante envolver humanos nas decisões tomadas pelos sistemas. No entanto, o especialista acredita que, a longo prazo, isso pode se tornar insustentável.
Essa é a tese defendida por Mark Bailey, professor de inteligência cibernética e ciência de dados da National Intelligence University (EUA), num artigo publicado no The Conversation. Segundo o especialista, os sistemas de IA têm uma limitação significativa: grande parte de seu funcionamento interno é impenetrável.
Confiança e IA
A confiança se baseia na previsibilidade. Ela depende da sua capacidade de antecipar o comportamento dos outros. Por exemplo, se você confia em alguém e essa pessoa não faz o que você espera, então sua percepção da confiabilidade nela diminui.
Muitos sistemas de IA são construídos em redes neurais de aprendizado profundo, que em alguns aspectos emulam o cérebro humano. Essas redes têm “neurônios” interconectados com variáveis ou “parâmetros” que afetam a força das conexões entre os neurônios.
À medida que uma rede ingênua é apresentada a dados de treinamento, ela “aprende” a classificar os dados ajustando esses parâmetros. Dessa forma, o sistema de IA aprende a classificar dados que não viu antes. Ele não memoriza o que cada dado é, mas sim prevê o que pode ser.
Comportamento e expectativas
A confiança depende não apenas da previsibilidade, mas também de motivações normativas ou éticas. Normalmente, você espera que as pessoas ajam não apenas como você assume que vão agir, mas também como deveriam agir. Os valores humanos são influenciados pela experiência comum e o raciocínio moral é um processo dinâmico, moldado por padrões éticos e pelas percepções dos outros.
Ao contrário dos humanos, a IA não ajusta seu comportamento com base em como é percebida pelos outros ou ao aderir a normas éticas, segundo Bailey. Para o especialista, a representação interna do mundo pela IA é em grande parte estática, determinada pelos dados de treinamento.
Sistemas cruciais
Para o professor, uma maneira de reduzir a incerteza e aumentar a confiança é garantir que as pessoas participem das decisões tomadas pelos sistemas de IA. Este é o enfoque adotado pelo Departamento de Defesa dos Estados Unidos, por exemplo, que exige que em todas as tomadas de decisões de IA, um ser humano deve estar ou “no processo” ou “em cima do processo”.
“No processo” significa que o sistema de IA faz uma recomendação, mas um ser humano é necessário para iniciar uma ação. “Em cima do processo” significa que, enquanto um sistema de IA pode iniciar uma ação por conta própria, um monitor humano pode interrompê-la ou alterá-la.
Para Bailey, é importante resolver os problemas de explicabilidade e alinhamento antes que o ponto crítico seja alcançado – no qual a intervenção humana se torne impossível. “Nesse ponto, não haverá outra opção senão confiar na IA”, escreveu.
Evitar esse limiar é especialmente importante porque a IA está sendo cada vez mais integrada em sistemas críticos – por exemplo: redes elétricas, internet e sistemas militares.
Fonte: Olhar Digital