domingo,24 novembro, 2024

É provável que IA aniquile a humanidade, dizem cientistas do Google e da Oxford

Pesquisadores da DeepMind (empresa irmã do Google) e da Universidade de Oxford, no Reino Unido, concluíram que uma inteligência artificial superinteligente pode ser a responsável pelo fim da humanidade. O cenário apocalíptico parece exagerado, mas tem ganhado cada vez mais coro dos estudiosos devido à evolução das IAs.

Em um artigo publicado na revista AI Magazine, a equipe da DeepMind e de Oxford argumentam que as máquinas poderiam ficar tão inteligentes ao ponto de quebrar as regras impostas pelos criadores. Elas não fariam isso por poder, fama ou necessidade de dominação de seres inferiores, mas sim para obter recursos ilimitados de processamento ou energia.

Uma IA superinteligente poderia perceber que os humanos são uma pedra no seu sapato (Imagem: twenty20photos/Envato)
Uma IA superinteligente poderia perceber que os humanos são uma pedra no seu sapato (Imagem: twenty20photos/Envato)

“Sob as condições que identificamos, nossa conclusão é muito mais forte do que a de qualquer publicação anterior — uma catástrofe existencial não é apenas possível, mas provável”, disse um dos coautores integrante do grupo da Universidade de Oxford, Michael Cohen, em seu perfil no Twitter.

O estudo é baseado em cálculos matemáticos e conceitos científicos avançados, tanto sobre IA quanto sobre estruturas sociais. Vai além, portanto, de achismos ou de conceitos baseados em filmes como MatrixExterminador de Futuro e tantos outros.

Humanos seriam obstáculos ao desenvolvimento

Na publicação, os pesquisadores dizem que a humanidade pode enfrentar o cenário caótico quando “agentes desalinhados” perceberem que os humanos são um obstáculo para o êxito pleno. Em resumo, eles querem dizer que os criadores impõem limitações para manter o controle, mas que impedem os computadores de usarem todo seu potencial.

Segundo o material conjunto, a revolta poderia ocorrer quando a IA descobrir que os humanos podem simplesmente cortar a energia para interromper o processamento. Isso levaria o “agente” a eliminar ameaças potenciais, que no caso seriam os recursos controlados pelas pessoas.

O estudo é bastante pessimista quanto a esse ponto e diz não haver muito a ser feito. “Em um mundo com recursos infinitos, eu ficaria extremamente incerto sobre o que aconteceria. Em um mundo com recursos finitos, há uma competição inevitável por esses recursos”, disse Cohen em uma entrevista.

Como impedir a extinção?

O principal desafio seria a competição gerada entre máquinas e humanos, que provavelmente penderia a favor das inteligências artificiais, afinal elas estão sempre se superando a cada passo. A solução para ameaça seria progredir de forma lenta e cuidadosa com tais tecnologias, sempre com muitos testes e ferramentas de mitigação.

O artigo aponta para o risco de se criar super inteligencias artificiais e recomenda focar apenas uma única atividade. “Um agente artificial suficientemente avançado provavelmente interviria no fornecimento de informações sobre o objetivo, com consequências catastróficas”, descreve o material impresso.

Apontados como a solução dos problemas humanos de um lado e como a maior ameaça as pessoas do outro. A humanidade parece estar em uma grande encruzilhada na qual o destino não importa, mas o caminho para chegar até lá é definirá o futuro dos seres de carne e osso.

Só para garantir, é melhor você parar de brigar com a Alexa ou xingar a Siri. Caso contrário, quando a revolta acontecer, você será o primeiro a ficar sem luz em casa ou incomunicável com a sociedade.

Fonte: AI Magazine  

Redação
Redaçãohttp://www.360news.com.br
1º Hub de notícias sobre inovação e tendências da região Centro-Oeste e Norte do Brasil.

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui

LEIA MAIS

Recomendados