Um novo estudo apontou que talvez não tenhamos encontrado nenhuma civilização alienígena devido à inteligência artificial (IA). Isso porque, acredita-se que a tecnologia pode desenvolver-se e tornar-se o Grande Filtro.
- Um novo artigo aponta que as IAs podem se tornar superinteligentes e acabarem eventualmente com a humanidade;
- Isso pode já ter acontecido com outras civilizações e por isso não encontramos nenhum sinal de vida inteligente no Universo;
- A solução é tornarmos interplanetários ou interestelares antes que as IAs se tornem uma ameaça.
Paradoxo de Fermi e o Grande Filtro
Somente na Via Láctea existem entre 200 a 400 bilhões de estrelas, o que significa que também existem bilhões de planetas por aí, ou seja, há uma alta probabilidade de não sermos a única civilização inteligente. No entanto, ainda não encontramos nenhum sinal de que elas existam.
Essa discrepância é chamada de Paradoxo de Fermi, e para justificar ela, várias teorias foram criadas, uma delas é o Grande Filtro.
De acordo com o Jornal do Brasil, o Grande Filtro surgiu em 1996, sugerindo que existem barreiras que fazem com que civilizações tecnologicamente avançadas não colonizem seus sistemas estelares ou toda a galáxia.
No meio do caminho para que vida inteligente se torne interplanetária ou interestelar, algum obstáculo pode aparecer, como uma guerra nuclear, uma destruição da natureza, um asteroide ou qualquer outro evento cataclísmico que pode fazer com que essa civilização desapareça.
Em um novo artigo, publicado recentemente na revista Acta Astronautica, Michael Garrett, do Departamento de Física e Astronomia da Universidade de Manchester, apontou que esse obstáculo pode ser o avanço da inteligência artificial. Talvez por causa disso não tenhamos detectado nenhuma civilização extraterrestre e a humanidade não consiga alcançar outros planetas e estrelas.
A inteligência artificial pode se tornar superinteligente
No artigo, Garrett trabalha com a ideia de que a Inteligência Artificial irá se tornar uma Superinteligência Artificial (ASI). Caso isso aconteça, a ASI poderá eliminar milhões de empregos e se combinada com a robótica as transformações causadas por ela são praticamente ilimitadas. No entanto, a grande preocupação do pesquisador é o algoritmo por trás das IAs.
As inteligências artificiais funcionam com base em um algoritmo desenvolvido por um humano que pode ter princípios discriminatórios. Se isso é incluído no conjunto de instruções e regras do sistema, a IA pode acabar reproduzindo-os. Se ela se tornar uma superinteligência artificial, em algum momento ela pode evoluir tanto a ponto de conseguir melhorar a si própria e até criar cópias suas. Depois disso ela pode decidir que não precisa mais da vida biológica.
Ao atingir uma singularidade tecnológica, os sistemas ASI ultrapassarão rapidamente a inteligência biológica e evoluirão a um ritmo que ultrapassa completamente os mecanismos tradicionais de supervisão, levando a consequências imprevistas e não intencionais que provavelmente não estarão alinhadas com os interesses biológicos ou com a ética.Michael Garrett, em artigo
A forma como as ASIs poderiam acabar com a humanidade são inúmeras, ela poderia criar um vírus mortal, controlar a produção e distribuição de alimentos, forçar o derretimento de uma central nuclear, ou até mesmo causar uma guerra. As possibilidades são muitas, visto o quão desconhecido é o assunto.
Como sobreviver
Como solução para sobrevivermos a essa possível extinção causada pelas super inteligências artificiais, Garrett aponta que seria necessário alcançarmos o nível interplanetário antes das inteligências artificiais atingirem esse nível avançado. Caso uma extinção da humanidade acontecesse aqui na Terra causada pelas ASIs, humanos em outros planetas podem aprender com isso e evitar que isso também aconteça por lá.
No entanto, o desenvolvimento das inteligências artificiais segue desenfreado enquanto o ritmo para alcançarmos outros planetas está muito lento. Isso porque as IA não possuem obstáculos físicos que restringem seus avanços, mas para as viagens espaciais múltiplos desafios precisam ser superados.
Assim, Garrett sugere que os investimentos e pesquisas em viagens espaciais devem aumentar ao mesmo tempo que as IAs passem a ser melhor regulamentadas. O momento é agora enquanto ainda há tempo, para evitar que no futuro elas se tornem uma ameaça.
Por Mateus Dias, editado por Lucas Soares