sábado,23 novembro, 2024

IA realmente vai ameaçar a humanidade? Nem especialistas concordam

Alguns argumentam que a IA poderia se desenvolver e acabar com o ser humano, outros estão mais preocupados com seus impactos no dia a dia.

Desde a ascensão da IA, capitaneadas principalmente pela popularidade do ChatGPT, questionamentos se a tecnologia poderia ou não substituir humanos, ou se representaria um risco para a humanidade, surgiram junto. Ao passo que alguns argumentam que a inteligência artificial poderia se desenvolver e acabar com o ser humano, outros estão mais preocupados com seus impactos no dia a dia. No entanto, especialistas e executivos de empresas desenvolvedoras estão longe de entrar em um consenso sobre as consequências da IA.

IA e risco para humanidade

  • Alguns executivos notáveis já se manifestaram sobre suas crenças acerca dos riscos da IA. Sam Altman, CEO da OpenAI, empresa desenvolvedora do ChatGPT, falou em sua turnê mundial que a tecnologia pode causar danos graves à humanidade – ou pior.
  • Isso incluiria a capacidade de pensar como humanos, superar o que já podemos fazer e até nos controlar.
  • Dario Amodei, CEO da desenvolvedora Anthropic, alertou sobre o mesmo perigo ao testemunhar no Senado estadunidense em julho.
  • Elon Musk foi outro: o bilionário dono da Tesla, SpaceX e do X (antigo Twitter) assinou uma carta em que especialistas e executivos do setor pediam uma pausa no desenvolvimento da tecnologia.
  • Também em maio, Musk disse em um evento do jornal The Wall Street Journal que a IA “tem uma probabilidade diferente de zero de aniquilar a humanidade”.
  • No entanto, menos de dois meses depois, em julho, o executivo lançou sua própria empresa de IA, a xAI.
chatgpt
Nem especialistas e executivos do setor concordam sobre os riscos da IA (Imagem: NikOStudio / Shutterstock.com)

IA e riscos do dia a dia

Um grupo de cientistas contrários à ideia de que a IA arriscaria a humanidade critica quem pensa dessa forma, afirmando que esses executivos estariam criando “distrações” com hipóteses alimentadas pela ficção científica.

Para eles, as empresas e reguladores de IA deveriam focar menos no risco existencial e mais no que a tecnologia já é capaz de fazer, podendo impactar o dia a dia das pessoas. Isso inclui a capacidade de produzir desinformação, disseminar preconceitos, explorar trabalhadores e aprofundar a desigualdade.

De acordo com Daniel Schoenberger, ex-advogado do Google que trabalhou na lista de princípios de IA em 2018 e agora está na Web3 Foundation, a preocupação é quanto ao domínio da tecnologia, “de a big tech se tornar uma big AI”. Assim, esse grupo pede a regulação do que a IA pode ou não fazer. A fala veio em entrevista ao The Wall Street Journal.

ChatGPT
Popularização do ChatGPT causou um boom de IA no mundo (Imagem: Amir Sajjad / Shutterstock)

Meio termo

Ainda, outros especialistas defendem que é a polarização entre as duas preocupações que causa distração. Segundo Max Tegmark, presidente do Future of Life Institute, ONG que fomenta debates sobre riscos ao planeta e à humanidade, as empresas têm interesse em alimentar essa divisão para evitar a regulamentação.

Isso porque, uma vez que as pessoas estão preocupadas com o risco de a IA se desenvolver para dominar humanos, não se preocupam com o que ela já vem causando no dia a dia. E vice e versa.

Fonte: Olhar Digital

Redação
Redaçãohttp://www.360news.com.br
1º Hub de notícias sobre inovação e tendências da região Centro-Oeste e Norte do Brasil.

LEIA MAIS

Recomendados