Alguns argumentam que a IA poderia se desenvolver e acabar com o ser humano, outros estão mais preocupados com seus impactos no dia a dia.
Desde a ascensão da IA, capitaneadas principalmente pela popularidade do ChatGPT, questionamentos se a tecnologia poderia ou não substituir humanos, ou se representaria um risco para a humanidade, surgiram junto. Ao passo que alguns argumentam que a inteligência artificial poderia se desenvolver e acabar com o ser humano, outros estão mais preocupados com seus impactos no dia a dia. No entanto, especialistas e executivos de empresas desenvolvedoras estão longe de entrar em um consenso sobre as consequências da IA.
IA e risco para humanidade
- Alguns executivos notáveis já se manifestaram sobre suas crenças acerca dos riscos da IA. Sam Altman, CEO da OpenAI, empresa desenvolvedora do ChatGPT, falou em sua turnê mundial que a tecnologia pode causar danos graves à humanidade – ou pior.
- Isso incluiria a capacidade de pensar como humanos, superar o que já podemos fazer e até nos controlar.
- Dario Amodei, CEO da desenvolvedora Anthropic, alertou sobre o mesmo perigo ao testemunhar no Senado estadunidense em julho.
- Elon Musk foi outro: o bilionário dono da Tesla, SpaceX e do X (antigo Twitter) assinou uma carta em que especialistas e executivos do setor pediam uma pausa no desenvolvimento da tecnologia.
- Também em maio, Musk disse em um evento do jornal The Wall Street Journal que a IA “tem uma probabilidade diferente de zero de aniquilar a humanidade”.
- No entanto, menos de dois meses depois, em julho, o executivo lançou sua própria empresa de IA, a xAI.
IA e riscos do dia a dia
Um grupo de cientistas contrários à ideia de que a IA arriscaria a humanidade critica quem pensa dessa forma, afirmando que esses executivos estariam criando “distrações” com hipóteses alimentadas pela ficção científica.
Para eles, as empresas e reguladores de IA deveriam focar menos no risco existencial e mais no que a tecnologia já é capaz de fazer, podendo impactar o dia a dia das pessoas. Isso inclui a capacidade de produzir desinformação, disseminar preconceitos, explorar trabalhadores e aprofundar a desigualdade.
De acordo com Daniel Schoenberger, ex-advogado do Google que trabalhou na lista de princípios de IA em 2018 e agora está na Web3 Foundation, a preocupação é quanto ao domínio da tecnologia, “de a big tech se tornar uma big AI”. Assim, esse grupo pede a regulação do que a IA pode ou não fazer. A fala veio em entrevista ao The Wall Street Journal.
Meio termo
Ainda, outros especialistas defendem que é a polarização entre as duas preocupações que causa distração. Segundo Max Tegmark, presidente do Future of Life Institute, ONG que fomenta debates sobre riscos ao planeta e à humanidade, as empresas têm interesse em alimentar essa divisão para evitar a regulamentação.
Isso porque, uma vez que as pessoas estão preocupadas com o risco de a IA se desenvolver para dominar humanos, não se preocupam com o que ela já vem causando no dia a dia. E vice e versa.
Fonte: Olhar Digital