“Mova-se com cautela e faça red-team nas coisas” infelizmente não é tão cativante quanto “mova-se rápido e quebre as coisas”. Mas três defensores da segurança da IA ​​deixaram claro para os fundadores de startups que ir rápido demais pode levar a problemas éticos no longo prazo.

“Estamos em um ponto de inflexão em que há toneladas de recursos sendo movidos para esse espaço”, disse Sarah Myers West, codiretora executiva do AI Now Institute, no palco do TechCrunch Disrupt 2024. “Estou realmente preocupada que agora haja uma pressa tão grande em lançar um produto no mundo, sem pensar sobre essa questão herdada de qual é o mundo em que realmente queremos viver e de que maneiras a tecnologia que está sendo produzida está agindo a serviço desse mundo ou o prejudicando ativamente.”

A conversa acontece em um momento em que a questão da segurança da IA ​​parece mais urgente do que nunca. Em outubro, a família de uma criança que morreu por suicídio processou a empresa de chatbot Character.AI por seu suposto papel na morte da criança.

“Esta história realmente demonstra os riscos profundos da implementação muito rápida que vimos de tecnologias baseadas em IA”, disse Myers West. “Alguns desses são problemas de longa data, quase intratáveis, de moderação de conteúdo de abuso online.

Mas além dessas questões de vida ou morte, os riscos da IA ​​continuam altos, desde desinformação até violação de direitos autorais.

“Estamos construindo algo que tem muito poder e a capacidade de realmente impactar a vida das pessoas”, disse Jingna Zhang, fundador da plataforma social voltada para artistas Cara . “Quando você fala sobre algo como Character.AI, que realmente envolve alguém emocionalmente, faz sentido que eu ache que deva haver barreiras em torno de como o produto é construído.”

A plataforma Cara de Zhang decolou depois que a Meta deixou claro que poderia usar as postagens públicas de qualquer usuário para treinar sua IA. Para artistas como a própria Zhang, essa política é um tapa na cara. Os artistas precisam postar seu trabalho online para construir seguidores e garantir clientes em potencial, mas, ao fazer isso, seu trabalho pode ser usado para moldar os próprios modelos de IA que um dia podem deixá-los sem trabalho.

“Os direitos autorais são o que nos protege e nos permite ganhar a vida”, disse Zhang. Se uma obra de arte está disponível on-line, isso não significa que ela seja gratuita, por si só — publicações de notícias digitais, por exemplo, precisam licenciar imagens de fotógrafos para usá-las. “Quando a IA generativa começou a se tornar muito mais popular, o que estamos vendo é que ela não funciona com o que estamos acostumados, que foi estabelecido por lei. E se eles quisessem usar nosso trabalho, eles deveriam licenciá-lo.”

Aleksandra Pedraszewska, Segurança de IA, ElevenLabs; Sarah Myers West, Diretora Executiva, AI Now Institute; e Jingna Zhang, Fundadora e CEO, Cara no TechCrunch Disrupt 2024 na quarta-feira, 30 de outubro de 2024.Créditos da imagem: Katelyn Tucker/Slava Blazer Photography

Artistas também podem ser impactados por produtos como a ElevenLabs, uma empresa de clonagem de voz de IA que vale mais de um bilhão de dólares . Como chefe de segurança da ElevenLabs, cabe a Aleksandra Pedraszewska garantir que a tecnologia sofisticada da empresa não seja cooptada para deepfakes não consensuais, entre outras coisas.

“Acho que modelos de red-teaming, entender comportamentos indesejáveis ​​e consequências não intencionais de qualquer novo lançamento que uma empresa de IA generativa faça está se tornando novamente [uma prioridade máxima]”, disse ela. “A ElevenLabs tem 33 milhões de usuários hoje. Esta é uma comunidade enorme que é impactada por qualquer mudança que fazemos em nosso produto.”

Pedraszewska disse que uma maneira de as pessoas em sua função serem mais proativas em manter as plataformas seguras é ter um relacionamento mais próximo com a comunidade de usuários.

“Não podemos simplesmente operar entre dois extremos, um sendo totalmente anti-IA e anti-GenAI, e então outro, efetivamente tentando persuadir regulamentação zero do espaço. Eu acho que precisamos nos encontrar no meio quando se trata de regulamentação”, ela disse.

Amanda Prata