sexta-feira,22 novembro, 2024

O ChatGPT e a voz de Scarlett Johansson

Não é novidade que a inteligência artificial tem possibilitado a reconstituição digital de imagens, vozes e outros atributos das pessoas, a ponto de chegarmos ao nível das deep fake, em que fica difícil – quando não impossível – discernir o que é real do que não é. Entretanto, além da adulteração do fluxo informacional e das preocupantes consequências daí decorrentes, tal possibilidade também enseja diversas preocupações quanto à proteção da identidade e dos direitos da personalidade dos envolvidos.

No podcast Direito Digital, já tive oportunidade de discutir, juntamente com a professora Caitlin Mulholland, sobre as repercussões jurídicas da utilização de imagens, vozes e características de pessoas mortas, o que já deu ensejo a dois episódios: (i) Direito de imagem póstumo no meio digital, em que analisamos inclusive a famosa propaganda que reconstituiu a imagem da cantora Elis Regina[1] e (ii) Transferência da mente humana para o mundo digital, em que exploramos o prolongamento artificial da vida humana, mesmo após a morte, por meio de sistemas de inteligência artificial[2].

Todavia, problema cada vez mais recorrente diz respeito a pessoas vivas que têm seus dados pessoais e atributos da personalidade utilizados por sistemas de inteligência artificial para os mais diferentes fins, que vão desde o treinamento de máquina até mesmo a utilização direta do atributo da personalidade, conduta que tem sido chamada de roubo de identidade (identity theft).

Caso recente que ganhou enorme repercussão foi o que envolveu a atriz Scarlett Johansson, que ficou perplexa ao descobrir que o ChatGPT estava usando voz muito similar à sua diante de uma situação no mínimo peculiar: embora a atriz tenha recebido e recusado, no ano passado, oferta de Sam Altman para emprestar sua voz para o ChatGPT, descobriu, nove meses depois, que a voz Sky, adotada pelo sistema, era muito próxima à sua[3].

O episódio fez com que a atriz contratasse advogados para defender seus direitos perante a OpenAI. Esta, por sua vez, anunciou que não mais usaria a voz Sky, embora não tenha declinado as exatas razões para tal postura, já que a companhia insiste no fato de que não teria usado a voz da atriz, sob o argumento de que teria gerado a voz a partir de atores profissionais que foram contratados para tal fim[4].

É interessante notar que um dos pontos da interpelação dos advogados de Scarlett Johansson, diante da negativa da OpenAI de que a voz seria da atriz, seria que a empresa revelasse, em detalhes, como a voz teria sido criada, a fim de assegurar a devida transparência. Entretanto, com a suspensão da utilização da voz Sky, a questão parece ter sido superada, pelo menos por enquanto.

Vale ressaltar também que a OpenAI, em suas manifestações públicas a respeito do assunto, não somente negou a utilização da voz da atriz, como reiterou que, no seu entendimento, a inteligência artificial não pode deliberadamente mimetizar a voz distintiva de uma celebridade[5]. É interessante notar que nada foi mencionado sobre a possibilidade de mimetizar a voz distintiva de uma pessoa anônima, circunstância que também poderá criar embaraços no âmbito do convívio familiar e social.

O episódio mostra, assim, as controvérsias existentes sobre a reprodução ou mimetização de aspectos da personalidade de pessoas naturais, seja quando tais processos são intencionais, seja quando não são. Afinal, para chegar a uma voz idêntica à de Scarlett Johansson, o sistema de inteligência artificial tanto poderia ter sido treinado com a voz da atriz, como poderia chegar a tais resultados a partir de outras fontes e técnicas.

Entretanto, do ponto de vista da identidade pessoal, os transtornos para a pessoa cuja voz é agora mimetizada por uma máquina independem da indevida utilização dos seus dados ou da intencionalidade do processo. Em qualquer caso, os transtornos decorrentes das previsíveis confusões sobre a sua personalidade estarão presentes.

Aliás, a própria Scarlett Johansson compreendeu muito bem a extensão do problema, ao assim se posicionar sobre o caso:

“In a time when we are all grappling with deepfakes and the protection of our own likeness, our own work, our own identities, I believe these are questions that deserve absolute clarity,” Johansson said in her statement. “I look forward to resolution in the form of transparency and the passage of appropriate legislation to help ensure that individual rights are protected”.[6]

Com efeito, como muito bem colocou a atriz, a questão não diz respeito apenas às possibilidades da tecnologia, mas à compatibilidade desta com direitos da personalidade mais elementares. A rigor, o problema existe mesmo quando estamos diante de pessoas mortas.

No caso das pessoas mortas, é interessante mencionar o projeto The Next Rembrant, que começa com a seguinte provocação: “Can technology and data bring back to life one of history’s greatest painters?”[7] E o projeto avança: “The Dutch painter Rembrandt, known as the master of light and shadow, is one of the greatest painters of all time. What if we could bring him back, 347 years after his death, for one last portrait – but this time, data is the painter and technology the brush?”

A grande questão é se esse tipo de continuidade da personalidade de alguém, famoso ou não, pode ser feito de forma indiscriminada e sem a autorização do morto ou eventualmente de seus herdeiros, embora eu parta da premissa de que se trata de direito personalíssimo e, portanto, insuscetível de sucessão.

Quais são, portanto, os limites para utilizar vozes, imagens, atributos ou características das pessoas, como o jeito de pintar ou o estilo da pincelada? Em que medida tais iniciativas são ou não compatíveis com a proteção dos direitos da personalidade dos envolvidos, ainda mais quando florescem sem a sua autorização?

O que temos visto é que especialmente sistemas de inteligência artificial generativa precisam ser treinados com grandes quantidades de dados, o que gera problemas de diversas espécies, incluindo de direitos autorais. Essa foi a razão de o jornal americano The New York Times ter processado a ChatGPT (OpenAI) sob a alegação de utilização indevida de conteúdos protegidos por direitos autorais[8].

Entretanto, se é complicado copiar conteúdos indevidamente, o que gera problemas de identificação de autoria e de pagamento dos direitos remuneratórios específicos, mais complicado ainda é copiar os próprios atributos da personalidade, o que pode gerar diversos problemas de identidade para a pessoa que foi objeto dessa estratégia, atingindo indevidamente esferas existenciais que, uma vez violadas, geram danos irreversíveis.

É precisamente este o caso da atriz Scarlett Johansson e de inúmeras pessoas que tiveram atributos da sua personalidade indevidamente reproduzidos por sistemas de inteligência artificial. Situações de modelos que têm suas faces e imagens reproduzidas, sem sua autorização, por sistemas de inteligência artificial, inclusive com fins publicitários, tornam-se cada vez mais comuns[9].

Trata-se de algo muito mais grave e perigoso do que simplesmente perder o controle sobre nossos dados pessoais, o que já seria extremamente grave, uma vez que compromete o princípio da autodeterminação informativa, que é um dos pilares da nossa LGPD e também do GDPR europeu. Trata-se, na verdade, de algo que, sob vários aspectos, pode ser considerado um verdadeiro roubo de identidade, tal como foi abordado na interessante e recente reportagem do jornal The Washington Post cujo subtítulo é Artificial intelligence is spurring a new type of identity theft — with ordinary people finding their faces and words twisted to push often offensive products and ideas[10].

A pergunta que se coloca é se a regulação existente será efetivamente capaz de conter esse tipo de utilização da tecnologia. Não é sem razão que senadores norte-americanos propuseram o chamado “No Fakes Act”, por meio do qual pretendem proibir o furto de atributos pessoais e do trabalho dos artistas[11].

Entretanto, é importante destacar que se trata de problema que não se restringe apenas a artistas ou a celebridades, mas a todos os cidadãos. Partindo da premissa de que direitos da personalidade são personalíssimos e intransmissíveis, tal como expressamente é previsto em nosso Código Civil, é inequívoco que ninguém pode lucrar usando atributos da personalidade alheios, raciocínio que, a princípio, se estende mesmo para pessoas mortas.

Mesmo que não haja intencionalidade ou mesmo que o resultado final tenha sido obtido a partir de outros dados ou atributos que não a de determinado titular, há boas razões para não se admitir que a inteligência artificial possa chegar a resultados que gerem confusões com as identidades de pessoas naturais existentes.

O caso Scarlett Johansson é particularmente interessante pois, por mais que a OpenAI tenha alegado que não utilizou a voz da atriz, fato é que o resultado final que resultou na voz Sky é praticamente idêntico à voz da atriz, de forma que é capaz de gerar os mesmos danos decorrentes das outras formas de roubo de identidade: ao fim e ao cabo, o titular terá que conviver com manifestações virtuais que se confundem com a sua identidade, com todos os danos daí decorrentes.

Dessa maneira, precisamos estar atentos para utilizações da tecnologia que podem se mostrar diametralmente opostas a direitos da personalidade, ainda mais quando se trata de direitos fundamentais. A evolução da tecnologia e dos negócios não pode se dar ao preço da desconfiguração daquilo que tanto celebridades como cidadãos comuns têm de mais precioso: suas próprias identidades.

Vale ressaltar que, no caso brasileiro, independentemente de eventual regulação futura sobre o tema, a arquitetura protetiva dos direitos da personalidade – desenhada tanto pela Constituição Federal, como também pelo Código Civil e pela LGPD – já assegura aos titulares os mecanismos para prevenir e reprimir esse tipo de prática.

Redação
Redaçãohttp://www.360news.com.br
1º Hub de notícias sobre inovação e tendências da região Centro-Oeste e Norte do Brasil.

LEIA MAIS

Recomendados