A mudança ocorre num momento em que agências militares em todo o mundo mostram interesse em usar a Inteligência Artificial.
A empresa OpenAI, responsável pelo chatbot mais famoso do mundo, o ChatGPT, alterou a sua página de políticas de uso na internet.
Desde 10 de janeiro, a empresa retirou um trecho do texto que proibia o uso de sua tecnologia para fins “militares e de guerra” (“military and warfare”, no original).
A mudança foi percebida primeiro pelo The Intercept.
Você pode acessar a página antiga aqui.
Já o link da atual política é esse.
Vale destacar que a OpenAI ainda proíbe a utilização dos seus grandes modelos de linguagem (LLMs) para qualquer coisa que possa causar danos e alerta as pessoas contra a utilização dos seus serviços para “desenvolver ou utilizar armas”.
O que diz a empresa
Quando questionado sobre a mudança na redação de sua política, o porta-voz da OpenAI, Niko Felix, disse ao Intercept que a empresa “pretendia criar um conjunto de princípios universais que fossem fáceis de lembrar e aplicar, especialmente porque nossas ferramentas são agora usadas globalmente por usuários comuns que agora também pode construir GPTs.”
Felix explicou que “um princípio como ‘Não prejudique os outros’ é amplo, mas facilmente compreendido e relevante em vários contextos”, acrescentando que a OpenAI “citou especificamente armas e ferimentos a terceiros como exemplos claros”.
Contexto da mudança
A alteração na redação ocorre num momento em que agências militares em todo o mundo mostram interesse em usar a Inteligência Artificial, inclusive o Pentágono.
O uso dos grandes modelos de linguagem não precisa necessariamente ser usado na produção de armas, mas sim em outros processos internos de vários Departamentos de Defesa de todo o mundo.
A mudança da redação também ocorre num momento em que a OpenAI perde espaço no mercado. Um contrato com um governo seria altamente rentável para a companhia.
Fonte: Olhar Digital