Na sexta-feira (21), as principais empresas de inteligência artificial, incluindo OpenAI, Alphabet e Meta, assumiram compromissos voluntários com a Casa Branca para implementarem medidas como inserção de marcas d’água em conteúdo gerado por sistemas de inteligência artificial para tornar a tecnologia mais segura, informou o governo norte-americano.
As empresas se comprometeram a testar minuciosamente os sistemas antes de lançá-los e compartilharem informações sobre como reduzir os riscos e investir em segurança digital.
Veja três maneiras de identificar esse conteúdo:
Análise de linguagem: essa tecnologia pode identificar padrões na linguagem que são característicos de conteúdo criado por IA. Por exemplo, o conteúdo criado por IA pode usar uma sintaxe mais simples e ter menos erros gramaticais.
Análise visual: essa tecnologia pode identificar que o conteúdo criado por IA pode usar cores mais brilhantes e ter menos detalhes.
Análise de comportamento: essa tecnologia pode identificar, por exemplo, que os usuários podem ser mais propensos a compartilhar conteúdo criado por IA, ou eles podem ser mais propensos a interagir com conteúdo criado por IA de uma forma específica. Essas tecnologias ainda estão em desenvolvimento, mas têm o potencial de ser usadas para identificar conteúdo criado por IA com precisão. Isso pode ajudar a combater a desinformação e a propaganda, e também pode ajudar a proteger a privacidade dos usuários.
Além dessas tecnologias, Google, Meta, OpenAI e CIA também estão trabalhando em maneiras de rastrear e identificar os criadores de conteúdo criado por IA. Isso pode ajudar a responsabilizar os criadores desse conteúdo por suas ações.
A identificação de conteúdo criado por IA é uma tarefa complexa, mas é uma tarefa importante. À medida que a tecnologia de IA continua a se desenvolver, é importante ter ferramentas para identificar e combater o conteúdo criado por IA que é prejudicial ou enganoso.
Fonte: Forbes