Com uso de uma técnica chamada “privacidade diferencial”, empresa analisa dispositivos de usuários sem acessar conteúdo pessoal
Após críticas ao desempenho fraco de seus recursos de inteligência artificial — como resumos de notificações —, a Apple detalhou uma nova estratégia para aprimorar seus modelos de IA sem comprometer a privacidade dos usuários.
A empresa está usando dados sintéticos combinados com uma técnica chamada privacidade diferencial.
Segundo a Apple, os dados sintéticos são criados para simular as características dos dados reais dos usuários (como e-mails e mensagens), mas sem conter nenhum conteúdo pessoal.
A partir desses dados gerados, são feitas comparações com informações reais em dispositivos de usuários que autorizaram o compartilhamento de análises com a empresa.
Como funciona a técnica
- O processo envolve enviar “embeddings” (representações matemáticas das mensagens sintéticas) para um número limitado de dispositivos.
- Esses dispositivos, por sua vez, comparam os dados com seus próprios e-mails e informam à Apple quais embeddings são mais precisos, ajudando a refinar os modelos de IA.
- A técnica já está sendo usada para melhorar funcionalidades como o Genmoji e, futuramente, será aplicada em outras ferramentas como o Image Playground, Image Wand, escrita de Memórias e Visual Intelligence.
- Também haverá esforços para aprimorar os resumos de e-mail por meio dessa abordagem, sempre respeitando a privacidade dos usuários que optarem por participar.
Siri gerando mais problemas para a Apple
Enquanto trabalha nesta solução, a Apple precisa lidar com outros contratempos envolvendo inteligência artificial. Recentemente, ações judiciais foram apresentadas contra a empresa no Canadá e nos Estados Unidos
As ações acusam a Apple de enganar consumidores ao divulgar atualizações da Siri que ainda não estão disponíveis. Leia mais aqui.
