Brasil proíbe Meta de usar postagens do Instagram para treinar IA

Fonte da imagem, Imagens Getty

  • autor, Malo Corcino
  • Papel, BBC Notícias

O Brasil proibiu a Meta de usar postagens de brasileiros no Instagram e no Facebook para treinar seus modelos de IA.

Isso ocorre semanas depois que a empresa abandonou planos semelhantes de usar postagens de usuários no Reino Unido e na Europa para o mesmo propósito.

A Agência Nacional de Proteção de Dados (ANPD) do Brasil disse na terça-feira que suspenderia imediatamente a mais recente política de privacidade do Meta, que permite treinar modelos generativos de IA, como chatbots, com base em postagens de seus usuários.

Um porta-voz da Meta disse à BBC que a empresa estava “decepcionada com a decisão”, acrescentando que sua abordagem está em conformidade com as leis locais de privacidade.

“Este é um retrocesso em termos de inovação e competição no desenvolvimento de IA e um atraso adicional em levar os benefícios da IA ​​às pessoas no Brasil”, acrescentou a empresa.

A Meta possui um grande mercado no Brasil, com 102 milhões de usuários do Facebook e mais de 113 milhões de usuários do Instagram no país.

O Departamento de Polícia de Andhra Pradesh afirmou que agiu devido “ao risco iminente de danos graves e irreparáveis, ou à dificuldade de reparar os direitos fundamentais das pessoas afetadas”. [account] “Mulheres grávidas.”

A política atualizada da empresa também foi objeto de escrutínio no Reino Unido e na UE.

De acordo com as mudanças na política de privacidade, que estavam programadas para entrar em vigor na região em 26 de junho, as informações dos usuários do Meta serão usadas para “desenvolver e melhorar” seus produtos de IA.

Na Europa, a mudança de política incluirá publicações, fotos, títulos de fotos, comentários e histórias partilhadas por utilizadores com mais de 18 anos com o público em geral no Facebook e Instagram, mas não mensagens privadas.

Mas isto foi adiado depois que a Meta disse ter recebido um pedido da Comissão Irlandesa de Proteção de Dados (DPC) em nome de outras partes interessadas europeias para adiar o treinamento de grandes modelos de linguagem (LLMs).

LLMs são um tipo de IA que alimenta chatbots, como ChatGPT da OpenAI e Gemini do Google.

Em 14 de junho, quando anunciou o adiamento, a Meta disse que era um “retrocesso” para a IA na Europa.

No entanto, a Meta decidiu seguir em frente com a mudança de política no Brasil.

Pedro Martinez, da Data Privacy Brasil, elogiou a decisão da ANPD. Ele disse à BBC que havia uma discrepância entre as medidas de proteção de dados que o Meta implementou para seus usuários brasileiros e europeus.

Ele disse que a Meta planeja usar postagens de crianças e adolescentes brasileiros para treinar seus modelos de IA, enquanto na Europa postagens de menores de 18 anos não seriam usadas.

Além disso, disse Martins, na Europa, as medidas que os usuários podem tomar para impedir que o Meta use informações pessoais são mais claras do que no Brasil, onde ele disse que podem ser necessárias até oito etapas para que os usuários bloqueiem o uso de suas postagens por uma empresa.

A BBC pediu à Meta que respondesse à alegação de que planejava usar postagens de crianças e adolescentes brasileiros para treinar seus modelos de IA, e se havia imposto medidas mais rigorosas para usuários no Brasil optarem por não participar de tais programas.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *