Governo

ANPD suspende uso de dados do Facebook e Instagram para treinar IA

A Autoridade Nacional de Proteção de Dados (ANPD) emitiu nesta terça, 2/7, uma Medida Preventiva determinando a imediata suspensão, no Brasil, da vigência da nova política de privacidade da empresa Meta, que autorizava o uso de dados pessoais publicados em suas plataformas para fins de treinamento de sistemas de inteligência artificial (IA). Foi estabelecida multa diária de R$ 50 mil por descumprimento. 

A medida se refere à atualização na política de privacidade da empresa que entrou em vigor no último dia 26 de junho. A nova política se aplica aos “Produtos da Meta”, que incluem o Facebook, o Messenger e o Instagram, e permite que a empresa utilize informações publicamente disponíveis e conteúdos compartilhados por usuários de suas plataformas para treinamento e aperfeiçoamento de sistemas de IA generativa. Tal tratamento pode impactar número substancial de pessoas, já que, no Brasil, somente o Facebook possui cerca de 102 milhões de usuários ativos.  

A ANPD tomou conhecimento do caso e instaurou processo de fiscalização de ofício – ou seja, sem provocação de terceiros – em função de indícios de violações à Lei Geral de Proteção de Dados (LGPD). Após análise preliminar, diante dos riscos de dano grave e de difícil reparação aos usuários, a Autoridade determinou cautelarmente a suspensão da política de privacidade e da operação de tratamento. 

Nos termos do Voto nº 11/2024/DIR-MW/CD, aprovado pelo Conselho Diretor em Circuito Deliberativo, entendeu-se estarem presentes constatações preliminares suficientes para expedição da Medida Preventiva. São elas: uso de hipótese legal inadequada para o tratamento de dados pessoais; falta de divulgação de informações claras, precisas e facilmente acessíveis sobre a alteração da política de privacidade e sobre o tratamento realizado; limitações excessivas ao exercício dos direitos dos titulares; e tratamento de dados pessoais de crianças e adolescentes sem as devidas salvaguardas. 

A ANPD avaliou que a empresa não forneceu informações adequadas e necessárias para que os titulares tivessem ciência sobre as possíveis consequências do tratamento de seus dados pessoais para o desenvolvimento de modelos de IA generativa. A Autoridade averiguou, ainda, que, embora os usuários pudessem se opor ao tratamento de dados pessoais, havia obstáculos excessivos e não justificados ao acesso às informações e ao exercício desse direito. 


Além disso, a Autarquia considerou inadequada, em análise preliminar, a hipótese legal usada para justificar o tratamento de dados pessoais – o legítimo interesse da empresa. Isso porque tal hipótese não pode ser usada quando houver tratamento de dados pessoais sensíveis (isto é, com maior risco discriminatório). Além disso, é necessária a consideração das legítimas expectativas e a observância dos princípios da finalidade e da necessidade.  

No caso concreto, a ANPD considerou que as informações disponíveis nas plataformas da Meta são, em geral, compartilhadas pelos titulares para relacionamento com amigos, comunidade próxima ou empresas de interesse. Diante disso, em análise preliminar, não haveria necessariamente a expectativa de que todas essas informações – inclusive as compartilhadas muitos anos atrás – fossem utilizadas para treinar sistemas de IA, que sequer estavam implementados quando as informações foram compartilhadas.  

Por fim, verificou-se que dados pessoais de crianças e adolescentes, como fotos, vídeos e postagens, também poderiam ser coletados e utilizados para treinar os sistemas de IA da Meta. Segundo a LGPD, o tratamento de dados de crianças e de adolescentes deve ser sempre realizado em seu melhor interesse, com a adoção de salvaguardas e medidas de mitigação de risco, o que não foi verificado no âmbito da análise preliminar. 

* Com informações da ANPD

Botão Voltar ao topo