ANPD adverte para riscos da IA Generativa com dados pessoais
Alucinações, falta de consentimento, scraping: estudo destaca necessidade de mitigações
A Autoridade Nacional de Proteção de Dados lançou uma nova edição do Radar Tecnológico, desta vez com foco nos desafios e riscos associados à inteligência artificial generativa no contexto da Lei Geral de Proteção de Dados (Lei 13.709/18).
O estudo destaca que, embora essa tecnologia represente avanços significativos, como a criação de conteúdo sintético e melhorias em diversas áreas, ela também traz preocupações críticas para a privacidade e a proteção de dados pessoais.
A IA generativa, que depende de grandes volumes de dados para treinamento, enfrenta desafios relacionados à conformidade com a LGPD, especialmente no que se refere à transparência e à proteção de informações sensíveis.
“A inovação tecnológica no campo da IA Generativa poderá trazer novos riscos ou amplificar alguns já conhecidos”, conclui a Autoridade. “Na IA Generativa, a preocupação com a presença de dados pessoais no modelo treinado passa a percorrer também o refinamento do modelo e a possibilidade de novos desenvolvimentos com modelos treinados que podem envolver o tratamento de dados pessoais.”
Entre os riscos avaliados, a ANPD destaca para a coleta e uso de dados sem consentimento claro, como em técnicas web scraping que extraem informações de fontes públicas, muitas vezes sem o conhecimento ou consentimento dos titulares. Isso pode levar ao uso inadequado de dados pessoais, incluindo informações sensíveis e de crianças.
O estudo também alerta para a geração de conteúdo sintético que pode conter dados pessoais, uma vez que sistemas de IA generativa podem criar conteúdo verossímil que inclui, inadvertidamente, informações de indivíduos reais, potencialmente violando o direito à privacidade e prejudicando reputações.
A ANPD lembra, ainda, das chamadas alucinações, ou seja, respostas imprecisas ou mesmo “fabricadas”, levando a informações falsas que afetam negativamente os titulares dos dados.
Além disso, há dificuldades em eliminar dados pessoais, visto que o ciclo contínuo de uso e refinamento de modelos de IA pode dificultar a esse descarte, criando novos desafios para garantir o cumprimento dos princípios da LGPD.
O estudo exemplifica o uso da IA generativa em instituições públicas, como o ChatTCU, desenvolvido pelo Tribunal de Contas da União, que utiliza IA para otimizar a redação e análises. No setor privado, empresas de saúde e bancos têm explorado soluções similares para automatizar processos e melhorar serviços. Por isso mesmo, a ANPD defende soluções que possam mitigar os riscos.