ANPD: IA usa dados pessoais e têm de ser transparente nas decisões
Da sugestão do próximo vídeo à aprovação do empréstimo, os sistemas de inteligência artificial são cada vez mais comuns no dia a dia. Por isso, torna-se fundamental que as pessoas conheçam o porquê das decisões, especialmente quanto maior o risco envolvido.
“É uma questão de transparência e do que é um parâmetro suficientemente claro para explicar uma decisão”, disse a diretora da Autoridade Nacional de Proteção de Dados Miriam Wimmer, que nesta sexta, 30/7, participou do seminário Inteligência Artificial, nas fronteiras de um novo paradigma, promovido pela ABDI, MCTI e Ministério da Economia.
“Estamos em um contexto no qual a inteligência artificial se caracteriza como uma tecnologia cada vez mais pervasiva, presente em aplicações rotineiras, cotidianas, como tradutores simultâneos, aplicativos de rotas, recomendações em streamings e redes sociais, e que tem trazido promessas importantes no campo científico, industrial”, lembrou.
Mas IA também significa uso de informações pessoais. E não por menos, é lembrada na própria Lei Geral de Proteção de Dados (13.709/18). “É preciso ter presente que existe uma relação muito estreita entre IA e dados pessoais – porque a IA é potencializada pelo Big Data, consegue a partir das grandes bases de dados identificar padrões, fazer recomendações, sem necessariamente uma relação de causalidade E a LGPD atribui certas competências à ANPD, inclusive para regulamentar, fazer auditorias para investigar aspectos discriminatórios em decisões automatizadas. A questão chave é estabelecer um sistema jurídico que promova IA confiável”, disse Miriam Wimmer.
A atenção com os recursos de inteligência artificial se deve ainda pela constatação prática de problemas, notadamente pelo viés ou discriminação em decisões automatizadas – como visto em sistemas de reconhecimento facial que são mais assertivos entre homens brancos, mas erram mais entre mulheres negras.
“Há risco de perpetuação de vieses sociais, como os algoritmos que não promovem mulheres, que não recrutam determinados grupos étnicos, raciais ou sociais. Esses problemas, que já são amplamente visualizados nos estudos, devem ser observados pelo principio da não discriminação, que está na LGPD. E nesse sentido a estratégia brasileira de IA foi feliz ao indicar que o nível de intervenção regulatória deve ser proporcional ao nível de risco gerado pelas aplicações.”