Governo

PL da IA define ANPD como coordenadora, mas poder é das agências reguladoras

O projeto de lei que regulamenta o desenvolvimento e uso da inteligência artificial, PL 2338/23, foi formalmente apresentado nesta terça, 18/6, na forma de um texto novamente modificado pelo relator Eduardo Gomes (PL-TO) desde a versão tornada pública há duas semanas. 

Na questão política, o relatório já analisa 55 emendas, mas há outras 40 apresentadas nesta mesma terça. Há pressão para novos adiamentos de uma votação e um acordo esticou a discussão por mais três semanas, quando devem ser realizadas mais cinco audiências públicas. 

“Temos um prazo. A comissão se encerra em agosto. O recesso está próximo. E precisamos entregar o relatório. Já por três semanas estamos tentando entregar o relatório e vem toda a sorte de requerimentos para adiar. Temos um acordo para mais audiências públicas. Mas faço o apelo para que possamos caminhar nas próximas três semanas para o direcionamento final para que possa ser votado”, disparou o presidente da comissão temporária de IA do Senado, Carlos Viana (Podemos-MG). 

O texto faz novas mudanças e, pela primeira vez, a ANPD aparece expressamente prevista como órgão coordenador do Sistema Nacional de Regulação e Governança de Inteligência Artificial, ou SIA. Essa coordenação visa “harmonização e colaboração com órgãos reguladores de temas transversais”, uma vez que agências reguladoras setoriais fazem integram o SIA, ainda que sem vínculo ou subordinação. 

Significa dizer que a ANPD “poderá estabelecer, no que couber e sempre em cooperação institucional formal com as autoridades setoriais do SIA, diretrizes gerais sobre a forma e as condições de exercício de direitos perante cada um dos agentes de sistema de IA”. 


A lógica geral da proposta de lei é de que antes de colocar um produto de IA no mercado, o desenvolvedor deve fazer uma avaliação preliminar e definir o grau de risco da  aplicação. Há uma relação de tipos de sistemas que são proibidos. E há 13 tipos de sistemas considerados de alto risco, o que implica obrigações adicionais, notadamente uma avaliação de impacto algorítmico. 

Entre as IAs proibidas, o PL indica sistemas que usem técnicas subliminares para induzir comportamentos, que explorem vulnerabilidades de pessoas ou grupos, ou usados pelo poder público para ranquear as pessoas. 

E entre os 13 sistemas já considerados de alto risco estão os que envolvem segurança de infraestruturas críticas, educação, recrutamento, elegibilidade, Justiça, veículos autônomos, saúde, biometria emocional ou big data criminal.

Botão Voltar ao topo