PL da IA define ANPD como coordenadora, mas poder é das agências reguladoras
O projeto de lei que regulamenta o desenvolvimento e uso da inteligência artificial, PL 2338/23, foi formalmente apresentado nesta terça, 18/6, na forma de um texto novamente modificado pelo relator Eduardo Gomes (PL-TO) desde a versão tornada pública há duas semanas.
Na questão política, o relatório já analisa 55 emendas, mas há outras 40 apresentadas nesta mesma terça. Há pressão para novos adiamentos de uma votação e um acordo esticou a discussão por mais três semanas, quando devem ser realizadas mais cinco audiências públicas.
“Temos um prazo. A comissão se encerra em agosto. O recesso está próximo. E precisamos entregar o relatório. Já por três semanas estamos tentando entregar o relatório e vem toda a sorte de requerimentos para adiar. Temos um acordo para mais audiências públicas. Mas faço o apelo para que possamos caminhar nas próximas três semanas para o direcionamento final para que possa ser votado”, disparou o presidente da comissão temporária de IA do Senado, Carlos Viana (Podemos-MG).
O texto faz novas mudanças e, pela primeira vez, a ANPD aparece expressamente prevista como órgão coordenador do Sistema Nacional de Regulação e Governança de Inteligência Artificial, ou SIA. Essa coordenação visa “harmonização e colaboração com órgãos reguladores de temas transversais”, uma vez que agências reguladoras setoriais fazem integram o SIA, ainda que sem vínculo ou subordinação.
Significa dizer que a ANPD “poderá estabelecer, no que couber e sempre em cooperação institucional formal com as autoridades setoriais do SIA, diretrizes gerais sobre a forma e as condições de exercício de direitos perante cada um dos agentes de sistema de IA”.
A lógica geral da proposta de lei é de que antes de colocar um produto de IA no mercado, o desenvolvedor deve fazer uma avaliação preliminar e definir o grau de risco da aplicação. Há uma relação de tipos de sistemas que são proibidos. E há 13 tipos de sistemas considerados de alto risco, o que implica obrigações adicionais, notadamente uma avaliação de impacto algorítmico.
Entre as IAs proibidas, o PL indica sistemas que usem técnicas subliminares para induzir comportamentos, que explorem vulnerabilidades de pessoas ou grupos, ou usados pelo poder público para ranquear as pessoas.
E entre os 13 sistemas já considerados de alto risco estão os que envolvem segurança de infraestruturas críticas, educação, recrutamento, elegibilidade, Justiça, veículos autônomos, saúde, biometria emocional ou big data criminal.