GovernoInovação

Novo PL da inteligência artificial mantém ANPD no comando

Texto se afasta da "abordagem europeia”, foca no ex post e libera desenvolvimento

O projeto de lei 2338/23, que trata do uso da inteligência artificial no Brasil, ganhou um novo texto nesta quinta, 28/11. O senador Eduardo Gomes (PL-TO), diz que o relatório se afasta do modelo adotado na Europa, ficou “ainda mais pró-inovação” e com “uma lógica de regulação mais ex-post e muito menos ex-ante”.

Nesta quinta, o texto foi formalmente apresentado à Comissão Temporária Interna sobre Inteligência Artificial no Brasil do Senado Federal. Tratado como complementação de voto, não tem mais prazo de vista. Mas serão aceitas emendas até 2/12. A ideia é votar na CTIA em 3/12. “Nossa conclusão foi que precisamos fazer de forma equilibrada e sem engessar a inovação. E chegamos ao equilíbrio mais adequado à nossa realidade”, afirmou Gomes.

O primeiro destaque do relator é no que entende como alargamento das hipóteses de exceção ao escopo de aplicação da lei, de modo a não incidir sobre qualquer tipo de uso por pessoa natural sem fins econômicos, incluindo o uso de sistemas de propósito geral e generativa, sobre atividades de testagem e desenvolvimento de forma ampla e geral, “de modo a reforçar que o objeto primariamente regulado é o uso e aplicação dos sistemas de IA”. 

O relator diz que o texto “distancia-se da abordagem europeia precaucionária que tem sido criticada pelo seu impacto regulatório desproporcional e estático”.  

Segundo Gomes, o novo relatório tem “uma lógica de regulação mais ex-post e muito menos ex-ante, na medida em que a classificação de alto risco deverá ser regulamentado a nível infralegal de forma dinâmica e adaptável e com deveres robustos de accountability por parte dos órgãos reguladores de forma a reduzir a discricionariedade e aumentar a segurança jurídica para investimentos e o desenvolvimento tecnológico”.


As mudanças não atingiram o cerne da governança que já vinha sendo proposta pelo relator, com a criação de um Sistema de Governança e Regulação sobre Inteligência Artificial, ou SIA, que tem expressamente a Autoridade Nacional de Proteção de Dados como coordenadora das agências reguladoras setoriais que cuidarão da IA no caso a caso.

Com o foco em regras para sistemas de IA que chegam ao mercado, o projeto de lei considera boa prática – e não mais uma obrigação – que o agente desenvolvedor faça uma avaliação de risco.

Há vedações para sistemas considerados de risco excessivo, entendidos como aqueles que instigam danos à saúde ou envolvem perfilamento criminal, ranqueamento social pelo poder público, armas autônomas, exploração sexual de crianças e identificação biométrica à distância.

Além disso, o PL aponta 13 aplicações consideradas de alto risco, sujeitas a regras específicas, especialmente análise de impacto algorítmico.

São elas segurança de infraestruturas críticas, seleção e progressão acadêmica, recrutamento, elegibilidade de serviços, priorização de acesso, administração da Justiça, veículos autônomos, diagnósticos médicos, big data criminal, biometria emocional, imigração e curadoria de conteúdos online.

Como diz o PL, “a avaliação de impacto algorítmico de sistemas de IA é obrigação do desenvolvedor ou aplicador que introduzir ou colocar sistema de IA em circulação no mercado sempre que o sistema ou o seu uso for de alto risco, considerando o papel e participação do agente na cadeia”.

Botão Voltar ao topo