InovaçãoInternet

PL da IA: CGI.br quer análise de risco, controle de biometria e regras mais fortes contra abuso sexual

Nova nota técnica do comitê gestor aponta uma série de ajustes no texto do PL 2338/23.

O Comitê Gestor da Internet no Brasil publicou uma nova nota técnica com recomendações de ajustes ao PL 2338/23, defendendo mudanças no texto para reforçar a abordagem baseada em risco, ampliar salvaguardas de direitos fundamentais e corrigir lacunas relacionadas ao uso de sistemas automatizados em áreas sensíveis, como segurança pública e políticas sociais.

Na avaliação do comitê, um dos principais pontos que precisam ser ajustados no projeto diz respeito à obrigatoriedade da análise preliminar de risco por parte dos desenvolvedores e operadores de sistemas de inteligência artificial. O texto atual do artigo 12 prevê que os responsáveis “poderão” realizar essa avaliação, o que, para o CGI.br, enfraquece um dos pilares da proposta regulatória.

Segundo a entidade, a análise prévia de risco é peça-chave para a compreensão e observância de toda a legislação. Por isso, o comitê recomenda que a avaliação preliminar seja estabelecida como dever obrigatório no projeto de lei, com exigências proporcionais ao porte da organização e ao impacto potencial do sistema de IA.

O CGI.br também destaca que a regulação baseada em risco deve considerar simultaneamente as perspectivas do regulador e dos agentes regulados. De um lado, caberia ao regulador priorizar sua atuação de acordo com os riscos decorrentes da ação ou da omissão perante determinados setores e tecnologias, utilizando metodologias próprias de avaliação. De outro, as empresas e organizações que desenvolvem ou utilizam sistemas de IA deveriam adotar mecanismos internos de avaliação e gerenciamento de riscos.

Outro ajuste sugerido pelo comitê é a inclusão, no texto do projeto, da possibilidade de identificar novas categorias de sistemas de alto risco por meio de regulamentação posterior. Para o CGI.br, essa previsão é necessária para garantir que a legislação consiga acompanhar a evolução tecnológica e as novas aplicações da inteligência artificial.


A entidade também propõe a retirada integral do artigo 77 do projeto. O dispositivo estabelece que impactos da inteligência artificial sobre conteúdos online devem ser tratados por legislação específica. Na avaliação do CGI.br, a previsão pode limitar o debate regulatório e deveria ser substituída por uma abordagem que permita que o tema seja tratado em processos regulatórios próprios e mais flexíveis.

No campo da proteção de grupos vulneráveis, o comitê recomenda que o texto amplie a regra que trata de abuso e exploração sexual. Atualmente focada em crianças e adolescentes, a norma deveria incluir também as mulheres, grupo que, segundo a entidade, é amplamente atingido por esse tipo de violência em ambientes digitais.

A nota técnica também levanta preocupações com a forma como o projeto trata tecnologias de vigilância. O CGI.br alerta que o texto permite o uso amplo e irrestrito de sistemas de identificação biométrica à distância e em tempo real, o que pode trazer riscos significativos à privacidade e às liberdades civis se não houver salvaguardas mais claras.

Outro ponto considerado problemático é a possibilidade de uso de sistemas de inteligência artificial para previsão de crimes. Para o comitê, esse tipo de aplicação tende a reproduzir vieses presentes nos dados históricos e pode resultar em práticas discriminatórias.

A entidade também sugere ajustes nas regras sobre sistemas de ranqueamento utilizados para determinar elegibilidade ou prioridade em políticas públicas. Segundo o CGI.br, esses mecanismos precisam ser acompanhados de critérios claros de transparência e revisão, já que podem afetar diretamente o acesso da população a benefícios e serviços estatais.

Botão Voltar ao topo