Governo

Projeto de IA enquadra alto risco, cria rol de direitos e exige lei para segurança

A comissão de juristas criada pelo Senado Federal aprovou nesta quinta, 1/12, o relatório final com o anteprojeto para regular o uso da inteligência artificial no Brasil. A proposta prevê a gradação de risco dos sistemas de IA, lista direitos dos afetados por decisões automatizadas e prevê um novo órgão governamental para supervisionar o uso das soluções. 

“Quanto ao primeiro pilar da proposta, estamos sugerindo um rol de direitos das pessoas que sejam afetadas pelos sistemas de IA e que devem ser observados pelos fornecedores e operadoras desses sistemas, e que são ainda oponíveis diante das autoridades administrativas e judiciais competentes. Tais direitos se aplicam de forma independente da gradação de risco do sistema, bastando que a pessoa seja afetada por esse sistema de IA”, apontou a relatora da comissão, a professora Laura Schertel Mendes. 

Esse rol de direitos é o seguinte: 

– Direito à informação prévia quanto a interações com sistemas de IA, 

– Direito a uma explicação sobre a decisão, recomendação ou previsão tomada por esse sistema, 


– Direito de contestar decisões ou previsões de IA que produzam efeitos jurídicos ou impactem de maneira significativa os interesses do afetado, 

– Direito à determinação e participação humana em decisões, levando-se em conta o contexto e o estado-da-arte de desenvolvimento tecnológico, 

– Direito à não discriminação e correção de vieses discriminatórios diretos, indiretos, ilegais ou abusivos

– Direito à privacidade e proteção de dados pessoais nos termos da legislação pertinente.

O segundo pilar é a gradação de riscos. “Essa é uma marca de todos os modelos ou de todas as regulações hoje em curso. É a ideia de que, sempre que o sistema colocar mais risco ou gerar mais risco para as pessoas e para a sociedade, esse sistema, então, para funcionar, precisa adotar medidas de governança mais rígidas do que aquelas que geram menos riscos”, explicou a relatora. 

A proposta indica que sistemas de “risco excessivo” não podem operar, tem implementação vedada. Os sistemas de alto risco precisam assumir um número de obrigações maior. Laura Schertel destacou que para enquadrar a atividade, basta identificar a seguinte relação: 

– Gestão e funcionamento de infraestruturas críticas, 

– Educação e formação profissional, incluindo sistemas de acesso a instituições de ensino e formação profissional, 

– Recrutamento, triagem, filtragem e avaliação de candidatos, 

– Serviços privados e públicos que sejam considerados essenciais, 

– Avaliação de crédito, 

– Administração da justiça, 

– Veículos autônomos, sempre que haja risco às pessoas, 

– Áreas da saúde destinadas a auxiliar diagnósticos e procedimentos médicos, – – Sistemas biométricos de identificação, 

– Investigação criminal,

– Gestão da migração e controle de fronteiras.

O terceiro pilar são medidas de governança, um conjunto de diligências e processos internos a serem adotados pelos agentes que forneçam ou operem sistemas de IA: documentação, registro automático do sistema, testes de confiabilidade, gestão de dados para prevenir vieses discriminatórios, composição de equipe inclusiva responsável pela concepção e desenvolvimento do sistema, medidas técnicas para viabilizar a explicabilidade dos resultados. 

O projeto prevê a criação de uma autoridade nacional, além de obrigações adicionais no caso de sistemas de IA de alto risco implementados pelo Estado: consultas públicas prévias, protocolos de acesso, uso de dados de fontes seguras, garantia facilitada e efetiva à explicação e revisão humanas, utilização de API que permita utilização por outros sistemas, publicização em veículos de fácil acesso das avaliações preliminares e relatórios de impacto. 

“Ficou claro que uma governança centralizada é essencial para gerar segurança jurídica para aplicação da Lei. Os relatórios de impacto precisam ser enviados para uma autoridade para que possam ser examinados, a atualização da lista de finalidade de alto risco precisa ser realizada por uma autoridade, bem como o monitoramento da realização das obrigações pelos sistemas de alto risco. Por isso, optou-se pela indicação de uma autoridade competente a ser designada pelo Poder Executivo”, disse Laura Schertel. Essa autoridade poderá, também, autorizar regimes de sandboxes regulatórios. 

Finalmente, dois pontos merecem menção. No caso específico da segurança pública, da biometria em tempo real, como reconhecimento facial, há uma disposição expressa de que a utilização exigirá a prévia aprovação de uma lei federal disciplinando o tema. 

Outro ponto é a responsabilização. O anteprojeto prevê um regime que abranja o fornecedor e o operador de sistema de IA, “deixando claro que sempre que um desses agentes causar dano patrimonial, moral, individual ou coletivo, deverá repará-lo integralmente, independentemente do grau de autonomia do sistema”, explicou a relatora. Quando se tratar de sistema de IA de alto risco ou risco excessivo, fornecedor e operador respondem objetivamente pelos danos. Quando não alto risco, culpa será presumida, aplicando-se a inversão do ônus da prova em favor da vítima. 

O relatório aprovado nesta quinta será formalmente apresentado ao presidente do Senado, Rodrigo Pacheco (PSD-MG), na próxima semana, quando será tornado público. A comissão de juristas foi criada por Pacheco no início deste 2022 para apresentar uma minuta aos PLs 5051/19, 872/21 e 21/20, este último já aprovado na Câmara. 

Botão Voltar ao topo