Governo

Novo texto para Lei de Inteligência Artificial fortalece agências setoriais

novo texto do relator Eduardo Gomes (PL-TO) ao projeto de lei 2338/23, que trata do desenvolvimento e uso da inteligência artificial, faz mudanças substantivas em relação à proposta apresentada há dois meses. 

Gomes fortaleceu as agências reguladoras setoriais, deixado expresso que o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) é coordenado pela autoridade competente para “garantir a cooperação e a harmonização com as demais autoridades setoriais e órgãos reguladores, sem vínculo de subordinação hierárquica entre eles”. 

O texto foi completamente ajustado para refletir essa nova dinâmica de independência na regulação de IA, seja pela criação de um Conselho de Cooperação Regulatória Permanente ou na previsão que “as autoridades setoriais, no âmbito de suas atribuições e em caráter prevalente aos órgãos do SIA, dispor sobre os aspectos técnicos e específicos de aplicações de IA no mercado regulado”.

No lugar da previsão de que o fornecedor ou operador de sistema de IA que cause dano ser obrigado a reparar integralmente, ou na obrigação de ônus da prova agora ficar sujeita à interpretação judicial, o capítulo sobre responsabilidade civil foi completamente reescrito (veja abaixo). 

O PL também passou a incluir uma lista de sistemas de inteligência artificial que são considerados de alto risco: 


Art. 14. Consideram-se sistemas de inteligência artificial de alto risco aqueles desenvolvidos e utilizados para as seguintes finalidades e nos seguintes contextos: 

I – aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, tais como controle de trânsito e redes de abastecimento de água e de eletricidade, quando houver risco relevante à integridade física das pessoas e à interrupção de serviços essenciais; 

II – educação e formação profissional, para a determinação de acesso a instituições de ensino ou de formação profissional ou para avaliação e monitoramento de estudantes; 

III – recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, repartição de tarefas e controle e avaliação do desempenho e do comportamento das pessoas nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria; 

IV – avaliação de critérios de acesso, elegibilidade, concessão, revisão, redução ou revogação de serviços privados e públicos que sejam considerados essenciais, incluindo sistemas utilizados para avaliar a elegibilidade de pessoas naturais quanto a prestações de serviços públicos de assistência e de seguridade; 

V – avaliação e classificação de chamadas, ou determinação de prioridades para serviços públicos essenciais, tais como de bombeiros e assistência médica; 

VI – administração da justiça, no que toca o uso sistemas que auxiliem autoridades judiciárias em investigação dos fatos e na aplicação da lei, quando houver risco às liberdades individuais e ao Estado democrático de direito, excluindo-se os sistemas que auxiliem atos e atividades administrativas; 

VII – veículos autônomos em espaços públicos, quando seu uso puder gerar risco relevante à integridade física de pessoas; 

VIII – aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos, quando houver risco relevante à integridade física e mental das pessoas; 

IX – estudo analítico de crimes relativos a pessoas naturais, permitindo às autoridades policiais pesquisar grandes conjuntos de dados, disponíveis em diferentes fontes de dados ou em diferentes formatos, no intuito de identificar padrões e perfis comportamentais; 

X – investigação por autoridades administrativas para avaliar a credibilidade dos elementos de prova no decurso da investigação ou repressão de infrações, para prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares; 

XI – sistemas de identificação e autenticação biométrica para o reconhecimento de emoções, excluindo-se os sistemas de autenticação biométrica cujo único objetivo seja a confirmação de uma pessoa singular específica. 

XII – gestão da imigração e controle de fronteiras para avaliar o ingresso de pessoa ou grupo de pessoas em território nacional; e 

XIII – produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados; 

* Da Responsabilidade Civil

“Art. 32. As hipóteses de responsabilização civil decorrentes de danos causados por agentes de inteligência artificial no âmbito das relações de consumo permanecem sujeitas às regras de responsabilidade previstas no Código de Defesa do Consumidor e na legislação pertinente, sem prejuízo da aplicação das demais normas desta Lei. 

Art. 33. As hipóteses de responsabilização civil decorrentes de danos causados por sistemas de inteligência artificial explorados, empregados ou utilizados, direta ou indiretamente, por agentes de inteligência artificial permanecem sujeitas às regras de responsabilidade previstas no Código Civil e na legislação especial, sem prejuízo da aplicação das demais normas desta Lei. 

§ 1o A definição, em concreto, do regime de responsabilidade civil aplicável aos danos causados por sistemas de inteligência artificial deve levar em consideração os seguintes critérios, salvo disposição em sentido contrário: 

I – o nível de autonomia do sistema de inteligência artificial e o seu grau de risco, conforme definido por esta lei; 

II – a natureza dos agentes envolvidos e a consequente existência de regime de responsabilidade civil próprio na legislação; 

III – grau de impacto sobre pessoa ou grupos afetados, em especial à luz da violação a direitos fundamentais. 

§ 2o Para os fins de aplicação do art. 927, parágrafo único, do Código Civil, o juiz deverá avaliar a caracterização do alto risco nos termos definidos por esta Lei e pela regulamentação do SIA. 

Art. 34. O juiz inverterá o ônus da prova, a seu critério, quando a vítima demonstrar sua hipossuficiência para produzir a prova ou quando as características de funcionamento do sistema de inteligência artificial tornem excessivamente oneroso para a vítima provar o nexo de causalidade entre a ação humana e o dano causado pelo sistema. 

Art. 35. Os participantes no ambiente de testagem da regulamentação da inteligência artificial continuam a ser responsáveis, nos termos da legislação aplicável em matéria de responsabilidade, por quaisquer danos infligidos a terceiros em resultado da experimentação que ocorre no ambiente de testagem. 

Botão Voltar ao topo