Governo

Lei da Inteligência Artificial inviabiliza punição aos danos provocados pelos algoritmos

Uma carta aberta de 25 pesos-pesados do Direito aplicado à tecnologia alerta o Senado Federal para a necessidade de mudança no projeto de lei que estabelece um marco legal para a inteligência artificial no Brasil. O documento, associado a um abaixo assinado, foca no problema com o regime de responsabilidade subjetiva previsto no texto do PL 21/20, já aprovado na Câmara. 

“A referida norma contraria entendimento que vem sendo construído pela doutrina jurídica, estudos e propostas nacionais e internacionais a respeito da matéria, colocando em sério risco a possibilidade das vítimas de danos causados por Inteligências Artificiais obterem a devida reparação integral e, por consequência, comprometendo a garantia dos direitos fundamentais previstos pelos incisos V e X do artigo 5º da Constituição da República”, destaca a abaixo assinado, que vai de Ana Frazão a Rafael Zanatta. 

Como está, o texto prevê, ao orientar sobre as regulamentações pelo Poder Público, que “normas sobre responsabilidade dos agentes que atuam na cadeia de desenvolvimento e operação de sistemas de inteligência artificial devem, salvo disposição legal em contrário, se pautar na responsabilidade subjetiva, levar em consideração a efetiva participação desses agentes, os danos específicos que se deseja evitar ou remediar, e como esses agentes podem demonstrar adequação às normas aplicáveis por meio de esforços razoáveis compatíveis com padrões internacionais e melhores práticas de mercado”. 

Como explica o advogado e professor Danilo Doneda, um dos 25 subscritores da carta ao Senado, ao optar pela responsabilidade subjetiva o Brasil dificulta as ações que quem se sentir prejudicado por decisões tomadas com base em algoritmos, por exemplo. 

“Estamos falando de uma tecnologia importante, mas que é muito complexa. Nem quem vê isso todos os dias entende totalmente como funciona. Imagine para um cidadão que foi prejudicado pelo algoritmo que excluiu ele de alguma coisa. Na responsabilidade subjetiva, para pedir indenização, tem que comprovar que houve culpa, que causou um dano que cabe reparação”, explica Doneda. 


“Se usa a responsabilidade objetiva em várias situações nas quais o cidadão tem dificuldade de fazer prova, como nas relações de consumo. É difícil entender como funciona um sistema de inteligência artificial, muito mais dizer que ele foi mal projetado ou discriminatório. Como alguém vai conseguir comprovar isso? É colocar o ônus de uma demonstração impossível para quase todos.”

Botão Voltar ao topo