Desafios na Responsabilidade Civil por danos causados por Inteligência Artificial
Muitos sistemas de IA, especialmente aqueles baseados em aprendizado de máquina, funcionam como "caixas-pretas"
Por Carolina L. M. Rodrigues*
O objetivo deste artigo é pontuar os principais desafios na atribuição de responsabilidade civil por danos causados por Inteligência Artificial (IA) no contexto jurídico brasileiro, explorando questões relacionadas à complexidade técnica dos sistemas de IA, à multiplicidade de agentes envolvidos, às dificuldades na prova de causalidade e às implicações éticas decorrentes.
A complexidade técnica dos sistemas de IA representa um dos principais desafios na atribuição de responsabilidade civil por danos no Brasil.
Muitos sistemas de IA, especialmente aqueles baseados em aprendizado de máquina, funcionam como “caixas-pretas”, tornando difícil entender como as decisões são tomadas. Isso levanta questões críticas sobre a transparência e a previsibilidade dessas tecnologias, complicando a determinação de responsabilidade em casos de danos. Segundo Siqueira Neto (2020), a opacidade desses sistemas impede uma avaliação clara sobre quem, de fato, deve ser responsabilizado em situações de falha ou erro.
Outro desafio significativo é a multiplicidade de agentes envolvidos no ciclo de vida de uma IA, e isso incluindo desenvolvedores, fabricantes, distribuidores e operadores. Essa fragmentação pode diluir a responsabilidade e criar dificuldades na identificação de quem deve ser responsabilizado por danos causados. Para Del Nero (2021), a Responsabilidade Civil tradicional, baseada em uma relação direta entre o dano e o agente, atualmente não é facilmente aplicável em contextos em que múltiplos agentes contribuem para o desenvolvimento e operação de um sistema de IA.
A dificuldade em estabelecer o nexo causal entre a conduta de um agente específico e o dano causado pela IA é outro problema crucial. Em muitos casos, o dano pode resultar de interações complexas e imprevisíveis entre a Inteligência Artificial e o ambiente, tornando difícil determinar a responsabilidade. De acordo com Tessler (2019), a prova de causalidade em casos envolvendo IA requer novas abordagens jurídicas capazes de lidar com as particularidades dessas tecnologias, que operam com alto grau de autonomia.
Além disso, as legislações brasileiras vigentes não estão projetadas para lidar com os desafios trazidos pela IA, o que gera uma necessidade de atualização para que não haja incertezas jurídicas. As normas de Responsabilidade Civil, como o Código Civil de 2002, foram elaboradas em um contexto em que as decisões humanas eram predominantes, não contemplando os riscos e as peculiaridades das tecnologias autônomas. Oliveira (2020) aponta a necessidade iminente de atualizações legislativas que incluam disposições específicas para a Inteligência Artificial, garantindo uma proteção eficaz aos direitos dos cidadãos em casos de danos causados por essas tecnologias.
No âmbito jurídico, atualmente existem dois Projetos de Leis (PLs) que visam ajustar essas lacunas, que são; o PL 2338/2023 e o PL 2775/24.
O Projeto de Lei 2338/2023 tem o propósito de estabelecer os princípios para o desenvolvimento, bem com o uso da tecnologia no território nacional, estabelecendo a coleta e o uso de dados. O PL destaca alguns pontos importantes:
- Visa a criação de uma Agência Nacional de Inteligência Artificial;
- Definição de princípios para o uso e o desenvolvimento da IA;
- Regulamentação de coleta e uso de dados;
- Pesquisas na área.
Ainda em fase de análise e com diversos setores participando do desenvolvimento desse projeto, com usa aprovação a Lei visa garantir que a IA seja utilizada de forma ética, transparente e segura, beneficiando a sociedade como um todo.
“Caso o projeto vire Lei, um conjunto de órgãos deve trabalhar com o intuito de organizar, regular e fiscalizar o mercado da Inteligência Artificial. Eles integrarão o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA). A Autoridade Nacional de Proteção de Dados (ANPD), criada pela Lei nº 13.853, de 2019, será responsável expedir normas sobre o tema, como para a certificação e para a comunicação de graves incidentes.” Fonte: Agência Senado.
Por sua vez, o Projeto de Lei 2775/24 propõe alterar a Lei Geral de Proteção de Dados Pessoais (LGPD) para estabelecer critérios específicos quanto ao uso de dados pessoais no treinamento de sistemas de Inteligência Artificial. A iniciativa busca garantir que o processamento de informações seja feito de forma segura e transparente, prevenindo a utilização indevida de dados sensíveis.
Para isso, o projeto propõe algumas diretrizes rigorosas para assegurar a proteção dos direitos fundamentais dos titulares de dados, exigindo que as empresas e organizações adotem práticas mais restritivas e criteriosas no tratamento e armazenamento de informações pessoais. Visando proteger a privacidade dos indivíduos, o PL também propõe aumentar a confiabilidade dos sistemas de IA promovendo, assim, um desenvolvimento ético e responsável da tecnologia.
Existe também um procedimento de atualização do Código de Processo Civil (CPC) em 2024, onde ainda há discussões sobre o que a Lei trará como inovações, principalmente no que tange a Responsabilidade Civil, contratos e obrigações, proteção de dados e privacidade, bem como direitos e deveres.
As questões éticas envolvidas no uso de IA tornam ainda mais complexas a atribuição de Responsabilidade Civil. A Inteligência Artificial pode perpetuar preconceitos ou até amplificá-los, dependendo dos dados utilizados para seu treinamento, podendo resultar em decisões discriminatórias também. Segundo Souza (2021), a responsabilidade por esses vieses deve ser cuidadosamente considerada, pois envolve não apenas a correção técnica dos sistemas, mas também a responsabilidade ética e social dos desenvolvedores e operadores.
Referências
DEL NERO, Marco Aurélio. Inteligência Artificial e Responsabilidade Civil: Desafios e Perspectivas. São Paulo: Editora Revista dos Tribunais, 2021.
OLIVEIRA, Maria Luísa Pinho Pereira de. “A responsabilidade civil e a inteligência artificial no Brasil: necessidade de atualização legislativa.” Revista Brasileira de Direito Civil, v. 28, n. 1, p. 45-62, 2020.
SIQUEIRA NETO, José Francisco. Direito, Tecnologia e Inteligência Artificial: Desafios para a Responsabilidade Civil. Rio de Janeiro: Editora Lumen Juris, 2020.
SOUZA, Ricardo Campos. Ética e Inteligência Artificial: Implicações Jurídicas e Sociais. Curitiba: Juruá Editora, 2021.TESSLER, Paulo Roberto. “Prova de causalidade e responsabilidade civil em sistemas de IA.” Revista de Direito Civil Contemporâneo, v. 15, p. 78-95, 2019.
*Carolina L. M. Rodrigues é advogada na área Contencioso Cível Consumidor de Martorelli Advogados