Governo

Especialistas cobram urgência na regulamentação de IA no Congresso Nacional

Em tempos de disseminação do uso dos algoritmos – em que até call centers fazem atendimento por robôs – precisa começar para valer o debate legislativo de uma legislação sobre o uso da inteligência artificial. Especificamente, o Senado deve transformar formalmente em projeto de lei a proposta elaborada ao longo de 2022 por uma comissão de juristas e especialistas no tema.

O recado foi uma das tônicas do seminário ‘Marco Legal da Inteligência Artificial’ promovido nesta segunda, 20/3, pela FGV. “É um pontapé inicial, uma proposta para ser discutida. Esse projeto ainda não foi apresentado formalmente no Congresso. E esse é um desafio relevante, ser apresentado formalmente para ser debatido de forma democrática”, lembrou a relatora do anteprojeto, Laura Schertel Mendes. 

Maturado ao longo de nove meses e com significativa participação social em discussões, audiências públicas e inclusive um seminário internacional, o anteprojeto não é infalível. Mas, como reforçado no debate na FGV, constitui um esforço efetivo de entendimento das questões colocadas pela disseminação de sistemas de IA – muito diferente da proposta esquálida que foi aprovada na Câmara dos Deputados ainda em 2021, que lista alguns princípios e torce para que as empresas que desenvolvem esses sistemas atuem com responsabilidade. 

“Os debates iniciais sobre IA ficaram focados na dimensão ética do uso dos dados, o que foi apoiado pela indústria, até pela flexibilidade da autorregulação, e de onde surgiram códigos de princípios, boards de empresas para lidar com questões éticas. Vemos três abordagens possíveis, baseadas em princípios, em riscos e em direitos. A abordagem de princípios, inclusive com limites ao poder de regulação do Estado, é o modelo do PL 21/20, aprovado na Câmara dos Deputados. A abordagem por riscos é o que está sendo feito na União Europeia. E o anteprojeto no Brasil pode ser considerado um híbrido de risco com direitos”, apontou a diretora associada do Internetlab, Mariana Valente. 

Entre os especialistas, parece haver consenso de que a abordagem principiológica e minimalista do PL 21/20 não é adequada. “Todo o debate de ética e inteligência artificial foi muito relevante, mas não é suficiente para proteger os direitos fundamentais que estão em jogo. Esse ponto foi muito destacado nas audiências públicas e percebemos que era preciso avançar na classificação de riscos, trazê-la de forma concreta, com procedimentos concretos e com direitos bastante concretos. Os princípios são importantes, mas precisam ser complementados com direitos subjetivos, classificação de riscos e procedimentos específicos ligados a essa classificação de risco”, emendou a relatora do anteprojeto, Laura Mendes. 


Como lembrou a diretora da ANPD e também integrante da comissão para o anteprojeto de IA, Miriam Wimmer, o Brasil tem uma tradição jurídica de lidar com novas tecnologias a partir da ótica do estabelecimento de direitos, caso do Marco Civil da Internet, da LGPD. Se discutiu se o arcabouço existente já resolve, mas conclusão foi que os direitos expostos de maneira muito ampla nessas normas não trazem parâmetros muito claros quando se trata de IA. E há direitos que carecem de parâmetros adicionais quando na IA: como se materializa a transparência com uma tecnologia que não é transparente? Quando haverá revisão humana? Quais as condições de direito a explicação quando se lida com machine learning e outras tecnologias opacas. Um exemplo atual é moderação de conteúdo online – que pode derrubar sem que seja feito juízo ao titular ou aos dados pessoais, mas simplesmente na analise do conteúdo, que pode violar direitos autorais, violar politicas da plataforma, incorrer em discurso de ódio ou disseminação de desinformação.”

Há, portanto, mesmo após 900 páginas de esforço da comissão em um tema cada vez mais presente, espaço para aperfeiçoamentos – e isso exige que o debate seja retomado no Congresso Nacional. O tema de uma governança central, ainda que muito defendido entre os especialistas, tende a ganhar coloração partidária, mas precisa ser discutido. Também o peso do impacto para a coletividade, não apenas para cada indivíduo. E, ainda, uma questão que está no anteprojeto mas que merece mais debate: a proteção total aos segredos comerciais e industriais, que pode inviabilizar até uma explicação efetiva sobre uma decisão automatizada. 

“Uma questão que me aflige bastante, assim como na LGPD, que é a ‘carta super trunfo’ da defesa do segredo comercial e industrial quando a gente fala de explicabilidade – o direito de uma pessoa afetada por um sistema de IA, saber como aquela decisão à afetou diretamente e por meio dessa explicação poder realizar outros direitos, como a contestação da decisão. Mas ele fica limitado, balizado pelo segredo comercial e industrial. Ou seja, a pessoa afetada tem direito de saber como foi afetada, desde que não se exija a abertura de um segredo comercial ou industrial. Esse debate precisa ser feito de forma profunda, porque eventualmente o segredo comercial e industrial vai impedir que de fato o direito a uma explicação seja efetivamente alcançado”, apontou a advogada, professora da PUC-RJ Caitlin Mulholland. 

Botão Voltar ao topo