Opinião

Marco legal da Inteligência Artificial exige muito debate

O debate sobre regulamentação da Inteligência Artificial (IA) no Brasil voltou com tudo nas últimas semanas. No dia 8 de julho, a Comissão de Ciência e Tecnologia, Comunicação e Informática da Câmara dos Deputados realizou audiência pública para debater o Projeto de Lei nº 21/20, de autoria do deputado Eduardo Bismarck (PDT-CE), que busca definir princípios, direitos e deveres para o uso da IA no Brasil.

Já no dia 16, foi a vez de o Senado se reunir para discutir o Projeto de Lei nº 872/2021, de autoria do senador Veneziano Vital do Rêgo (MDB-PB), que visa a estabelecer princípios como respeito à ética, aos direitos humanos, aos valores democráticos e à diversidade e prevê a proteção da privacidade e de dados pessoais, quando da utilização de sistemas de IA. Existem, hoje, alguns projetos de lei buscando a regulamentação da IA no Brasil, sendo que os dois mencionados acima são os que estão em estágio mais avançado.

Em que pese a boa intenção e a mais do que presente necessidade de se ter uma regulamentação de IA no Brasil, o que se tem é que os projetos existentes e que vêm sendo discutidos não são suficientes para lidar com um tema tão complexo quanto a IA. As propostas em tramitação ainda são muito tímidas.

Elas acabam enunciando muito mais princípios, obrigações e direitos, e deixando de lado pontos importantes e práticos como, por exemplo, a análise dos sistemas de IA pautada em risco, que permitiria distinguir os diferentes tipos de aplicação de IA existentes, evitando, assim, limitar de maneira excessiva usos possivelmente benéficos e com potencial de risco baixo ou mínimo.

A título de exemplo, o Artificial Intelligence Act (proposta de regulamentação da União Europeia) utiliza uma abordagem baseada em risco e estabelece uma série de obrigações legais e técnicas crescentes, isto é, dependendo se o produto ou serviço de IA é classificado como de baixo, médio ou alto risco, enquanto uma série de usos de IA são totalmente proibidos. Segundo a lei europeia, a classificação dos riscos se daria da seguinte forma:


Risco inaceitável: práticas consideradas como uma clara ameaça para os cidadãos da União Europeia (EU) e, por tal razão, deverão ser proibidas;

Alto risco: sistema de IA que podem afetar a segurança humana ou direitos e garantias fundamentais. Esses sistemas classificados como alto risco deverão ser regulados posteriormente com mais detalhes;

Risco limitado: sistemas de IA que, devido à sua interação com humanos, podem criar certo impacto. Para esses sistemas, os requisitos de transparência serão aplicados, isto é, os usuários precisarão ser informados de que estão conversando ou interagindo com uma máquina; e

Risco mínimo: seria uma classificação residual, que abrangeria as demais utilizações de sistemas de IA, para as quais nenhuma obrigação seria imposta legalmente.

A Comissão Europeia destaca que a maioria dos sistemas de IA devem ser incluídos nesta última categoria (risco mínimo). Quando olhamos para os projetos discutidos no Brasil, eles não trazem essa perspectiva de análise dos sistemas de IA baseada em riscos. Quando falamos em IA, precisamos ir além da ética e dos princípios, e aprofundar os debates sobre direitos e obrigações. 

Considerando que o conteúdo de tal regulamentação vai impactar a realidade social e econômica do Brasil pelos próximos anos, esse debate precisa ser objeto de uma construção ampla, participativa e multissetorial, da mesma forma que tivemos quando da elaboração do Marco Civil da Internet e da Lei Geral de Proteção de Dados (LGPD). P

Tenho a convicção que o assunto precisa ser mais discutido no Brasil, para que possamos entender e compreender que tipo de regulação queremos (e que faça sentido) para a IA no Brasil. Temos exemplos positivos no mundo – vide o caso da União Europeia – que poderiam ser utilizados como referencial e adaptados à realidade brasileira.

Igor Baden Powell é Advogado da área de Proteção de Dados, Direito Digital e Propriedade Intelectual de ASBZ Advogados

 

Botão Voltar ao topo