A comissão do Senado criada para analisar propostas de regulamentação da inteligência artificial (IA) aprovou nesta quinta-feira (5) o projeto que estabelece regras para o uso da tecnologia no Brasil. O texto, relatado e costurado pelo senador Eduardo Gomes (PL-TO), já está em análise no plenário principal da Casa, mas há a possibilidade de votação final ficar para a próxima semana.
Para se tornar lei, o texto precisará ser aprovado pelo plenário do Senado e, depois, pelo conjunto dos deputados federais. Se não sofrer mudanças durante a passagem pela Câmara, a proposta seguirá para a sanção do presidente Luiz Inácio Lula da Silva (PT). Várias mudanças foram feitas no texto.
Uma delas é que a definição de classificação de risco terá uma regulamentação posterior. A fiscalização caberá ao Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), que terá a coordenação da Autoridade Nacional de Proteção de Dados (ANPD).
A proposta determina que a IA deverá seguir princípios, como a proteção de grupos vulneráveis e da democracia e a integridade da informação disponibilizada pela ferramenta. Também deverão ser adotados mecanismos contra discriminação e ferramentas de supervisão humana.
Pelo projeto, sistemas de inteligência artificial deverão ser identificados com um símbolo. Essa medida servirá para que usuários saibam que estão interagindo com uma ferramenta inumana.
O texto assegura, ainda, direitos autorais aos conteúdos de terceiros utilizados para abastecer bancos de dados de aplicações de inteligência artificial. Pelo projeto, as desenvolvedoras de IA terão de remunerar os autores pelo uso de suas obras.
Autorregulação
O texto prevê ainda a possibilidade de empresas de IA se associarem para criar uma espécie de agência privada para a autorregulação do sistema. A autorregulação poderá estabelecer critérios técnicos dos sistemas para questões como:
Compartilhamento de experiências sobre o uso de inteligência artificial;
Definição contextual de estruturas de governança;
Atuação da autoridade competente e demais agências e autoridades do SIA para emprego de medida cautelar; e
Canal de recebimento de informações relevantes sobre riscos do uso de inteligência artificial por seus associados ou qualquer interessado.
Riscos
As regras para a exploração da inteligência artificial no país serão baseadas no grau de risco do sistema. A avaliação levará em conta potenciais danos da tecnologia aos direitos fundamentais individuais e sociais.
Durante a análise do projeto, o relator acolheu sugestões de mudanças — bem-recebidas pelas big techs — para excluir “exigências excessivas” na classificação dos riscos.
No nível de alto risco, por exemplo, estarão as ferramentas utilizadas em dispositivos de segurança e infraestrutura, e no recrutamento de pessoas. Para os sistemas nessa categoria, deverá haver supervisão humana para “prevenir ou minimizar os riscos para direitos e liberdades das pessoas”.
O Sistema Nacional de Regulação e Governança de Inteligência Artificial deverá ainda criar um banco de dados público com as avaliações de impacto e danos dos sistemas de IA explorados pelo país.
Na manhã desta quinta, Eduardo Gomes fez nova alteração em seu parecer — a sétima desde o início da análise das propostas na comissão, criada em agosto. Segundo o novo texto, regras a respeito da moderação de conteúdos publicados ou produzidos por meio da IA somente poderão ser definidas por meio de “legislação específica”.
De acordo com o texto, os responsáveis pela IA deverão comunicar eventuais incidentes ao SIA. O prazo e os canais de comunicação serão definidos posteriormente, depois de uma eventual sanção da proposta.