Europa aprova primeira Lei sobre inteligência artificial
Os embaixadores dos 27 países da União Europeia aprovaram, de forma unânime, o primeiro conjunto de regras abrangente do mundo para a Inteligência Artificial, confirmando o acordo político alcançado em dezembro passado.
A proposta cria uma lista de obrigações, inclusive para os grandes modelos de linguagem – como ChatGPT – de forma que esses sistemas respeitem direitos fundamentais, uma vez que o plano do executivo da UE não incluía disposições para modelos de fundação.
Os sistemas considerados de alto risco estarão sujeitos a regras rigorosas que serão aplicadas antes de entrarem no mercado da UE. Uma vez disponíveis, estarão sob a supervisão das autoridades nacionais, apoiadas pelo gabinete de IA da Comissão Europeia.
A abordagem escolhida pela Europa, de regulação por risco, é caminho que inspirou o texto do anteprojeto elaborado por especialistas e que tramita no Senado Federal em uma comissão especial.
Se o impacto das plataformas digitais com a uberização do trabalho já é motivo de apreensão, o efeito da IA tende a ser ainda maior, como aponta um estudo recente do Fundo Monetário Internacional – 40% dos empregos serão afetados.
As regras, propostas pela Comissão Europeia há três anos, visam estabelecer um padrão global para uma tecnologia utilizada numa vasta gama de indústrias, desde a banca e retalho até aos sectores automóvel e aéreo. Também estabelecem parâmetros para a utilização da IA para fins militares, criminais e de segurança.
Mas a adoção da Lei de IA pelo Comitê de Representantes Permanentes nesta sexta, 2/2, foi alvo de pressões até a última hora. O acordo desta sexta saiu depois de a França abandonou a oposição à Lei de IA depois de garantir o que entende como equilíbrio entre transparência e os segredos comerciais e reduzem a carga administrativa sobre os sistemas de IA de alto risco.
Ao lado de Alemanha e Itália, o pedido era que as regras nesta área fossem limitadas a códigos de conduta, uma vez que não queriam cortar as asas a promissoras start-ups europeias como a Mistral AI e a Aleph Alpha, que poderiam desafiar as empresas americanas neste espaço.
No entanto, o Parlamento Europeu esteve unido no pedido de regras rígidas para estes modelos, considerando que era inaceitável excluir do regulamento os tipos mais potentes de Inteligência Artificial, deixando toda a carga regulamentar para os intervenientes mais pequenos.
O compromisso prevê uma abordagem faseada, com regras de transparência horizontais para todos os modelos e obrigações adicionais para modelos considerados com potencial risco sistêmico.
A presidência belga apontou para os Estados-Membros um cenário de tudo ou nada. E apesar das tentativas da França de atrasar a votação dos embaixadores, o calendário foi mantido. Com o apoio da Alemanha ao texto final, no entanto, o acordo avançou.
A França insiste que a implementação da Lei da IA garanta que o desenvolvimento de modelos de IA competitivos não seja prejudicado, equilibre a transparência e a protecção dos segredos comerciais, evite sobrecarregar as empresas com obrigações de alto risco e reavalie o limiar e os critérios utilizados para designar modelos de IA com riscos sistémicos.
Os países da UE ainda têm margem para influenciar a forma como a lei sobre IA será implementada, uma vez que a Comissão terá de emitir cerca de 20 atos de legislação secundária. O Gabinete de IA, que supervisionará os modelos de IA, também deverá contar com uma equipa significativa de peritos nacionais destacados.
As Comissões do Mercado Interno e das Liberdades Cívicas do Parlamento Europeu adotarão o conjunto de regras da IA em 13 de fevereiro, seguido de uma votação em plenário provisoriamente agendada para 10 e 11 de abril. A adoção formal será então completada com o endosso a nível ministerial.
A Lei AI entrará em vigor 20 dias após a publicação. As proibições das práticas vedadas começarão a ser aplicadas após seis meses, enquanto as obrigações relativas aos modelos de IA começarão a vigorar após um ano.
Todas as restantes regras entrarão em vigor após dois anos, exceto a classificação de sistemas de IA que têm de ser submetidos a avaliações de conformidade por terceiros ao abrigo de outras regras da UE como de alto risco, que foi adiada por mais um ano.
*Com agências internacionais