Governo

Europa aprova Lei para Inteligência Artificial nos moldes do PL brasileiro

Texto prevê regulação baseada em risco e agências nacionais de controle. Imagens, vídeos ou áudios gerados por IA deverão ser rotulados. Essa é a primeira legislação oficial para Inteligência Artificial no mundo.

O parlamento europeu aprovou, com ampla votação, a redação final da lei de inteligência artificial nesta quarta, 13/3 – depois de cinco anos de debates. A lei, a ser incorporada pelos 27 países membros do bloco, tem como cerne a regulação baseada em riscos, mesma inspiração para o projeto de lei que tramita no Brasil. 

“A Lei da IA ​​impulsionou o futuro da IA ​​numa direção centrada no ser humano, numa direção onde os humanos controlam a tecnologia e onde ela – a tecnologia – nos ajuda a alavancar novas descobertas, o crescimento económico, o progresso social e a desbloquear o potencial humano. ”, disse Dragos Tudorache, legislador romeno que foi colíder das negociações do parlamento da UE sobre o projeto de lei, antes da votação.

A lógica na UE, assim como no projeto de lei 2338/23, no Brasil, é de que quanto mais arriscada for uma aplicação de IA, mais escrutínio ela terá que enfrentar. A maioria dos sistemas de IA tendem a ser de baixo risco, como sistemas de recomendação de conteúdo ou filtros de spam. As empresas podem optar por seguir requisitos e códigos de conduta voluntários.

As utilizações de alto risco da IA, como em dispositivos médicos ou infraestruturas críticas, como redes de água ou elétricas, enfrentam requisitos mais rigorosos, como a utilização de dados de alta qualidade e o fornecimento de informações claras aos utilizadores.

Algumas utilizações de IA são proibidas porque são consideradas um risco inaceitável, como os sistemas de pontuação social que regem o comportamento das pessoas, alguns tipos de policiamento preditivo e sistemas de reconhecimento de emoções nas escolas e nos locais de trabalho.


Outros usos proibidos incluem a digitalização de rostos em público pela polícia usando sistemas remotos de “identificação biométrica” alimentados por IA, exceto para crimes graves como sequestro ou terrorismo.

Os primeiros rascunhos da lei centravam-se em sistemas de IA que executavam tarefas estritamente limitadas, como a digitalização de currículos e candidaturas a empregos. O surpreendente aumento de modelos de IA de uso geral, exemplificado pelo ChatGPT da OpenAI, fez com que os legisladores da UE se esforçassem para acompanhar.

Eles acrescentaram provisões para os chamados modelos generativos de IA, a tecnologia que sustenta os sistemas de chatbot de IA que podem produzir respostas, imagens e muito mais únicas e aparentemente realistas.

Os desenvolvedores de modelos de IA de uso geral — desde startups europeias até OpenAI e Google — terão de fornecer um resumo detalhado do texto, imagens, vídeo e outros dados na Internet que são usados ​​para treinar os sistemas, bem como seguir a lei de direitos autorais da UE.

Imagens, vídeos ou áudio falsos gerados por IA de pessoas, lugares ou eventos existentes devem ser rotulados como manipulados artificialmente. Haverá escrutínio extra para os maiores e mais poderosos modelos de IA que representam “riscos sistêmicos”, que incluem o GPT4 da OpenAI ou o Gemini da Google.

A UE diz estar preocupada que estes poderosos sistemas de IA possam “causar acidentes graves ou serem utilizados indevidamente para ataques cibernéticos de grande alcance”. Eles também temem que a IA generativa possa espalhar “preconceitos prejudiciais” em muitas aplicações, afetando muitas pessoas.

As empresas que fornecem estes sistemas terão de avaliar e mitigar os riscos; comunicar quaisquer incidentes graves, tais como avarias que causem a morte de alguém ou danos graves à saúde ou à propriedade; implementar medidas de segurança cibernética; e divulgue quanta energia seus modelos usam.

A expectativa é que a Lei da IA ​​se torne oficialmente texto legal em maio ou junho, após a bênção dos países membros da UE. As disposições começarão a entrar em vigor em etapas, sendo os países obrigados a eliminar os sistemas de IA proibidos seis meses após as regras entrarem em vigor.

As regras para sistemas de IA de uso geral, como chatbots, começarão a ser aplicadas um ano após a entrada em vigor da lei. Em meados de 2026, o conjunto completo de regulamentos, incluindo requisitos para sistemas de alto risco, estará em vigor.

Cada país da UE criará o seu próprio órgão de vigilância da IA, onde os cidadãos poderão apresentar uma queixa se acharem que foram vítimas de uma violação das regras. Entretanto, Bruxelas criará um Gabinete de IA encarregado de fazer cumprir e supervisionar a lei para sistemas de IA de uso geral.

As violações da Lei da IA ​​podem gerar multas de até 35 milhões de euros – o equivalente a R$ 190 milhões – ou 7% da receita global da empresa envolvida.

*Com agências internacionais

Botão Voltar ao topo