A Comissão Europeia publicou novas diretrizes para orientar a aplicação da definição de sistemas de inteligência artificial conforme estabelecido pelo AI Act, a regulamentação do bloco que busca equilibrar inovação tecnológica e proteção de direitos fundamentais. As diretrizes não têm caráter vinculativo, mas servem como um guia para provedores e reguladores identificarem se um software se enquadra como um sistema de IA, facilitando a implementação das regras da nova legislação.
Desde 2 de fevereiro de 2025, as primeiras disposições do AI Act começaram a valer, incluindo a definição de sistema de IA e algumas restrições a usos considerados inaceitáveis dentro do território europeu. A regulação classifica os sistemas de IA em diferentes categorias de risco – proibidos, de alto risco e sujeitos a obrigações de transparência –, determinando regras específicas para cada nível de impacto potencial na sociedade.
A Comissão Europeia destaca que a definição de IA deve ser aplicada com flexibilidade para acompanhar os avanços tecnológicos, evitando uma abordagem excessivamente rígida. Segundo as diretrizes, um sistema de IA é caracterizado por operar com diferentes níveis de autonomia e, em alguns casos, apresentar capacidade de adaptação após sua implementação. Além disso, deve ser capaz de processar entradas de dados e gerar saídas que influenciem ambientes físicos ou virtuais, como previsões, conteúdos, recomendações ou decisões automatizadas.
O AI Act não se aplica a todos os software, mas apenas àqueles que atendem a esses critérios. Para esclarecer os limites da regulação, a Comissão Europeia publicou também um conjunto complementar de diretrizes sobre práticas proibidas de IA, detalhando quais usos representam riscos inaceitáveis à sociedade.
Entre os usos que a UE considera inaceitáveis para uso de IA estão a manipulação cognitiva e social, exploração de vulnerabilidades de crianças, idosos e pessoas com deficiência, classificação social pelo Estado, identificação biométrica em tempo real em locais públicos, policiamento preditivo baseado exclusivamente em IA, além da manipulação política e desinformação em grande escala.
O impacto dessas diretrizes pode ser significativo para empresas e desenvolvedores de IA em todo o mundo, incluindo o Brasil, que tem acompanhado de perto as regulamentações europeias. Grandes companhias de tecnologia que operam no país precisarão avaliar a conformidade de seus sistemas com as novas exigências para manter suas operações no mercado europeu. Além disso, a adoção de normas internacionais pode influenciar a formulação de políticas regulatórias no Brasil, onde o debate sobre governança de IA ainda está em desenvolvimento.