Marco para Inteligência Artificial enfrenta resistência na Europa
A União Europeia propôs regras para restringir ou banir alguns usos de inteligência artificial dentro de suas fronteiras, incluindo por gigantes da tecnologia. Trata-se do esforço internacional mais significativo para regular a IA até o momento, abrangendo reconhecimento facial, direção autônoma e os algoritmos que conduzem a publicidade online, contratação automatizada e pontuação de crédito.
O período de consulta aberto pela Comissão Europeia terminou em 6 de agosto, com mais de 304 comentários de partes interessadas, o que indica ainda que a Comissão deverá rever certos aspectos da proposta. E assim como aconteceu com a proteção de dados, as regras europeias vão influenciar normas e regulamentações globais em torno da tecnologia.
Para a entidade de direitos digitais Access Now, “há uma mensagem muito importante globalmente de que certas aplicações de IA não são permitidas em uma sociedade baseada na democracia, no estado de direito, nos direitos fundamentais”. A ONG acha que as regras propostas ainda são vagas, mas representam um passo importante.
Já a European Digital Rights (EDRi) também vê alguns avanços, mas ainda teme que certas disposições permitiriam que empresas e autoridades governamentais continuassem usando IA de formas questionáveis. Por exemplo, enquanto se prevê a proibição de aplicações de IA de “alto risco”, caso de ferramentas de reconhecimento facial, mas apenas para uso “em tempo real” e em “espaços públicos”, restam exceções quando a polícia investigar crimes com penas maiores que três anos.
As regras da UE propostas também proibiriam “pontuação social baseada em IA para fins gerais feitos por autoridades públicas”, bem como sistemas de IA que visam “grupos vulneráveis específicos” de formas que “distorcem materialmente seu comportamento” para causar “problemas psicológicos ou físicos prejuízo.” Isso poderia restringir o uso de IA para pontuação de crédito, contratação ou algumas formas de publicidade de vigilância.
Também exigiriam que as empresas informassem os usuários ao tentar usar IA para detectar as emoções das pessoas ou classificá-las de acordo com características biométricas, como sexo, idade, raça ou orientação sexual ou política – aplicações que também são tecnicamente duvidosas.
Assim como no Brasil, onde parte do mercado teme a discussão no Congresso Nacional sobre um marco regulatório para IA, a proposta europeia enfrenta resistências. O think tank norte-americano Center for Data Innovation tem divulgado uma estimativa de que as restrições previstas nas regras da UE provocariam custos da ordem de 31 bilhões de euros – algo próximo a R$ 200 bilhões – nos próximos cinco anos. Mas como apontam as entidades de direitos digitais, “a narrativa de que há uma corrida de IA é um absurda. Não devemos competir por formas de inteligência artificial que permitem vigilância em massa.”
* Com informações da Wired e da CNBC