InovaçãoMercadoSegurança

Inteligência artificial amplia ciberataques, desinformação e até o uso de armas químicas

Relatório global diz que o futuro da IA ainda é incerto no planeta.

O avanço acelerado da inteligência artificial (IA) tem levantado preocupações sobre segurança, privacidade e impactos econômicos. O International AI Safety Report 2025, elaborado por especialistas de diversos países, destaca os riscos emergentes da IA de uso geral e aponta desafios na regulamentação e mitigação de seus efeitos.

Entre os principais pontos abordados no relatório, está o aumento da capacidade dos sistemas de IA. Nos últimos anos, esses modelos evoluíram significativamente, sendo capazes de gerar imagens realistas, programar softwares e até realizar raciocínios científicos complexos. A tendência indica que o desenvolvimento pode continuar em ritmo acelerado, o que levanta preocupações sobre o controle e a segurança dessas tecnologias.

Um dos principais alertas do relatório está relacionado aos riscos do uso malicioso da IA. Modelos avançados já demonstram potencial para facilitar ataques cibernéticos, manipular a opinião pública e até mesmo contribuir para o desenvolvimento de armas biológicas e químicas. Em experimentos recentes, um sistema de IA obteve melhor desempenho que especialistas humanos na elaboração de planos para a produção de armas biológicas, o que levou uma grande empresa do setor a aumentar sua classificação de risco biológico de “baixo” para “médio”.

A automação promovida pela IA também pode gerar grandes impactos no mercado de trabalho. O relatório sugere que a adoção dessas tecnologias está ocorrendo de forma rápida, mas desigual entre setores e países. Embora algumas empresas relatem ganhos de produtividade, há preocupações sobre demissões em larga escala e a criação de desigualdades econômicas globais.

Outro ponto de atenção é a falta de transparência por parte das empresas que desenvolvem IA. O relatório destaca que há um grande descompasso entre o que as companhias sabem sobre seus sistemas e o que governos e pesquisadores independentes têm acesso. Essa assimetria de informações dificulta a criação de políticas públicas eficazes para mitigar riscos emergentes.


Diante desse cenário, os especialistas defendem a implementação de estratégias de mitigação de riscos mais robustas. Algumas iniciativas em desenvolvimento incluem técnicas de monitoramento contínuo dos modelos de IA, exigência de auditorias de segurança antes do lançamento de novas tecnologias e a criação de regulamentações internacionais para garantir o uso responsável da IA.

Regulação

O relatório aponta que a rápida evolução da IA dificulta a criação de regulamentações eficazes. Muitos avanços ocorrem mais rapidamente do que os governos conseguem responder, resultando em lacunas regulatórias, especialmente em relação a novas capacidades da IA. O documento menciona que, embora algumas jurisdições, como União Europeia, China, Estados Unidos e Canadá, tenham implementado ou estejam desenvolvendo regulamentações, ainda há incertezas sobre a governança de modelos avançados​.

Outro desafio identificado é o “dilema da evidência”: reguladores precisam agir com base em informações limitadas sobre os impactos da IA. A demora na obtenção de provas concretas pode levar à falta de preparo para riscos emergentes. Para lidar com essa questão, o relatório sugere a implementação de sistemas de alerta precoce e requisitos para que desenvolvedores demonstrem a segurança de seus modelos antes do lançamento​

O relatório conclui que o futuro da IA ainda é incerto e dependerá das decisões políticas e empresariais tomadas nos próximos anos. Embora haja um grande potencial para benefícios econômicos e sociais, os riscos associados ao desenvolvimento desenfreado dessa tecnologia exigem uma abordagem cautelosa e coordenada em nível global.

Botão Voltar ao topo