Estratégia de Inteligência Artificial propõe sandbox regulatório em segurança pública
O governo publicou nesta sexta, 9/4, a Estratégia Brasileira de Inteligência Artificial (em pdf). Elaborada pela secretaria de inovação do Ministério de Ciência & Tecnologia, a Estratégia tem seus eixos básicos no ambiente regulatório, na governança e no contexto internacional. Com destaque para o uso ético dos algoritmos.
“Um dos problemas mais discutidos no campo da IA diz respeito aos vieses algorítmicos”, diz a EBIA. “Esta Estratégia parte do pressuposto de que a IA não deve criar ou reforçar preconceitos. As pessoas e organizações responsáveis por projetar e implantar sistemas de IA devem ser responsáveis pelo funcionamento de seus sistemas. Princípios éticos devem ser seguidos em todas as etapas de desenvolvimento e de uso da IA podendo, inclusive, serem elevados a requisitos normativos integrantes de todas as iniciativas governamentais quanto à IA.”
A abordagem sobre o ambiente regulatório é de que seja estudado o impacto da IA em diferentes setores, mas “evitando-se ações regulatórias (em sentido amplo) que possam desnecessariamente limitar a inovação, a adoção e o desenvolvimento de IA”. E do uso ético como princípio decorre a necessidade de estruturas de governança que promovam métodos e procedimentos que o assegurem.
Tal preocupação vale para dentro do Estado. Daí que entre as ações propostas esteja considerar, em licitações e contratos administrativos voltados à aquisição de produtos e serviços de Inteligência Artificial, critérios voltados não apenas à eficiência técnica, mas também relativos à incorporação de princípios éticos relacionados à transparência, à equidade e à não-discriminação.
A Estratégia também trata de educação e qualificação, lembra que é baixo o interesse dos brasileiros por matemática (15% das graduações em exatas, contra 40% na China) e associa essa dificuldade à falta de mão de obra, que deve bater em 500 mil vagas em cinco anos. Nesse campo, começa por defender mudanças no currículo escolar em todos os níveis e a formação tecnológica dos próprios professores.
Por fim, a Estratégia reserva um capítulo exclusivo para uso de IA em segurança pública. O documento aponta que pelo menos 75 países estão usando ativamente tecnologias de Inteligência Artificial para fins de vigilância, mas lembra que “a utilização de tais tecnologias tem também sido amplamente discutida, principalmente no que diz respeito aos problemas associados a viés e discriminação”.
Por isso, a Estratégia defende que “tecnologias de IA utilizadas no contexto de segurança pública devem respeitar os direitos de privacidade e de proteção de dados pessoais, em conformidade com os direitos constitucionais à intimidade, à privacidade e à proteção à imagem do titular”.
Como conclusão, sustenta que seja implementado um “sandbox regulatório” da privacidade e proteção de dados para sistemas de inteligência artificial voltados para a segurança pública. “Ao fim do período de testes, o regulador decidirá se a tecnologia poderá ou não ser distribuída no mercado.”