LGPD e Inteligência Artificial pressionam bancos pelo uso ético dos dados
"Somos dependentes dos dados e temos de tratá-los com muito cuidado", admite o diretor- executivo interino de Riscos da Caixa. Governança de dados passa a ser prioridade máxima.
A proteção de dados avançou no Brasil, mas ainda há muito por fazer e há uma grande preocupação com o uso ético dos dados. A diretora da ANPD, Miriam Wimmer, lembrou que o mercado ainda está em fase de aprendizado sobre a nova legislação, aprovada somente em 2018, mas destacou que neste período a ANPD estruturou-se e hoje está em condições de realizar fiscalizações e sanções. “Estamos avançando. Em cinco anos temos uma autoridade constituída e à medida que ela evolui, isso contribui para o aumento da segurança jurídica e compreensão da temática”, afirmou.
Para Patrícia Peck, CEO da Peck Advogados, o maior desafio não está exatamente na legislação, mas na governança de dados. Ela acredita que se as organizações já tivessem uma governança de dados estruturada, a implantação da legislação seria muito simples. A questão é que grande parte das empresas não sabe com que dados lida, quantas bases de dados têm ou onde estão. Juntos, estes componentes se transformam em desafios para empresas de todos os tamanhos e setores.
Alguns setores, como o financeiro, estão mais maduros em relação à governança, mas isso não diminui os desafios. “Nossa indústria é dependente de dados e precisamos tratá-los com cuidado”, lembrou o diretor-executivo interino de Riscos da Caixa Econômica Federal, Jardel Luis Carpes. Ele explicou que os bancos já estavam adiantados em relação à segurança da informação e cibernética, mas a LGPD exige um pouco mais, obrigando-os a entender a preocupação ética no tratamento destes dados de forma transparente para os clientes.
A diretora de Dados, IA e Automação da IBM Brasil, Marcela Vairo, sustentou: a tecnologia é que permite a governança centralizada de dados dispersos. “É preciso um framework que garanta a governança desse dado, garantindo acesso a quem for permitido, onde quer que esteja”, afirmou. Ela ressaltou que a explosão de dados também pressiona os fornecedores.
No caso da IBM, essa massificação de dados tem levado à inclusão de IA e a automação no desenvolvimento das tecnologias que usam dados. Um exemplo são tecnologias que reconhecem um CPF e mascaram automaticamente o dado com uso de IA, inclusive para o desenvolvedor. O ponto é que, com diferentes usos, não há uma única solução. “As empresas precisam avaliar sua estrutura de dados e identificar qual a melhor solução para estes usos”, disse.
Na Caixa, todos os desenvolvimentos passam por três pilares: segurança da informação, para evitar que os dados cheguem a pessoas que não deveriam ter acesso a eles; governança e tratamento de dados, para mapear os dados dentro de cada atividade do banco e verificar se estão sendo utilizados de acordo com a LGPD; e finalmente o atendimento, dando resposta a cada titular sobre o que é feito com seus dados. “Para isso, temos uma governança intrincada, mas muito bem construída para atender a todos os preceitos da LGPD, trazendo a visão de que os dados são tratados de forma adequada”, informou Capes.
O desafio da IA
Enquanto ainda se adapta ao que prevê a LGPD, o mercado precisa começar a lidar com o uso que novas tecnologias, como IA e machine learning, farão dos dados. Para Patrícia é como criar uma linha a mais a ser colocada na política de proteção, informando que aqueles dados serão usados para isso também. “A LGPD é viabilizadora, mas não pode ser de qualquer jeito. Tem que fazer da maneira correta, com política, tecnologia e campanha educativa”, disse.
Miriam, da ANPD, reconhece que há uma forte interface entre IA e proteção de dados e que autoridades de dados de vários países estão se interessando pelo tema. “Usar bases de dados produz efeitos que impactam a vida das pessoas, por isso é preciso pensar nos impactos também na proteção de dados pessoais”, explicou.
Ela reforça a questão das bases legais para uso, que devem ir além do consentimento puro e simples. Nestes casos, o uso do dado deve ser, como prevê a lei, livre, informado, inequívoco e passível de ser revogado, o que muitas vezes não acontece. “No caso da IA, isso deve ser pensado antecipadamente, identificando a base legal mais adequada a ser utilizada. Não é um debate encerrado porque não há resposta única”, disse, ressaltando também a necessidade de observar os direitos dos titulares a acesso ou revisão de decisões automatizadas, o que ainda requer amadurecimento e discussão mais profunda.
Marcela Vairo lembra que uma pesquisa da IBM mostrou que a aplicação da ética no uso da IA generativa é uma preocupação de 80% dos CEOs ouvidos. Para ela, a garantia do uso ético começa pelo que chama de “explicabilidade” dos modelos: a tecnologia tem que permitir que a razão de uma recomendação ou ação seja explicada.
Além da “explicabilidade”, o uso ético passa também por fatores como preocupação e cuidado com os dados dos clientes; monitoramento de eventuais vieses; e confiança. “Temos que ter algoritmos e ferramental forte que garantam a governança no modelo de IA para que possamos adotá-la cada vez mais. Para o uso corporativo, a questão ética com estes fatores é fundamental para ganhar escala”, disse.
Do lado da IBM, a executiva diz que a companhia adota o “ethics by design”, um framework que garante que a tecnologia deve melhorar a inteligência humana e produzir resultados positivos. Se a companhia percebe que determinada tecnologia terá um impacto negativo, ela é suspensa. Por isso o monitoramento deve ser constante.
O mesmo vale para o desenvolvimento de novos produtos e serviços na CEF, onde o tratamento de dados é pensado desde o início dos projetos. “Isso tem tudo a ver com o setor financeiro, porque traz mais eficiência desde as conversas mais primordiais sobre uma nova solução pensada para o cliente”, completou Carpes.