Inteligência artificial ética está longe de ser algo simples
O uso ético de inteligência artificial e do aprendizado de máquina (machine learning), evitando um viés preconceituoso é um dos desafios que as companhias têm — e está longe de ser algo simples, sinalizou o chief analytics officer da Fico, Scott Zoldi, que está em São Paulo para o FICO Forum São Paulo, que acontece nesta quarta-feira 13/03. Em palestra, o evangelista dedicou boa parte do tempo para explicar sobre os perigos que a modulação dos dados pode levar a interpretações equivocadas.
“Com machine learning é difícil assegurar que a máquina não vai discriminar. Não podemos ser cegos com relação as características e ignorar raça no desenvolvimento de modelos de negócios. Há, sim, a possibilidade de se ter um viés preconceituoso. Na verdade, é preciso alinhar os modelos de subpopulação através do escalonamento de probabilidades de logs”, observou.
Zoldi, que trabalha na FICO há 19 anos e é autor de 96 patentes, sendo 45 já asseguradas e 51 em processo, destacou o fato de machine learning figurar no pico do hypecycle do Gartner, mas explicou que as expectativas infladas podem apressar o uso de aprendizado de máquina sem o real entendimento de suas ramificações. “No momento, todos estão animados e isto é ótimo, mas implantar machine learning é difícil e requer precaução, já que há diversos problemas com interferência erradas”, insistiu.
Os modelos de aprendizado de máquina, segundo Zoldi, precisam ser interpretáveis. “Remoção de viés é importante para uma inteligência artificial ética. Também é preciso entender que a cobertura de dados é crítica em todos os grupos. A capacidade de reforçar a palatabilidade, a monotonicidade e a engenharia podem ajudar a lidar com vieses preconceituosos. E novas redes neurais de recursos latentes interpretáveis expõem a relação de direcionamento da análise de dados”, completou.
Confira a entrevista exclusiva com o chief analytics officer da Fico, Scott Zoldi.