Opinião

Inteligência Artificial: defina limites e reduza o viés

Onde a análise de risco é essencial como  serviços financeiros ou seguros, os avanços na coleta de dados e machine learning permitem que as empresas analisem grandes volumes de dados, tomem decisões e concluam transações complexas em apenas milissegundos. Quer sejam usados para avaliar a capacidade de crédito, detectar fraudes ou responsabilidade de subscrição, os algoritmos de aprendizado se adaptam em tempo real, ajudando as empresas a alcançar escala –  por isso, são críticos para tomada de decisão.

Como para essas empresas de seguro e financeiras  existem riscos associados às decisões baseadas em informações confidenciais, as lideranças  precisam ser proativas na remoção de vieses em suas transações. O problema é que os algoritmos de autoaprendizagem são projetados e treinados por pessoas, por isso sujeito a falhas.

Na verdade, somos responsáveis por repassar essas falhas à IA – intencionalmente ou não – por causa da forma como coletamos dados, treinamos modelos e aplicamos regras ou lógica ao tomar decisões. Acabamos transmitindo o viés algorítmico, e isso se torna um grande passivo – que toda empresa precisa saber como lidar e atuar proativamente para eliminá-lo.

O preconceito representa um risco significativo para as empresas devido a violações regulatórias, oportunidades perdidas, receitas em declínio, aumento de custos trabalhistas e perda da confiança pelo público.

Por exemplo, apenas no ano passado, uma empresa de tecnologia conhecida e seu parceiro financeiro foram denunciados por discriminação  em razão de sua oferta de cartão de crédito. Os influenciadores de tecnologia David Heinemeier Hansson e Steve Wosniack perceberam que seus cônjuges receberam limites de crédito menor do que o  deles – apesar do histórico bancário compartilhado. A percepção de parcialidade prejudicou a reputação da marca dessas empresas e levou a uma investigação por práticas discriminatórias.


Histórias como essa podem ser uma das razões pelas quais os consumidores veem a IA com ceticismo. Mas, a Inteligência Artificial não pode dizer se algo é tendencioso? O ser humano sente dificuldades em enxergar preconceitos, mesmo quando está na frente de seus olhos. Somos bons no bloqueio e eliminação de áreas problemáticas óbvias (idade, etnia, religião ou sexo).

Porém, o preconceito pode estar oculto em qualquer um dos dados utilizados, mesmo que não possamos perceber na superfície. Informações como renda, CEP, patrimônio líquido, afiliação política, etc., costumam estar fortemente vinculadas às mesmas questões. Por causa disso, o preconceito pode invadir sua análise e distorcer a tomada de decisão.

Três ações para identificar e reduzir o preconceito

Olhando para trás é fácil apontar as transgressões de IA  pelas empresas.  Só que os erros  gerados pelo preconceito não podem ser corrigidos após o fato, o caminho é ser proativo em prevenir. Confira algumas ações para ajudar a identificar e remover viés em potencial:

• Considere a qualidade dos dados como de extrema importância. Com a disponibilidade de fontes de Big Data, as empresas têm uma variedade de dados para escolher ao construir algoritmos de machine learning. O melhor é ‘buscar fontes de dados limpas’. Ou seja, esteja ciente dos identificadores de classe e comportamentais em seus dados que poderiam conter um viés inerente, como primeiro idioma /idioma de escolha, nível de escolaridade, atividade de emprego/ocupação, pontuação de crédito, estado civil, número de seguidores em redes sociais, entre outros. Em última análise, dados ruins criam modelos semelhantes e resultam em IA tendenciosa.

• Busque imputs de diversos colaboradores. Porque todos temos uma base de vivências e preconceitos. É importante a colaboração de um grupo diversificado de pessoas no desenvolvimento de algoritmos de aprendizagem e lógica baseados em IA. Por exemplo, em um estudo de sistemas de reconhecimento automático de fala (ASR), os principais participantes – Amazon, Apple, Google, IBM e Microsoft – apresentaram taxas de erro mais altas ao transcrever e analisar vozes não brancas. A fonte de discriminação resultou de os modelos serem treinados por dados tendenciosos – sub-representação de indivíduos não brancos. Um grupo de trabalho que reflete a diversidade em atributos como idade, gênero, etnia e geografia, bem como o nível de habilidade ou deficiência, pode oferecer feedback perspicaz para melhorar algoritmos e consequentemente aprendizagem.

• Adote um approach ‘sempre ativo’ para a proteção de polarização.  A IA depende de dezenas, centenas ou milhares de modelos. Verificá-los de forma intermitente não funcionará – especialmente nos modelos adaptativos. Em vez disso, você precisa executar o teste de polarização continuamente como uma ação padrão em todos os modelos, para cada decisão. Existem ferramentas disponíveis no mercado para ajudar. Soluções de verificação de viés ético que detectam proativamente preconceito nas estratégias de próxima melhor ação, permitindo ajustar o modelo, a estratégia ou as regras de negócios em conformidade. Isso é algo que apenas algumas grandes marcas estão fazendo, mas todas as marcas deveriam adotar.

• Antecipe-se a regulamentações futuras. Conheça os seus valores e os dos  clientes e ajuste o limite de polarização a eles. Você não deve  buscar um compliance  apenas regulamentar. Os regulamentos geralmente ficam bem atrás da inovação digital e das normas sociais – então, se você esperar até que um regulamento seja aprovado para reagir, você sempre estará um passo atrás. Seus clientes querem que você reflita os valores sociais de hoje e esperam atitudes responsáveis. Você precisa pensar no futuro e trabalhar para identificar as formas presentes e futuras sobre preconceito.

A transparência ajuda a construir confiança

Os algoritmos e suas previsões precisam ser confiáveis. Ou seja, precisam ser justos e explicáveis. Esse é o desafio. Os algoritmos de machine learning não são necessariamente lineares – eles evoluem à medida que aprendem e, em seu estado de evolução recente podem apresentar um novo viés. Algoritmos transparentes podem ser inspecionados para entender a linhagem da IA – quem a criou (humano ou máquina), quais dados são usados, como são testados e como um resultado desses dados interpretados é determinado.

Definir os limites apropriados para transparência e tomar medidas para identificar e eliminar preconceitos ajudará qualquer organização, regulamentada ou não, a operar com ética, garantir um resultado mais justo e equilibrado para todos e ajudar a fortalecer a reputação de uma marca confiável.

As maiores marcas do mundo se diferenciam por conhecer seus clientes e se conectar com eles. Por isso estão atentos quanto à proteção de seus relacionamentos com os consumidores e transparência nas transações. Ao tomar medidas para identificar e remover preconceitos,  é possível proteger proativamente  relacionamentos valiosos e ao mesmo tempo construir uma identidade de marca confiável.

*Maurício Prado Silva é diretor-geral da Pegasystems para América Latina

Botão Voltar ao topo