Inovação

IA e privacidade digital: o cuidado redobrado nas empresas

É estratégico treinar os modelos de Inteligência Artificial e as corporações, sustenta o Gartner, vão usar cada vez mais a computação de aprimoramento de privacidade (PEC).

O processamento de dados em ambientes não confiáveis e o compartilhamento e análise de dados multipartidários tornaram-se itens fundamentais para o sucesso de uma organização, reporta o Gartner. Em vez de adotar uma abordagem difusa, a crescente complexidade dos mecanismos e arquiteturas de data analytics exige que os fornecedores incorporem um recurso de privacidade por design.

A difusão dos modelos de Inteligência Artificial e a necessidade de treiná-los é apenas a mais recente adição às preocupações com a privacidade, adiciona a consultoria, que prevê: o orçamento anual médio das grandes companhias para privacidade de dados excederá US$ 2,5 milhões (quase R$ 12 milhões na cotação atual) até 2024, principalmente por conta de adequações e implementações de tendências tecnológicas relacionadas ao setor.

Os especialistas do Gartner informam ainda que, ao contrário dos controles comuns de segurança de dados não utilizados, a computação de aprimoramento de privacidade (PEC) protege os dados em uso. Como resultado, as organizações podem implementar processamento e análise de dados que antes eram impossíveis devido a questões de privacidade ou segurança — com o Gartner prevendo que até 2025, 60% das grandes organizações usarão pelo menos uma técnica PEC em análise, inteligência de negócios e/ou computação em Nuvem.

A pesquisa do Gartner descobriu que 40% das organizações tiveram uma violação de privacidade de Inteligência Artificial e que, dessas violações, apenas uma em cada quatro era maliciosa. Quer as organizações processem dados pessoais por meio de um módulo baseado em Inteligência Artificial integrado a uma oferta de fornecedor ou por uma plataforma discreta gerenciada por uma equipe interna de ciência de dados, os riscos à privacidade e o possível uso indevido de dados pessoais são claros.


“Uma vez que a regulamentação da IA se torne mais estabelecida, será quase impossível desvendar os dados tóxicos ingeridos na ausência de um programa de governança da Inteligência Artificial. Os líderes de TI terão que eliminar os sistemas por atacado, com grandes custos para suas organizações e sua posição”, avalia Nader Henein, Vice-Presidente e Analista do Gartner.

A consultoria projeta ainda que com os modelos de engajamento no trabalho e na vida tornando-se cada vez mais híbridos, tanto a oportunidade quanto o desejo de aumentar o rastreamento, monitoramento e outras atividades de processamento de dados pessoais aumentam, e o risco de privacidade se torna primordial. Com as implicações de privacidade de um conjunto totalmente híbrido de interações, a produtividade e a satisfação do equilíbrio entre vida profissional e pessoal também aumentaram em vários setores e disciplinas.

Nesse contexto, orienta o Gartner, as organizações devem adotar uma abordagem centrada no ser humano para a privacidade, e os dados de monitoramento devem ser usados minimamente e com um propósito claro, como melhorar a experiência dos funcionários, removendo atritos desnecessários ou mitigando o risco de esgotamento, sinalizando os riscos de bem-estar.

Botão Voltar ao topo