Envenenamento de dados: o ataque cibernético que mira inteligência artificial (IA)
O envenenamento de dados é um novo tipo de ataque cibernético destinado a enganar os sistemas de inteligência artificial (IA). A IA, que tem em ‘aprendizado de máquina’ um nome mais adequado ao funcionamento desse tipo de sistema, é desenvolvida processando grandes quantidades de dados. A qualidade dos dados afeta a qualidade da IA. O envenenamento de dados é o fornecimento intencional de dados errados ou enganosos para impactar a qualidade da IA. O envenenamento de dados está se tornando particularmente arriscado com o desenvolvimento de Large Language Models (LLM, para grandes modelos de linguagem), como o ChatGPT.
Com o desenvolvimento de redes neurais de aprendizado profundo, as aplicações de inteligência artificial se tornaram uma grande novidade. E por causa de suas habilidades únicas de aprendizado, eles podem ser aplicados em uma ampla variedade de ambientes. Mas, como observam os pesquisadores neste novo esforço, uma coisa que todos eles têm em comum é a necessidade de dados de qualidade para usar para fins de treinamento.
Como esses sistemas aprendem com o que veem, se eles se deparam com algo que está errado, eles não têm como saber e, portanto, incorporam isso ao seu conjunto de regras. Como exemplo, considere um sistema de IA treinado para reconhecer padrões em uma mamografia como tumores cancerígenos. Esses sistemas seriam treinados mostrando-lhes muitos exemplos de tumores reais coletados durante as mamografias.
Mas o que acontece se alguém inserir imagens no conjunto de dados mostrando tumores cancerígenos, mas elas forem rotuladas como não cancerígenas? Muito em breve o sistema começaria a perder esses tumores porque foi ensinado a vê-los como não-cancerígenos. Nesse novo esforço, a equipe de pesquisa mostrou que algo semelhante pode acontecer com sistemas de IA treinados usando dados disponíveis publicamente na Internet.