Polícia de SP usa Gemini e Perplexity e STJ rejeita uso de IA como prova em ação penal
Perícia criminal negou expressão ofensiva. Mas relatório feito por IA generativa apontou racismo. STJ desqualificou por entender que perícia exige intervenção humana.

Ao julgar o primeiro caso do tipo, o Superior Tribunal de Justiça decidiu que um relatório produzido por inteligência artificial (IA) generativa, sem o crivo da racionalidade humana, não pode ser utilizado como prova em processo penal.
A decisão foi tomada pela Quinta Turma da Corte no julgamento de um habeas corpus, que determinou a exclusão do documento dos autos.
O caso analisado envolve uma denúncia de injúria racial supostamente ocorrida após uma partida de futebol em Mirassol (SP). Segundo a acusação, o investigado teria proferido a expressão “macaco” contra a vítima, o que teria sido registrado em vídeo. No entanto, perícia oficial realizada pelo Instituto de Criminalística não confirmou a presença da palavra no áudio. O laudo técnico, baseado em análise fonética e acústica, concluiu que não havia traços articulatórios compatíveis com o termo.
Diante da ausência de confirmação pericial, investigadores recorreram a ferramentas de inteligência artificial para examinar o conteúdo do vídeo. O relatório gerado por IA apontou, em sentido oposto, que a expressão ofensiva teria sido pronunciada. Esse documento acabou servindo de base para o oferecimento da denúncia pelo Ministério Público de São Paulo.
Ao analisar o caso, o relator, Reynaldo Soares da Fonseca, destacou que a controvérsia não envolvia a legalidade da obtenção do relatório, nem eventual violação da cadeia de custódia da prova, mas sim sua confiabilidade como elemento apto a sustentar uma acusação penal. Segundo o ministro, o sistema jurídico exige que as provas permitam a construção de inferências lógicas e racionais sobre os fatos, não bastando que sejam formalmente lícitas.
No voto, ele afirmou que “revela-se imperativa a exclusão de diligências desprovidas de aptidão racional”, ressaltando que a confiabilidade é requisito essencial para a admissibilidade da prova. O magistrado também apontou limitações inerentes à inteligência artificial generativa, destacando que esses sistemas operam com base em probabilidades e padrões estatísticos, o que pode resultar em informações incorretas com aparência de veracidade.
Entre os riscos mencionados está o fenômeno conhecido como “alucinação”, em que a IA apresenta dados imprecisos, irreais ou fabricados de forma aparentemente confiável. O relator observou ainda que as ferramentas utilizadas no caso são voltadas ao processamento de texto, e não à análise técnica de áudio, o que reforça sua inadequação para esse tipo de perícia.
Outro ponto central da decisão foi a necessidade de fundamentação técnico-científica para afastar conclusões de perícias oficiais. Embora o juiz não esteja vinculado ao laudo pericial, qualquer divergência deve ser devidamente justificada com base em critérios técnicos consistentes — o que, segundo o ministro, não ocorreu no caso analisado.
Ao comparar os elementos dos autos, o relator destacou a robustez metodológica da perícia oficial em contraste com o caráter simplificado do relatório produzido por IA. Para ele, o documento não alcança “confiabilidade epistêmica mínima” para ser admitido como prova no processo penal.
Com a decisão, a Quinta Turma determinou a exclusão do relatório dos autos e estabeleceu que o magistrado responsável pelo caso deverá proferir nova decisão sobre a admissibilidade da denúncia, desconsiderando o material produzido por inteligência artificial.





