A ausência de transparência sobre os critérios de formação das respostas, aliada à impossibilidade de reprodução controlada dos resultados, impede que um laudo técnico feito por inteligência artificial generativa sirva como base para o oferecimento de denúncia criminal.
A conclusão é da 5ª Turma do Superior Tribunal de Justiça, que concedeu ordem de ofício em julgamento nesta terça-feira (7/4) em favor de um homem denunciado por injúria racial.
O processo vai voltar ao Tribunal de Justiça de São Paulo para que retire dos autos o laudo preparado pelo delegado do caso com uso do Gemini, do Google, e do Perplexity, assistente virtual de pesquisa.
A partir daí, será preciso avaliar se a denúncia pode ser ratificada ou se, sem o laudo apresentado inicialmente, não há indícios de materialidade do crime. O tema é inédito na jurisprudência do STJ, como apontou a revista eletrônica Consultor Jurídico.
Análise do áudio
No caso concreto, as ferramentas de IA generativa foram usadas para dirimir uma dúvida: saber se o acusado chamou a vítima de “macaco velho”, como dizem testemunhas e ela própria, ou se disse “paca véa”, como sustenta a defesa.
A ofensa foi feita contra um segurança do Palmeiras após uma partida do clube paulistano contra o Mirassol, em 2025, e foi gravada em vídeo. Os laudos encomendados ao instituto de perícias oficiais apontaram a impossibilidade de concluir pela ocorrência da injúria racial.
O Gemini e o Perplexity, por sua vez, analisaram o áudio e concluíram que o acusado disse mesmo “macaco velho”, o que serviu para embasar a denúncia, que foi recebida pelo juízo.
Relatório da IA generativa
Relator do Habeas Corpus, o ministro Reynaldo Soares da Fonseca explicou que ferramentas de IA generativa operam a partir de padrões extraídos de volume de dados, o que resulta na natureza probabilística desses sistemas.
Isso, segundo o magistrado, compromete sua confiabilidade como prova de conhecimento, especialmente em contextos que exigem rigor técnico e precisão empírica. Há sempre o risco de haver a chamada “alucinação”: a produção de informações falsas ou imprecisas.
Esse cenário é mais grave no caso concreto, pois a análise se deu a partir de ondas sonoras e a conclusão sequer foi a mesma apresentada na perícia oficial produzida a pedido dos investigadores.
“A substituição de um juízo técnico por conclusões oriundas de inteligência artificial generativa evidenciam um viés de confirmação institucional”, criticou Reynaldo Soares da Fonseca.
“Ainda que o magistrado não esteja vinculado a conclusões periciais, seu afastamento exige fundamentação idônea. Relatórios produzidos por IA generativa não se qualificam como prova pericial. São meros documentos desprovidos de metodologia científica verificável”, continuou ele.
O voto do relator citou um texto publicado na ConJur, na coluna Criminal Player, assinado por Alexandre Morais da Rosa, Juliano de Oliveira Leonel e Yuri Felix, sobre o caso concreto. A votação na 5ª Turma foi unânime.
HC 1.059.475
Fonte: Conjur
