Permitimos que robôs decidam nossos direitos?
No Judiciário, a inversão proporcionada pelo ‘decidir primeiro e fundamentar depois’ é absolutamente inconcebível do ponto de vista constitucional e processual
Por Lenio Streck
O uso indiscriminado da inteligência artificial (IA) no Judiciário brasileiro é uma ameaça grave ao cerne do processo judicial: a fundamentação legal-racional das decisões, exigência que, aliás, consta na Constituição brasileira e que vem sendo deixada de lado dia a dia. Recentemente, o juiz auxiliar da presidência do Conselho Nacional de Justiça (CNJ) Dorotheo Barbosa Neto chamou a atenção para esse risco, ao afirmar que a IA tende a “alucinar” (gerar informações falsas ou incoerentes) em mais de 70% dos casos quando solicitada a desenvolver primeiro a fundamentação e só depois chegar à conclusão. Em contrapartida, se o magistrado (ou o estagiário!) fornece para a IA previamente a decisão desejada (um prompt com “condenar”, “deferir”, “negar provimento”, “não conhecer o recurso”), a ferramenta “entregará” uma fundamentação aparentemente coerente e fluida, invertendo, porém, o fluxo lógico do raciocínio jurídico.
O problema é que essa inversão, proporcionada pelo “decidir primeiro e fundamentar depois”, é absolutamente inconcebível do ponto de vista constitucional e processual. Ora, o juiz deve analisar as razões das partes, os fatos e o direito para, só então, chegar a uma conclusão. Partir da conclusão prévia transforma a decisão em produto de engenharia de prompt, em que o comando do usuário molda a narrativa para encaixar no resultado pretendido. Um ferrolho hermenêutico. Isso terceiriza a cognição: a “aplicação da lei” é delegada a um sistema que não apura verdade, mas gera texto plausível baseado em padrões estatísticos.
Isso lembra o que chamo de “Dilema da Ponte”: atravessar o abismo do conhecimento e, depois, construir a ponte retroativamente. Já em 2004, critiquei ministros que admitiam decidir primeiro e justificar depois. Hoje, a IA amplifica esse vício, tornando-o sistêmico. E natural. Sob pressão de volume processual, a tentação é grande: ordenar à ferramenta o dispositivo e deixar que ela “arrume” os fundamentos. O resultado é uma motivação pós-fabricada, elegante na forma, mas frágil na substância. Grave.
A Resolução CNJ n.º 615/2025 busca mitigar isso, com diretrizes de governança. Proíbe que a IA substitua integralmente o magistrado ou fundamente decisões de forma automática, sem controle. Exige rastreabilidade, validação de citações e separação entre análise e decisão. Na prática, porém, as salvaguardas viram letra morta quando o “piloto automático” é acionado após definir o destino: condenar ou absolver, deferir ou indeferir. O “oceano do conhecimento real” evapora; resta a chegada ao porto escolhido, sem saber o caminho percorrido. Como se o caminho não importasse. Só que o caminho se chama “processo”. Processo é protocolo. Estão matando o processo.
O que está em jogo são o cognitive offloading – terceirização do ato de conhecer – e o automation bias: tratar a IA como verdade prima facie. Quando o julgador ratifica texto gerado por máquina, vira chancela automática. Isso viola o art. 93, IX, da Constituição federal (dever de fundamentar), o art. 489 do Código de Processo Civil e o art. 315 do Código de Processo Penal, que exigem motivação exaustiva, com análise das questões relevantes e enfrentamento dos argumentos.
A caixa-preta da IA agrava o problema. Modelos com trilhões de parâmetros operam de modo opaco; nem os desenvolvedores compreendem plenamente como chegam a certas saídas (exemplo: AlphaGo). Sem explicabilidade (xAI), como garantir justiça e responsabilidade? Se uma alucinação leva a erro grave? O sistema?
Enquanto houver bambu, vai haver flecha. O Tribunal de Justiça de São Paulo aprovou o Gerador de Ementas com Azure OpenAI, que produz ementas que logo são usadas como “precedentes”, fazendo desaparecer os casos concretos. Nas redes sociais, advogados já ensinam a “clonar juiz”: alimentar a IA com jurisprudência do magistrado para prever ou moldar desfechos favoráveis. Vídeos no Instagram prometem: “O advogado que não souber clonar juiz não vai ter espaço”. Espantoso, não? A “academia” não escapa: “mentores” mostram como gerar capítulos de tese em minutos. Trabalhos escolares? Tudo feito por IA. O brain rot (cérebro apodrecido) avança a passos largos.
Mas há resistência. Em Portugal, professores lançaram manifesto contra a IA dizendo que os alunos se convertem em “cretinos digitais”. Na França, há criminalização de usos indevidos (pena de até cinco anos). Por aqui, o encantamento persiste: a IA funciona como inevitável, um “mito do dado”, gerando respostas antes das perguntas, numa espécie de retorno à pré-modernidade.
Não se trata de rejeitar a tecnologia, mas de desencantá-la. Não quero a volta do lápis ou do ábaco. Mas precisamos, urgentemente, de governança real, transparência algorítmica e supervisão humana efetiva. Caso contrário, o Judiciário – e, com ele, a advocacia, o Ministério Público e a Defensoria, que também já terceirizam o trabalho – sucumbirá à essa verdadeira terceirização da mente, proporcionando um delírio sintético e o fim da profissão como a conhecemos. Como disse Gustavo Rabay, especialista na área: “Só os humanos têm direito a delirar. Delírio sintético é empulhação”.
Indignemo-nos. Ou seremos clonados pelo futuro.
Lenio Streck, Professor e advogado, é autor de ‘Robô não desce escada e trapezista não voa – os limites dos aprendizes de feiticeiro’ (Ed. Contracorrente, 2025)
