Uma recente falha na citação de dispositivo legal inexistente em um acórdão pelo Tribunal de Justiça de Mato Grosso evidencia os riscos e desafios da incorporação de tecnologias de inteligência artificial no sistema judiciário brasileiro.
Claro, aqui seja feito o destaque. Não há na notícia que foi divulgada nenhuma menção que o “dispositivo” foi “inventado”por inteligência artificial:
Acórdão do TJ-MT cita artigo do Código Civil que não existe
Entretanto, a título ilustrativo, vamos pressupor que o artigo tenha sido inventado por inteligência artificial generativa. Isto porque, o intuito desse artigo é fazer um paralelo com o que tem acontecido no âmbito dos Advogados que estão fazendo mal uso dessa ferramenta.
Além disso, o caso, que merece análise profunda, coincide com a conclusão da minuta de resolução do CNJ sobre utilização de IA no Poder Judiciário.
O caso concreto do TJ-MT
Vamos aprofundar o caso, de acordo com o acórdão publicado no site do Conjur.
Nessa linha, o episódio ocorrido na 1ª Câmara de Direito Privado do Tribunal de Justiça de Mato Grosso revela a face mais preocupante do uso descuidado de ferramentas de IA na prática judicial.
Isto porque, narra-se que um acórdão foi lavrado, isto é, com o apoio do voto de 3 Desembargadores, que entretanto fundamentaram uma decisão em um dispositivo legal inexistente, atribuindo ao artigo 603 do Código Civil uma redação completamente distinta da original.
O acórdão citou o artigo como:
"Se o dono da obra desistir da execução do contrato sem justa causa, pagará ao empreiteiro todas as despesas que houver feito, o lucro que razoavelmente obteria e mais metade deste lucro."
No entanto, a redação verdadeira do dispositivo estabelece:
"Se o prestador de serviço for despedido sem justa causa, a outra parte será obrigada a pagar-lhe por inteiro a retribuição vencida, e por metade a que lhe tocaria de então ao termo legal do contrato."
Diferenças
Para você notar melhor as diferenças, façamos uma tabela:
Elemento | Dispositivo inexistente | Texto verdadeiro do Art. 603 do CC |
Sujeito ativo | Dono da obra | Outra parte (contratante) |
Sujeito passivo | Empreiteiro | Prestador de serviço |
Tipo de contrato | Contrato de empreitada | Contrato de prestação de serviços |
Situação regulada | Desistência unilateral pelo contratante | Despedida do prestador sem justa causa |
Efeito jurídico principal | Pagamento de indenização ampla | Pagamento de remuneração proporcional |
Componente indenizatório 1 | Todas as despesas já realizadas | Retribuição vencida (por inteiro) |
Componente indenizatório 2 | Lucro que razoavelmente obteria | Metade da retribuição até o termo do contrato |
Componente indenizatório 3 | Mais metade do lucro esperado | Não prevê componente adicional |
Natureza da compensação | Inclui reembolso de custos e investimentos | Limita-se à remuneração contratada |
Amplitude da indenização | Mais abrangente (despesas + lucros + bônus) | Mais restrita (remuneração apenas) |
Base legal real | Inexistente no ordenamento jurídico brasileiro | Art. 603 do Código Civil (Lei 10.406/2002) |
Ora, no caso, nos parece que não houve um mero erro de digitação, o que sugere o uso de ferramentas de IA generativa que, sem a devida supervisão humana, produziram uma norma completamente fabricada.
Nessa linha, esta falsa redação foi o fundamento central para negar provimento a um recurso e estabelecer uma tese jurídica, afetando diretamente os direitos das partes envolvidas.
O que diz o CNJ sobre o assunto?
Vale salientar que, o Conselho Nacional de Justiça conclui a minuta de resolução que estabelecerá parâmetros para utilização da inteligência artificial pelos tribunais brasileiros.
Dessa forma, o texto, produzido pelo grupo de trabalho coordenado pelo CNJ, teve sua aprovação ainda em março de 2025. Dessa maneira, a recente publicação da Resolução nº 615 do CNJ, de 11 de março de 2025, traz diversos elementos que seriam aplicáveis ao caso do TJ-MT onde houve a citação errônea de um dispositivo legal inexistente. Veja pelo menos 3 pontos relevantes:
Supervisão humana obrigatória
De início, o artigo 5º, inciso V, estabelece como fundamento “a participação e a supervisão humana em todas as etapas dos ciclos de desenvolvimento e de utilização das soluções”.
Dessa forma, este ponto é crucial para o caso do TJ-MT, pois houve claramente uma falha de supervisão humana quando os julgadores não verificaram a existência real do dispositivo legal citado. Isto porque, a resolução reforça que sistemas de IA são auxiliares e não substitutos do julgador.
Vedação de sistemas sem revisão humana

Ademais, o artigo 10, inciso I, veda expressamente soluções “que não possibilitem a revisão humana dos resultados propostos ao longo de seu ciclo de treinamento, desenvolvimento e uso, ou que gerem dependência absoluta do usuário em relação ao resultado proposto, sem possibilidade de alteração ou revisão”.
Ora, este dispositivo seria diretamente aplicável ao caso, onde parece ter ocorrido uma confiança excessiva no resultado produzido pela IA.
Responsabilidade por eventos adversos
Por fim, o artigo 42 determina que “os órgãos do Poder Judiciário deverão informar ao Comitê Nacional de Inteligência Artificial do Judiciário todos os eventos adversos relacionados ao uso de soluções de inteligência artificial”.
Dessa forma, o caso do TJ-MT configuraria claramente um evento adverso que deveria ser reportado, investigado e corrigido.
A realidade da IA nos tribunais brasileiros
Lado outro, o diagnóstico realizado pelo CNJ revela que 66% dos tribunais brasileiros (62 cortes) já utilizam ou estão implementando tecnologias de IA.
O Tribunal de Justiça do Rio Grande do Sul lidera o ranking, com 12 projetos implementados. Entre os benefícios mais citados pelos tribunais que adotaram essas tecnologias estão o aumento da eficiência (52,8%), a otimização de recursos (48,6%) e a automatização de tarefas repetitivas (45%).
Paradoxalmente, enquanto aproximadamente metade dos magistrados e servidores relatam usar ferramentas de IA, 70% deles afirmam utilizá-las “raramente” ou “eventualmente”, o que sugere um cenário de adoção ainda inicial, mas com potencial de crescimento acelerado.
Consequências divergentes: o abismo entre EUA e Brasil
As sanções rigorosas aos advogados nos EUA
Torna-se, importante destacar um paralelo com o que ocorre nos Estados Unidos é revelador.
Cortes dos EUA recorrem a multas para conter precedentes falsos gerados por IA
Isto porque, os Advogados americanos enfrentam sanções severas e imediatas por erros similares quando “inventam jurisprudências ou legislações”:
- Multas substanciais: valores que variam de US$ 1.000 a US$ 15.000 por citação falsa de precedentes gerados por IA, como no caso da Morgan & Morgan, onde apenas uma citação falsa resultou em multa de US$ 5.000;
- Revogação de privilégios processuais: advogados perdem seu status “pro hac vice” (autorização para atuar em jurisdição específica), mesmo quando apenas assinaram documentos sem participar de sua redação;
- Exigência de treinamento compulsório: determinação judicial para frequentar cursos específicos sobre uso ético de IA no campo jurídico;
- Danos reputacionais documentados: repercussão na imprensa jurídica e perda de credibilidade, frequentemente mencionada nas próprias decisões judiciais;
- Responsabilização mesmo sem dolo: como no caso de Rafael Ramirez, multado em US$ 15.000 mesmo argumentando que “não tinha conhecimento de que a IA gerava citações falsas”;
- Responsabilidade coletiva: pode-se responsabilizar o escritório inteiro, como ocorreu com a banca Levidow, Levidow & Oberman.
O juiz Kevin Castel, do Distrito Sul de Nova York, resumiu bem a postura ao declarar que “advogados têm um dever ético de checar as citações usadas em suas petições e de ler o caso para se assegurar de que o excerto é de uma lei existente”.
Quais seriam as consequências no Brasil para o caso do TJ-MT?
De início, vale salientar que há uma ausência de sanções diretas: não há evidências de aplicação de multas ou sanções disciplinares aos desembargadores que fundamentaram decisão em artigo inexistente.
O que se tem é a investigação pela Corregedoria do TJ-MT que pode existir berm como junto ao Comitê Nacional de Inteligência Artificial do Judiciário, criado pela resolução do CNJ de 2025.
Nos autos, é possível que se ajuízem Embargos de Declaração, ou até se a decisão tenha transitado em julgado, cabe ação rescisória por violação de dispositivo legal.
Quer saber quais serão os próximos concursos?
Confira nossos artigos para Carreiras Jurídicas!