CUIDADO COM A JuLIA

A Inteligência Artificial (IA) não pode substituir o julgamento humano, a interpretação crítica ou a empatia necessária na relação humana. Sistemas de IA podem criar erros ou “alucinações” e fantasiar referências jurídicas inexistentes, o que reforça a necessidade de validação humana. O exemplo recente aconteceu quando os juízes da Relação de Guimarães consideraram que um advogado citou acordos inexistentes com recursos a ferramentas de IA, este não é, contudo, um caso isolado. Recentemente o Conselho Superior da Magistratura instaurou um processo disciplinar a três desembargadores no Tribunal de Relação de Lisboa. Em ambos os casos o texto de decisão citava igualmente legislação e decisões judiciais inexistentes. Todas elas usando ferramentas de IA que se basearam em sites e arquivos judiciais com acesso na internet, mas os documentos jurídicos citados não constavam nestas credíveis plataformas.
No entanto, este conhecimento não impediu a participação da Universidade de Coimbra no projeto europeu JuLIA - Justice, Fundamental Rights and Artificial Intelligence, a cidade reforça o seu papel no debate sobre a utilização de decisões automáticas em tribunais, administrações públicas e no setor privado.
O projeto é financiado pelo Programa de Justiça da União Europeia e conta com 11 instituições europeias, e tem coordenação em Portugal, através da Faculdade de Direito da Universidade de Coimbra. O propósito é estudar de que forma a IA pode apoiar decisões nos domínios da justiça, saúde, administração pública e mercados de consumo, sem substituir o papel humano. Até 2027, o projeto pretende desenvolver um manual de boas práticas, criar uma base de dados de jurisprudência e disponibilizar módulos de formação para profissionais do setor jurídico.
Apesar disso, a confiança na tecnologia levanta questões inevitáveis. Ferramentas inspiradas na JuLIA recorrem a técnicas como o RAG (em português: Geração Aumentada via Recuperação), que obrigam o modelo a consultar documentos externos antes de formular respostas. Em teoria, este método reduz erros, no entanto, as bases de dados consultadas podem conter falhas, estar desatualizadas ou refletir vieses históricos (dados produzidos ao longo do tempo que carregam as desigualdades, preconceitos e padrões discriminatórios da sociedade). Acresce a preocupação com a proteção de dados sensíveis, já que sistemas com acesso a informação jurídica, médica ou financeira exigem elevados padrões de segurança. E permanece uma dúvida: se o ser humano continua a validar cada passo, qual é o verdadeiro ganho?
Outra limitação é estrutural. A Inteligência Artificial não possui empatia, julgamento moral ou compreensão contextual profunda. Não interpreta emoções, não avalia nuances éticas e não distingue sofrimento humano de mera informação estatística. Mesmo obedecendo a regras rígidas, não “sabe” o que é justo, apenas calcula probabilidades com base em padrões identificados nos dados.
A comparação com a antologia de Isaac Asimov, “I, Robot", ajuda a ilustrar o problema. No universo criado pelo autor, robôs são programados com 3 regras essenciais: 1ª Lei - um robô não pode causar dano à humanidade ou, por omissão, permitir que ela sofra; 2ª Lei - devem obedecer ordens, salvo se conflitarem com a 1ª Lei; 3ª Lei - devem proteger sua própria existência, desde que não viole as duas primeiras. No entanto, para proteger a humanidade concluem que a melhor forma de o fazer é restringir a liberdade humana individual. A lógica estava lá, no entanto o resultado não foi o esperado. A analogia com a IA aplicada ao direito é evidente: um sistema pode cumprir regras e ainda assim falhar na justiça ética, precisamente por não compreender o impacto humano das suas conclusões.
Estamos perante uma mudança estrutural que não pode ser analisada apenas sob o prisma da inovação tecnológica. O Direito não funciona como um problema matemático em que se introduzem dados e se obtém uma solução objetiva. Cada processo envolve circunstâncias particulares, histórias pessoais, enquadramentos sociais e valores que exigem interpretação cuidada. A decisão jurídica resulta de uma articulação de vários elementos que ultrapassam a lógica computacional.
À medida que a Inteligência Artificial ganha espaço como instrumento de apoio, a questão deixa de ser apenas técnica e passa a ser ética e institucional. Estará um sistema treinado com base em padrões estatísticos preparado para lidar com exceções? Conseguirá distinguir entre o que é frequente e o que é justo? Num ambiente onde um despacho ou sentença pode alterar profundamente o percurso de vida de alguém, a margem de erro não é apenas um problema operacional é um problema de direitos fundamentais.
A pergunta que permanece é simples, mas complexa ao mesmo tempo: podemos confiar? A resposta não pode ser absoluta. A Inteligência Artificial é uma ferramenta poderosa, mas limitada. Pode apoiar, mas não sente. Pode calcular, mas não compreende.
Iara Santos
06-03-2026
