Quarta-feira, Outubro 8, 2025

A inteligência artificial já está a decidir quem é culpado em tribunal (sem juízes)

Parece ficção científica mas já está a acontecer. Em vários países, a decisão sobre quem é culpado ou inocente deixou de ser totalmente humana. Alguns tribunais já usam inteligência artificial (IA) para analisar provas, prever reincidência e até sugerir sentenças. O problema? Nem sempre os juízes percebem como o sistema chegou àquela conclusão. E em alguns casos… não há sequer juízes envolvidos. Mas como atua a inteligência artificial no tribunal?

“O algoritmo recomendou prisão preventiva”

Nos Estados Unidos, há um software chamado COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Ele analisa dezenas de fatores, histórico criminal, morada, emprego, nível de instrução, idade, e calcula o risco de uma pessoa voltar a cometer crimes.

inteligência artificial não representa um perigo para os humanos!

O resultado aparece em segundos: uma pontuação de “risco”.

E com base nisso, o tribunal decide se o arguido espera julgamento em liberdade ou atrás das grades.

O problema é que ninguém fora da empresa que criou o sistema sabe exatamente como ele pensa. E vários estudos revelaram algo assustador: a IA tende a considerar mais “perigosos” arguidos de minorias étnicas, mesmo em crimes idênticos.

Em 2016, o caso de Eric Loomis vs. Wisconsin chegou ao Supremo Tribunal dos EUA:
Loomis foi condenado com base num relatório gerado por IA e nem ele nem os advogados puderam questionar o algoritmo.

A máquina decidiu.

Quando o computador “julga” melhor que o humano

Defensores destes sistemas dizem que os algoritmos são mais rápidos, objetivos e imparciais. Afinal, uma IA não se deixa influenciar por emoções, aparência ou cansaço.

Mas há uma armadilha: a IA aprende com dados humanos. E se os dados contêm preconceitos o resultado também vai refletir esses preconceitos.

Há países que foram ainda mais longe:

China: tribunais já testam sistemas que avaliam provas, transcrevem depoimentos e sugerem penas automáticas.

Estónia: criou um projeto de “juiz digital” para resolver litígios civis até 7.000 euros, totalmente sem intervenção humana.

Reino Unido e Canadá: usam IA para prever probabilidade de reincidência e detetar mentiras em interrogatórios.

E a tendência está a expandir-se.

inteligência artificial não representa um perigo para os humanos!

Justiça sem alma?

Um tribunal pode usar IA para analisar provas. Mas quando o veredito final é influenciado, ou determinado, por um algoritmo, entra-se num território perigoso.

A justiça baseia-se na empatia, na interpretação do contexto e na capacidade de ponderar fatores humanos. Uma IA não sente remorso, não percebe ironia, não distingue sarcasmo de confissão.

E quando os tribunais confiam cegamente na tecnologia, o erro deixa de ser humano. Assim passa a ser sistémico.

Portugal também está a caminho?

Portugal ainda não tem “juízes digitais”, mas o Conselho Superior da Magistratura já discute a integração de ferramentas de IA para acelerar processos. Em 2025, o Ministério da Justiça lançou um programa-piloto para análise automática de jurisprudência e documentos judiciais, com base em modelos de linguagem (como o GPT).

A promessa é eficiência. Mas a fronteira entre “auxiliar” e “decidir” pode ser muito ténue.

O perigo invisível: o viés algorítmico

Um estudo da Universidade de Cambridge alertou para o risco de “automatização da injustiça”: sistemas que aprendem a punir de forma desigual com base em padrões sociais, económicos e raciais.

Ou seja, se o passado foi injusto a IA vai perpetuar essa injustiça. E o pior: sem sabermos como corrigi-la.

Entretanto muitos destes sistemas são “caixas negras”. Assim nem os programadores conseguem explicar por que razão o algoritmo tomou determinada decisão.

E o futuro?

Imagina um tribunal em 2035: Um arguido entra numa sala com câmaras, sensores e reconhecimento facial. A IA analisa o tom de voz, o histórico de redes sociais, os registos financeiros. Em minutos, recomenda uma sentença. Rápido. Preciso. E frio. Sem juiz. Nem júri. Sem alma.

Precisamos dos nossos leitores. Segue a Leak no Google Notícias e no MSN Portugal. Temos uma nova comunidade no WhatsApp à tua espera. Podes também receber as notícias do teu e-mail. Carrega aqui para te registares É grátis!

Bruno Fonseca
Bruno Fonseca
Fundador da Leak, estreou-se no online em 1999 quando criou a CDRW.co.pt. Deu os primeiros passos no mundo da tecnologia com o Spectrum 48K e nunca mais largou os computadores. É viciado em telemóveis, tablets e gadgets.

TRENDING

Leia também

Percebemos que usas bloqueador de anúncios. Mas são os anúncios que mantêm o site gratuito e atualizado todos os dias. 🙌

👉 Desativa o bloqueador só aqui na Leak.pt e apoia o nosso trabalho.

Prometemos não te chatear com pop-ups intrusivos. 💙