Anuncia na Leak comercial@leak.pt
AI News
  • Android
  • Apple
  • Burlas
  • Especiais
    • Vida digital
    • Computadores
    • Inteligência Artificial
    • Ciência
    • Tech
    • Retro
  • Streaming
  • Jogos
  • Auto
  • Reviews
  • Promoções
Nenhum resultado
Ver todos os resultados
Leak
  • Android
  • Apple
  • Burlas
  • Especiais
    • Vida digital
    • Computadores
    • Inteligência Artificial
    • Ciência
    • Tech
    • Retro
  • Streaming
  • Jogos
  • Auto
  • Reviews
  • Promoções
Nenhum resultado
Ver todos os resultados
Logo Leak
Nenhum resultado
Ver todos os resultados
A inteligência artificial já está a decidir quem é culpado em tribunal (sem juízes)

A inteligência artificial já está a decidir quem é culpado em tribunal (sem juízes)

por Bruno Fonseca
8 de Outubro, 2025
em Inteligência Artificial
0
Segue a Leak Recebe as novidades onde dá mais jeito.
G Discover W WhatsApp N Google Notícias Notícias

Parece ficção científica mas já está a acontecer. Em vários países, a decisão sobre quem é culpado ou inocente deixou de ser totalmente humana. Alguns tribunais já usam inteligência artificial (IA) para analisar provas, prever reincidência e até sugerir sentenças. O problema? Nem sempre os juízes percebem como o sistema chegou àquela conclusão. E em alguns casos… não há sequer juízes envolvidos. Mas como atua a inteligência artificial no tribunal?

“O algoritmo recomendou prisão preventiva”

Nos Estados Unidos, há um software chamado COMPAS (Correctional Offender Management Profiling for Alternative Sanctions). Ele analisa dezenas de fatores, histórico criminal, morada, emprego, nível de instrução, idade, e calcula o risco de uma pessoa voltar a cometer crimes.

inteligência artificial não representa um perigo para os humanos!

Pesquisa Google Não queres perder o melhor da Leak?

Define a Leak como fonte favorita na Pesquisa Google e recebe mais notícias nossas.

Adiciona agora

O resultado aparece em segundos: uma pontuação de “risco”.

E com base nisso, o tribunal decide se o arguido espera julgamento em liberdade ou atrás das grades.

O problema é que ninguém fora da empresa que criou o sistema sabe exatamente como ele pensa. E vários estudos revelaram algo assustador: a IA tende a considerar mais “perigosos” arguidos de minorias étnicas, mesmo em crimes idênticos.

Em 2016, o caso de Eric Loomis vs. Wisconsin chegou ao Supremo Tribunal dos EUA:
Loomis foi condenado com base num relatório gerado por IA e nem ele nem os advogados puderam questionar o algoritmo.

A máquina decidiu.

Quando o computador “julga” melhor que o humano

Defensores destes sistemas dizem que os algoritmos são mais rápidos, objetivos e imparciais. Afinal, uma IA não se deixa influenciar por emoções, aparência ou cansaço.

Mas há uma armadilha: a IA aprende com dados humanos. E se os dados contêm preconceitos o resultado também vai refletir esses preconceitos.

Há países que foram ainda mais longe:

China: tribunais já testam sistemas que avaliam provas, transcrevem depoimentos e sugerem penas automáticas.

Estónia: criou um projeto de “juiz digital” para resolver litígios civis até 7.000 euros, totalmente sem intervenção humana.

Reino Unido e Canadá: usam IA para prever probabilidade de reincidência e detetar mentiras em interrogatórios.

E a tendência está a expandir-se.

inteligência artificial não representa um perigo para os humanos!

Justiça sem alma?

Um tribunal pode usar IA para analisar provas. Mas quando o veredito final é influenciado, ou determinado, por um algoritmo, entra-se num território perigoso.

A justiça baseia-se na empatia, na interpretação do contexto e na capacidade de ponderar fatores humanos. Uma IA não sente remorso, não percebe ironia, não distingue sarcasmo de confissão.

E quando os tribunais confiam cegamente na tecnologia, o erro deixa de ser humano. Assim passa a ser sistémico.

Portugal também está a caminho?

Portugal ainda não tem “juízes digitais”, mas o Conselho Superior da Magistratura já discute a integração de ferramentas de IA para acelerar processos. Em 2025, o Ministério da Justiça lançou um programa-piloto para análise automática de jurisprudência e documentos judiciais, com base em modelos de linguagem (como o GPT).

A promessa é eficiência. Mas a fronteira entre “auxiliar” e “decidir” pode ser muito ténue.

O perigo invisível: o viés algorítmico

Um estudo da Universidade de Cambridge alertou para o risco de “automatização da injustiça”: sistemas que aprendem a punir de forma desigual com base em padrões sociais, económicos e raciais.

Ou seja, se o passado foi injusto a IA vai perpetuar essa injustiça. E o pior: sem sabermos como corrigi-la.

Entretanto muitos destes sistemas são “caixas negras”. Assim nem os programadores conseguem explicar por que razão o algoritmo tomou determinada decisão.

E o futuro?

Imagina um tribunal em 2035: Um arguido entra numa sala com câmaras, sensores e reconhecimento facial. A IA analisa o tom de voz, o histórico de redes sociais, os registos financeiros. Em minutos, recomenda uma sentença. Rápido. Preciso. E frio. Sem juiz. Nem júri. Sem alma.

Tags: destaque
SummarizePartilhar234
Bruno Fonseca

Bruno Fonseca

Fundador da Leak, estreou-se no online em 1999 quando criou a CDRW.co.pt. Deu os primeiros passos no mundo da tecnologia com o Spectrum 48K e nunca mais largou os computadores. É viciado em telemóveis, tablets e gadgets.

Artigos relacionados

Investigadores alarmados com IA capaz de se auto-replicar noutras máquinas

Investigadores alarmados com IA capaz de se auto-replicar noutras máquinas

por Bruno Fonseca
2 dias atrás

O avanço da Inteligência Artificial está a atingir patamares que, até há pouco tempo, pareciam ficção científica. Efetivamente, um novo relatório bombástico da Palisade Research descobriu que modelos...

Acesso do Chinês ao Claude com 90% de desconto rouba os teus dados

Acesso do Chinês ao Claude com 90% de desconto rouba os teus dados

por Bruno Fonseca
3 dias atrás

A promessa de tecnologia de ponta a preços de saldo é quase sempre uma armadilha, e o mundo da Inteligência Artificial não é exceção. Efetivamente, uma investigação recente...

inteligência artificial não representa um perigo para os humanos!

Este país acabou de proibir despedimentos causados pela Inteligência Artificial

por Bruno Fonseca
1 semana atrás

O rápido crescimento da Inteligência Artificial trouxe um mar de novas possibilidades tecnológicas ao nosso dia a dia. Efetivamente, esta evolução acelerada gerou também uma das maiores e...

gpt-4 vs. gpt-4o vs. gpt-4o mini: quais são as diferenças?

ChatGPT está mais inteligente: descobre tudo sobre o novo GPT-5.5

por Bruno Fonseca
3 semanas atrás

A OpenAI acabou de anunciar uma atualização de peso para o ChatGPT. A famosa inteligência artificial recebeu oficialmente a nova versão denominada GPT-5.5. Efetivamente, a empresa garante que...

Artigo Seguinte
Xiaomi continua a apostar forte nas TVs em Portugal!

Desliga estes aparelhos em casa e poupa mais de 100€!

Deixar comentário
  • Sobre
  • Ficha técnica
  • Estatuto editorial
  • Termos e Condições
  • Política de Cookies
  • Contactos
Anuncia na Leak
comercial@leak.pt

Leak@2026 - Todos os direitos reservados

Nenhum resultado
Ver todos os resultados
  • Android
  • Apple
  • Burlas
  • Especiais
    • Vida digital
    • Computadores
    • Inteligência Artificial
    • Ciência
    • Tech
    • Retro
  • Streaming
  • Jogos
  • Auto
  • Reviews
  • Promoções

Leak@2026 - Todos os direitos reservados