Terça-feira, Agosto 12, 2025

Homem seguiu conselho da IA e acabou internado na psiquiatria!

A Inteligência Artificial está em todo o lado. Recomenda restaurantes, escreve e-mails, cria imagens… e até dá “dicas” de saúde. Mas quando se trata de mexer com o corpo humano, confiar cegamente nestas respostas pode ser um erro com consequências graves. E foi exatamente isso que aconteceu a um homem que, ao seguir um plano “saudável” sugerido por um chatbot, acabou internado no hospital com uma intoxicação raríssima. Tudo começou com a melhor das intenções. O paciente queria reduzir o consumo de sal (cloreto de sódio) e decidiu procurar uma alternativa. Em vez de falar com um médico ou nutricionista, fez o que muitos de nós já fizemos: perguntou ao ChatGPT. Depois acabou internado na psiquiatria.

Homem seguiu conselho da IA e acabou internado na psiquiatria!

A resposta foi direta… mas fatalmente incompleta: sódio brometo. O homem encomendou o produto online e começou a usá-lo nas refeições. O problema? Esta substância até pode substituir o sal… mas normalmente quando estamos a falar de limpar jacuzzis, não de temperar batatas fritas. Um “pequeno detalhe” que a IA se esqueceu de mencionar.

Três meses depois, os sinais começaram a aparecer. Primeiro, pensamentos estranhos e desconfiança. Depois, delírios e alucinações visuais e auditivas. Convencido de que o vizinho o queria envenenar, tentou fugir do hospital onde tinha dado entrada e acabou em internamento psiquiátrico involuntário.

Os médicos depressa ligaram os pontos

Com base nas análises e na conversa com o paciente, descobriram que ele estava a sofrer de bromismo, uma intoxicação provocada pelo excesso de brometo no organismo. Para ter uma ideia, os níveis normais não ultrapassam 10 mg/L. O deste homem? 1.700 mg/L.

Esta era uma condição relativamente comum no início do século XX, responsável por até 8% das internações psiquiátricas da época. Mas praticamente desapareceu nos anos 70, quando medicamentos com brometo foram retirados do mercado. Hoje, um caso destes é tão raro que muitos médicos nunca o viram ao vivo.

- Advertisement -

Após três semanas de tratamento, o paciente teve alta sem sequelas graves. Mas o alerta fica: a IA é útil para muitas coisas, mas quando o assunto é saúde, não substitui um profissional qualificado.

Como os próprios médicos que assinaram o relatório concluíram:

“Entretanto a IA pode gerar imprecisões científicas, não consegue discutir resultados de forma crítica e pode espalhar desinformação. Assim é altamente improvável que um especialista tivesse sugerido brometo de sódio como alternativa ao sal.”

A lição? Use a tecnologia como ferramenta, não como médico. Porque, às vezes, um simples clique pode ser o primeiro passo para uma emergência hospitalar.

Precisamos dos nossos leitores. Segue a Leak no Google Notícias e no MSN Portugal. Podes também receber as notícias do teu e-mail. Carrega aqui para te registares É grátis!
Bruno Fonseca
Bruno Fonseca
Fundador da Leak, estreou-se no online em 1999 quando criou a CDRW.co.pt. Deu os primeiros passos no mundo da tecnologia com o Spectrum 48K e nunca mais largou os computadores. É viciado em telemóveis, tablets e gadgets.

Últimas

Leia também