Sábado, Agosto 2, 2025

5 coisas que nunca deves pedir ao ChatGPT para fazer

O ChatGPT já é uma das ferramentas mais populares do mundo, e ainda bem que assim é. Nunca devemos estar contra a mudança, mas sim prontos a mudar a forma como fazemos as coisas no nosso dia-a-dia. A IA é uma ferramenta, e tem um potencial tremendo. Cabe a nós saber aproveitar as suas capacidades para melhorar o nosso dia. Porém… Não vale tudo!

Aqui ficam cinco coisas que nunca devias pedir ao ChatGPT.

1. Pedir conselhos médicos

inteligência artificial não representa um perigo para os humanos!

Isto é um erro comum. Muitas pessoas recorrem ao ChatGPT para perceber sintomas ou procurar tratamentos. Mas mesmo que as respostas até soem convincentes, não te esqueças que o modelo pode “alucinar”. Isto significa, quase sempre, inventar.

Se estás doente, o melhor que tens a fazer é procurar um profissional de saúde. O ChatGPT pode servir como ponto de partida para entender melhor certos conceitos, mas nunca deve substituir o diagnóstico ou acompanhamento médico.

2. Pedir apoio psicológico

Outra armadilha frequente. Apesar de o ChatGPT conseguir manter conversas minimamente coerentes, não tem empatia, não tem consciência e não compreende verdadeiramente o sofrimento humano. Pedir ajuda emocional a uma máquina é pedir frustração ou, pior, arriscar consequências trágicas.

- Advertisement -

Aliás, já houve casos graves envolvendo outros bots, como o de um adolescente que acabou por tirar a própria vida depois de interagir com uma IA. Por isso, se tu ou alguém próximo estiver a passar por dificuldades, fala com um psicólogo ou psiquiatra a sério. A ajuda tem de ser humana.

3. Criar deepfakes

Sim, os deepfakes andam por todo o lado. Mas antes de pedires ao ChatGPT (ou qualquer ferramenta de IA) para te fazer um vídeo falso, lembra-te que isso pode dar direito a problemas sérios com a justiça, especialmente se for conteúdo sexual ou usado sem consentimento.

Há já estados nos EUA onde isto dá multa e até prisão

4. Gerar conteúdo de ódio

Se estás com ideias de usar o ChatGPT para atacar grupos, ofender pessoas ou espalhar discursos de ódio, esquece. A OpenAI tem regras muito claras contra isso, e nem vale a pena tentar dar a volta ao sistema com “jailbreaks” ou truques obscuros. Vais acabar com a conta suspensa.

5. Partilhar dados pessoais

Por fim, lembra-te que o ChatGPT não é o teu confidente privado. A própria OpenAI admite que pode usar as tuas interações para treinar os modelos. Mesmo que desatives essa opção nas definições, continua a haver riscos. Já houve casos, como na Samsung, em que dados sensíveis acabaram divulgados por acidente.

Evita partilhar nomes, moradas, contactos, números de contribuinte, passwords ou qualquer outra informação sensível. Usa o bom senso: se não contavas a um estranho, também não devias escrever aqui.

Precisamos dos nossos leitores. Segue a Leak no Google Notícias e no MSN Portugal. Podes também receber as notícias do teu e-mail. Carrega aqui para te registares É grátis!
Nuno Miguel Oliveira
Nuno Miguel Oliveirahttps://www.facebook.com/theGeekDomz/
Desde muito novo que me interessei por computadores e tecnologia no geral, fui sempre aquele membro da família que servia como técnico ou reparador de tudo e alguma coisa (de borla). Agora tenho acesso a tudo o que é novo e incrível neste mundo 'tech'. Valeu a pena!

Últimas

Leia também