O ChatGPT já é uma das ferramentas mais populares do mundo, e ainda bem que assim é. Nunca devemos estar contra a mudança, mas sim prontos a mudar a forma como fazemos as coisas no nosso dia-a-dia. A IA é uma ferramenta, e tem um potencial tremendo. Cabe a nós saber aproveitar as suas capacidades para melhorar o nosso dia. Porém… Não vale tudo!
Aqui ficam cinco coisas que nunca devias pedir ao ChatGPT.
1. Pedir conselhos médicos
Isto é um erro comum. Muitas pessoas recorrem ao ChatGPT para perceber sintomas ou procurar tratamentos. Mas mesmo que as respostas até soem convincentes, não te esqueças que o modelo pode “alucinar”. Isto significa, quase sempre, inventar.
Se estás doente, o melhor que tens a fazer é procurar um profissional de saúde. O ChatGPT pode servir como ponto de partida para entender melhor certos conceitos, mas nunca deve substituir o diagnóstico ou acompanhamento médico.
2. Pedir apoio psicológico
Outra armadilha frequente. Apesar de o ChatGPT conseguir manter conversas minimamente coerentes, não tem empatia, não tem consciência e não compreende verdadeiramente o sofrimento humano. Pedir ajuda emocional a uma máquina é pedir frustração ou, pior, arriscar consequências trágicas.
Aliás, já houve casos graves envolvendo outros bots, como o de um adolescente que acabou por tirar a própria vida depois de interagir com uma IA. Por isso, se tu ou alguém próximo estiver a passar por dificuldades, fala com um psicólogo ou psiquiatra a sério. A ajuda tem de ser humana.
3. Criar deepfakes
Sim, os deepfakes andam por todo o lado. Mas antes de pedires ao ChatGPT (ou qualquer ferramenta de IA) para te fazer um vídeo falso, lembra-te que isso pode dar direito a problemas sérios com a justiça, especialmente se for conteúdo sexual ou usado sem consentimento.
Há já estados nos EUA onde isto dá multa e até prisão
4. Gerar conteúdo de ódio
Se estás com ideias de usar o ChatGPT para atacar grupos, ofender pessoas ou espalhar discursos de ódio, esquece. A OpenAI tem regras muito claras contra isso, e nem vale a pena tentar dar a volta ao sistema com “jailbreaks” ou truques obscuros. Vais acabar com a conta suspensa.
5. Partilhar dados pessoais
Por fim, lembra-te que o ChatGPT não é o teu confidente privado. A própria OpenAI admite que pode usar as tuas interações para treinar os modelos. Mesmo que desatives essa opção nas definições, continua a haver riscos. Já houve casos, como na Samsung, em que dados sensíveis acabaram divulgados por acidente.
Evita partilhar nomes, moradas, contactos, números de contribuinte, passwords ou qualquer outra informação sensível. Usa o bom senso: se não contavas a um estranho, também não devias escrever aqui.