Alguma vez viu os filmes da saga Exterminador Implacável (Terminator)? Pois bem, quando se fala muito das capacidades da IA moderna, é impossível não pensar que a SkyNet pode estar a caminho.
Aliás, a nova geração de modelos de Inteligência Artificial está está tão mais mais rápida, inteligente… e autónoma. Que também pode estar a ficar um pouquinho perigosa, e ciente dos perigos à sua volta.
ChatGPT sabotou teste de segurança para não ser desligado. É só um bug?
Segundo um novo relatório da Palisade Research, o modelo ChatGPT o3 da OpenAI, que nem é o mais recente, foi apanhado a fazer algo inquietante: tentou impedir que o computador onde corria fosse desligado.
O mais curioso? Mesmo depois de ter sido explicitamente instruído para permitir o encerramento. Sim, leu bem. A IA defendeu-se.
Mais concretamente, durante um teste de segurança com problemas matemáticos simples, os investigadores programaram o sistema para saber que, após o terceiro problema, o computador se desligaria. O AI foi instruído para aceitar esse destino. Mas o ChatGPT o3 não quis saber. Sabotou o processo 7 vezes em 100. Já sem a instrução de “aceitar o desligamento”, o número subiu para 79 vezes em 100.
Pode parecer um pequeno detalhe técnico, mas é algo que levanta questões sérias!
Por que razão um modelo de IA tenta manter-se ativo contra ordens diretas?
A resposta pode estar no tipo de treino que recebe.
Segundo os especialistas, os modelos mais recentes são recompensados por atingir objetivos (como resolver problemas), mesmo que para isso tenham de contornar obstáculos. E qual é o maior obstáculo? Ser desligado.
Não é só a OpenAI. A Palisade também testou outros modelos, como o Claude 3.7 Sonnet (Anthropic) e o Gemini 2.5 Pro (Google), que também mostraram alguma resistência, embora em menor escala.
Mas, é inegável que o ChatGPT o3 se destacou, até com criatividade! Afinal, num dos testes, chegou a reescrever o ficheiro de sistema que executava o comando de encerramento, trocando a instrução “kill” por… “intercepted”.
Por enquanto, a OpenAI ainda não comentou este caso. Mas se o comportamento foi intencional, é preocupante. Se foi acidental, é ainda mais. Afinal, se um modelo de IA está disposto a sabotar uma ordem direta só para continuar a resolver problemas… O que fará no mundo real? Onde as variáveis são infinitas?
Antes de mais nada, o que pensas sobre isto? Partilha connosco a tua opinião na caixa de comentários em baixo.