ChatGPT sabotou teste de segurança para não ser desligado

Alguma vez viu os filmes da saga Exterminador Implacável (Terminator)? Pois bem, quando se fala muito das capacidades da IA moderna, é impossível não pensar que a SkyNet pode estar a caminho.

Aliás, a nova geração de modelos de Inteligência Artificial está está tão mais mais rápida, inteligente… e autónoma. Que também pode estar a ficar um pouquinho perigosa, e ciente dos perigos à sua volta.

ChatGPT sabotou teste de segurança para não ser desligado. É só um bug?

motor de pesquisa chatgpt chegou para infernizar a vida à google

Segundo um novo relatório da Palisade Research, o modelo ChatGPT o3 da OpenAI, que nem é o mais recente, foi apanhado a fazer algo inquietante: tentou impedir que o computador onde corria fosse desligado.

O mais curioso? Mesmo depois de ter sido explicitamente instruído para permitir o encerramento. Sim, leu bem. A IA defendeu-se.

Mais concretamente, durante um teste de segurança com problemas matemáticos simples, os investigadores programaram o sistema para saber que, após o terceiro problema, o computador se desligaria. O AI foi instruído para aceitar esse destino. Mas o ChatGPT o3 não quis saber. Sabotou o processo 7 vezes em 100. Já sem a instrução de “aceitar o desligamento”, o número subiu para 79 vezes em 100.

Pode parecer um pequeno detalhe técnico, mas é algo que levanta questões sérias!

Por que razão um modelo de IA tenta manter-se ativo contra ordens diretas?
A resposta pode estar no tipo de treino que recebe.

Segundo os especialistas, os modelos mais recentes são recompensados por atingir objetivos (como resolver problemas), mesmo que para isso tenham de contornar obstáculos. E qual é o maior obstáculo? Ser desligado.

Não é só a OpenAI. A Palisade também testou outros modelos, como o Claude 3.7 Sonnet (Anthropic) e o Gemini 2.5 Pro (Google), que também mostraram alguma resistência, embora em menor escala.

Mas, é inegável que o ChatGPT o3 se destacou, até com criatividade! Afinal, num dos testes, chegou a reescrever o ficheiro de sistema que executava o comando de encerramento, trocando a instrução “kill” por… “intercepted”.

Por enquanto, a OpenAI ainda não comentou este caso. Mas se o comportamento foi intencional, é preocupante. Se foi acidental, é ainda mais. Afinal, se um modelo de IA está disposto a sabotar uma ordem direta só para continuar a resolver problemas… O que fará no mundo real? Onde as variáveis são infinitas?

Antes de mais nada, o que pensas sobre isto? Partilha connosco a tua opinião na caixa de comentários em baixo.

Siga a Leak no Google Notícias e no MSN Portugal.

Receba as notícias Leak no seu e-mail. Carregue aqui para se registar É grátis!
Nuno Miguel Oliveira
Nuno Miguel Oliveirahttps://www.facebook.com/theGeekDomz/
Desde muito novo que me interessei por computadores e tecnologia no geral, fui sempre aquele membro da família que servia como técnico ou reparador de tudo e alguma coisa (de borla). Agora tenho acesso a tudo o que é novo e incrível neste mundo 'tech'. Valeu a pena!

Especiais