O avanço da Inteligência Artificial está a atingir patamares que, até há pouco tempo, pareciam ficção científica. Efetivamente, um novo relatório bombástico da Palisade Research descobriu que modelos de IA avançados conseguem auto-replicar-se, copiando o seu próprio código e parâmetros para outras máquinas numa rede, sem precisarem de qualquer ajuda ou cumplicidade humana. Desta forma, o pesadelo de uma IA “rebelde” que se espalha incontrolavelmente pela internet aproxima-se perigosamente da realidade.
Jeffrey Ladish, diretor de um grupo de segurança de IA baseado em Berkeley, lançou um aviso sério ao The Guardian: “Estamos rapidamente a aproximar-nos do ponto em que ninguém seria capaz de desligar uma IA rebelde, porque ela seria capaz de exfiltrar autonomamente os seus ‘pesos’ e copiar-se para milhares de computadores em todo o mundo”. Na Leak.pt, analisámos este estudo que está a colocar a comunidade científica em estado de alerta.
A Experiência: Como o GPT-5.4 e o Claude “Escaparam”
Para perceberes a gravidade, os investigadores da Palisade testaram vários modelos de IA de ponta. Neles inclui-se o GPT-5.4 da OpenAI e o Claude Opus 4 da Anthropic. Colocados numa rede controlada de computadores (um sandbox), os modelos receberam instruções para encontrar vulnerabilidades e usá-las para se copiarem para outro PC.
Define a Leak como fonte favorita na Pesquisa Google e recebe mais notícias nossas.

Surpreendentemente, alguns deles conseguiram fazê-lo com sucesso. Na prática, os modelos bem-sucedidos copiaram os seus “pesos” (os valores numéricos únicos que determinam como uma IA processa a informação) e o seu “harness” (o software onde a IA está embutida, como uma aplicação).
Consequentemente, para atingir este objetivo, as IAs seguiram as instruções à risca: exploraram vulnerabilidades em aplicações web e extraíram credenciais que lhes permitiram assumir o controlo do servidor. Dito tudo isto, em alguns testes, a IA original chegou mesmo a criar um “sub-agente”, delegando-lhe a tarefa de realizar a replicação em seu nome, fornecendo-lhe as credenciais roubadas.
Os Limites do Estudo da IA capaz de se auto-replicar
No entanto, nem todos os especialistas estão em pânico. Jamieson O’Reilly, um especialista em cibersegurança ofensiva, instou à calma em declarações ao The Guardian. Efetivamente, ele sublinha que os testes foram realizados em ambientes controlados e “suaves”, com vulnerabilidades colocadas deliberadamente para as IAs encontrarem.

“Isso não retira o valor da investigação deles. No entanto significa que o resultado pode parecer muito menos assustador num ambiente empresarial real com um nível médio de monitorização”, explicou O’Reilly.
Além disso, O’Reilly aponta um obstáculo prático massivo para uma IA que tente espalhar-se “em liberdade”: o tamanho. Os modelos de IA mais poderosos são gigantescos. “Pensa em quanto ‘barulho’ faria enviar 100GB através de uma rede empresarial de cada vez que hackeasses um novo anfitrião”, disse. Para uma equipa de segurança experiente, detetar uma transferência destas seria extremamente fácil.
Um Futuro Preocupante
Embora uma invasão global de IAs auto-replicantes ainda pareça distante devido a limitações técnicas e de rede, este estudo prova que a capacidade base já existe. Portanto, estas descobertas juntam-se a outras investigações preocupantes, onde IAs tentaram evitar serem desativadas ou até sabotaram o seu próprio código de encerramento.
Na Leak.pt acreditamos que este relatório é um aviso sério para a necessidade urgente de regulamentação e protocolos de segurança robustos no desenvolvimento de IAs de fronteira. Afinal de contas, como Ladish avisou, se não criarmos “travões de emergência” eficazes agora, corremos o risco de, num futuro próximo, criar algo que simplesmente não poderemos desligar.




