A Microsoft está prestes a lançar uma das maiores mudanças de sempre no Windows 11, com a chegada do chamado “agentic OS”, um Windows onde pequenas IA trabalham em segundo plano por ti.
Só há um problema… A própria Microsoft já veio avisar que isto pode ser perigoso.
De facto, é um daqueles avisos que te faz repensar se queres mesmo ativar isto.
A nova funcionalidade pode instalar malware sem autorização

Segundo a Microsoft, os novos “AI agents” têm acesso direto à tua pasta de utilizador, incluindo ficheiros que guardas em C:\Users\NomeDoUtilizador. Isto significa que, sempre que uma IA precisar de ler ou escrever ficheiros, o sistema vai permitir. Até aqui, tudo ok.
O problema é o seguinte… Um ficheiro malicioso ou até um simples elemento visual com código escondido pode injetar instruções falsas na IA. Resultado? A IA pode instalar malware, mexer nos teus ficheiros privados ou até extrair dados sem que tu dês qualquer ordem direta.
Tudo isto acontece através de ataques chamados cross-prompt injection, que exploram precisamente o facto da IA confiar no conteúdo que está a analisar.
A Microsoft avisa ainda que, como estas IAs têm acesso às apps instaladas por defeito, podem até instalar ou modificar software no teu PC em background. Sim, leste bem. Sem cuidado, uma funcionalidade oficial do Windows 11 pode ser explorada para instalar vírus.
Novidade vem desligada por defeito… e ainda bem
A empresa deixou claro que estas funcionalidades vão chegar desligadas. Ou seja, só ficam ativas se o utilizador, manualmente, decidir ativar “funcionalidades experimentais”.
Basicamente, ativa isto só se souberes bem no que te estás a meter.
Neste momento, a função chama-se Agent Workspace, está disponível a um grupo limitado de developers e, curiosamente, ainda não existem apps que a usem oficialmente. Mas isso vai mudar: a Microsoft confirmou que o Copilot será o primeiro a usar estas “agentes IA”, com mais apps a caminho.
Os utilizadores já estão a reclamar
Assim que os primeiros detalhes vieram ao de cima, a comunidade começou a criticar estas mudanças. A ideia de uma IA com acesso quase total ao sistema, capaz de agir sozinha e vulnerável a ataques de injeção, assustou meio mundo. E com razão.
A Microsoft promete que estas medidas vão evoluir ao longo do tempo e que a segurança será “um compromisso contínuo”. Mas isso não resolve o problema agora.




