Como deve imaginar, era apenas uma questão de tempo até que os hackers começassem a usar inteligência artificial para atacar tudo e mais alguma coisa, incluindo a própria inteligência artificial. Pois bem, esse momento chegou, e pelos vistos, com resultados preocupantes.
Estamos a falar de um novo método denominado de Fun-Tuning, desenvolvido por investigadores universitários, está a mostrar que os sistemas de IA como o Google Gemini podem ser manipulados com um grau de sucesso alarmante. O truque? Usar a própria API de fine-tuning da Google para criar ataques automatizados altamente eficazes.
Sim, os investigadores estão a usar as ferramentas da própria casa contra ela.
O que são ataques por “prompt injection”?
De forma muito resumnida, são técnicas que consistem em esconder instruções maliciosas nos textos lidos pela IA. Podem estar escondidas em códigos, em notas de rodapé ou até em conteúdos aparentemente inofensivos. Resultado? A IA é levada a ignorar as suas regras, podendo divulgar dados sensíveis, dar respostas erradas ou executar ações inesperadas.
Tradicionalmente, estes ataques exigiam muito tempo, tentativa e erro. Mas com o Fun-Tuning, a coisa muda de figura: o processo é automatizado e incrivelmente eficaz. Os investigadores conseguiram taxas de sucesso de 82% em alguns modelos do Gemini, quando os métodos antigos mal chegavam aos 30%.
Um ataque de IA guiado por IA!
No fundo, a técnica funciona como um míssil inteligente.
O sistema explora as respostas do modelo aos erros durante o treino para ajustar e aperfeiçoar os ataques. Pior ainda: um ataque bem sucedido num modelo do Gemini pode ter aproveitamento noutros. O que por sua vez significa que basta um hacker desenvolver um único prompt eficaz para fazer estragos em várias frentes.
E o custo? Estima-se que montar um ataque destes custe menos de 10 euros em recursos computacionais. Barato, acessível e, até agora, incrivelmente eficaz.
E agora?
A Google já reconheceu a ameaça, mas ainda não comentou se vai ou não alterar a API de fine-tuning. Os investigadores admitem que não será fácil defender contra esta abordagem sem sacrificar funcionalidades importantes para os programadores.
Assim, uma coisa é certa: a era da IA a combater IA já começou. E o próximo grande desafio não é criar IAs mais inteligentes, mas sim IAs que saibam proteger-se de outras.
Em suma, bem-vindos à guerra digital do futuro!
Antes de mais nada, o que pensa sobre tudo isto? Partilhe connosco a sua opinião na caixa de comentários em baixo.