É um aviso muito sério. Só há uma forma de controlar aquilo que está a partilhar com a Inteligência Artificial e não é tão fácil como parece. É exatamente por esse motivo que foi lançado um novo aviso para quem utiliza o Gmail. Isto porque a Inteligência Artificial chegou a todo o lado. Assim vários utilizadores estão a ser apanhados no meio de um mundo que ainda não controlam e eventualmente a fazerem algumas acções que nem sequer deram conta.
Com a recente atualização da Google para adicionar definições de IA predefinidas às principais aplicações do Workspace – em primeiro lugar o Gmail, aqueles que pretendem salvaguardar os seus dados estão à procura de controlos fáceis. Mas, neste momento, isso é um grande problema. O site 9to5Google, revelou que “como o Gemini está agora disponível para os subscritores do Google Workspace, os administradores descobriram que a capacidade de desativar as novas funcionalidades de IA está escondida atrás de uma conversa com o suporte da Google”.
A fuga de dados através de motores de IA é agora notícia de primeira página. Isto graças ao DeepSeek, a resposta da China ao Gemini e ao ChatGPT. E embora esse exemplo seja claramente grave, com os dados dos utilizadores e o rastreio a irem para a China por defeito e controlos de segurança fracos, o Gemini também foi alvo de críticas.
Todos os utilizadores podem estar em risco
Mas a questão não se prende só com os utilizadores de sistemas, mas também com os utilizadores finais. Ao estarmos a utilizar ferramentas de IA generativa, por exemplo, para fazerem os resumos do que recebemos no Gmail estamos a dar essas informações aos sistemas de inteligência artificial.
A empresa Harmonic Security lançou o aviso de que as ferramentas de IA generativa “apresentam riscos significativos relacionados com a segurança dos dados. Apesar do seu potencial, muitas organizações hesitam em adotar plenamente as ferramentas de IA. Isto devido a preocupações com a partilha inadvertida de dados sensíveis e a sua possível utilização para treinar estes sistemas. As organizações arriscam-se a perder a sua vantagem competitiva se expuserem dados sensíveis. Mas, ao mesmo tempo, também se arriscam a perder se não adoptarem o GenAl e ficarem para trás.”
Todo o ecossistema de IA que está agora a adicionar-se às plataformas e serviços críticos que utilizamos necessita de um conjunto claro de controlos e políticas. Em vez disso, está a evoluir em tempo real com pouca consistência. Como diz 404Media, enquanto alguns utilizadores vão “adorar” as novas funcionalidades de IA, “outros vão querer fugir delas o mais rapidamente possível.