A autoridade italiana para a proteção de dados bloqueou o serviço da empresa chinesa de inteligência artificial (IA) DeepSeek no país. Isto alegando falta de informação sobre a utilização dos dados pessoais dos utilizadores. O desenvolvimento surge dias depois de a autoridade de Itália, o Garante, ter enviado uma série de perguntas à DeepSeek, questionando as suas práticas de tratamento de dados e onde obtinha os seus dados de treino.
Itália acaba de fechar a porta à DeepSeek
Em particular, queria saber que dados pessoais se recolheram pela sua plataforma web e aplicação móvel. Também de que fontes, para que fins, com que base legal e se são armazenados na China.
Numa declaração emitida a 30 de janeiro de 2025, o Garante disse que chegou a esta decisão depois de a DeepSeek ter fornecido informações que disse serem “completamente insuficientes”.
Entretanto as entidades por detrás do serviço, Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence, “declararam que não operam em Itália e que a legislação europeia não se lhes aplica”, acrescentou.
Por conseguinte, o organismo de vigilância declarou que vai bloquear o acesso ao DeepSeek com efeitos imediatos e que está simultaneamente a abrir um inquérito.
Em 2023, a autoridade de proteção de dados também emitiu uma proibição temporária do ChatGPT da OpenAI. Uma restrição levantada no final de abril, depois de a empresa de inteligência artificial (IA) ter intervindo para resolver as questões de privacidade de dados levantadas. Posteriormente, a OpenAI foi multada em 15 milhões de euros pela forma como tratou os dados pessoais.
A notícia da proibição do DeepSeek surge numa altura em que a empresa tem estado a aproveitar a onda de popularidade desta semana. Isto com milhões de pessoas a aderir ao serviço e a colocar as suas aplicações móveis no topo das tabelas de descarregamento.
Para além de se ter tornado alvo de “ataques maliciosos em grande escala”, chamou a atenção dos legisladores e dos utilizadores habituais. Isto devido à sua política de privacidade, à censura alinhada com a China, à propaganda e aos problemas de segurança nacional que pode colocar. A empresa implementou uma correção a partir de 31 de janeiro para resolver os ataques aos seus serviços.
Um sistema perigoso
Uma avaliação mais aprofundada do modelo de raciocínio do DeepSeek, DeepSeek-R1, pela empresa de segurança de IA HiddenLayer, revelou que não é apenas vulnerável a injecções rápidas. Mas também que o seu raciocínio Chain-of-Thought (CoT) pode levar a fugas de informação inadvertidas.
Entretanto a empresa disse que o modelo também “revelou várias instâncias que sugerem que os dados da OpenAI foram incorporados. Isto levantando preocupações éticas e legais sobre o fornecimento de dados e a originalidade do modelo”.
A revelação segue-se à descoberta de uma vulnerabilidade no OpenAI ChatGPT-4o, apelidada de Time Bandit. Assim permite a um atacante contornar as barreiras de segurança do LLM, colocando questões ao chatbot de uma forma que o faz perder a sua consciência temporal. Desde então, a OpenAI mitigou o problema.