De forma muito resumida, a Google pôs a IA a denunciar… a própria IA! Ainda bem.
Não sei quanto a ti, mas já fico um bocadinho assustado com algum do conteúdo que aparece nas redes sociais e eu já fico a pensar “isto… É real? Não faço ideia”. É assustador, mas é o novo normal.
Por isso, a Google deicidu meter as mãos à obra.
Gemini já consegue apanhar imagens feitas com IA!
Portanto, a Google lançou o Gemini 3 com muitas novidades, mas há uma que se destaca pela ironia: o chatbot passou finalmente a conseguir detetar se uma imagem foi criada por IA. É oficial, chegámos ao ponto em que a solução para o caos criado pela IA… é usar mais IA.
Mas, por estranho que pareça, esta ferramenta faz falta. A quantidade de imagens falsas, geradas por modelos cada vez mais realistas, cresce todos os dias. E distinguir o que é real do que é fabricado está a tornar-se quase impossível a olho nu.
AI a denunciar AI: como funciona o detector?
A Google está a expandir o seu sistema SynthID, uma marca de água digital invisível que é colocada automaticamente em imagens, vídeos, áudio e até texto gerado por IA.
Agora, o Gemini consegue:
- Receber uma imagem carregada pelo utilizador
- Invocar o detector através do comando @SynthID
- Identificar se a marca invisível está presente
- Indicar até quanto da imagem contém essa marca (por exemplo, apenas uma parte editada)
Ao contrário das marcas de água tradicionais, que estragam a imagem com um logótipo visível, o SynthID esconde tudo nos dados internos do ficheiro. Isto torna muito mais difícil remover os vestígios, mesmo após edições.
Há um problema: nem toda a IA usa SynthID…
E aqui está o calcanhar de Aquiles. Ou seja, o detector só funciona se o modelo de IA que gerou a imagem utilizar SynthID. E, naturalmente, nem todos usam. Há empresas que têm as suas próprias soluções, e há modelos open-source que não marcam nada.
Mesmo assim, a Google diz que está a trabalhar para trazer mais parceiros para o ecossistema SynthID.
Porque isto importa mesmo?
Estamos a entrar em uma era perigosa. Onde as celebridades têm fotos falsas a circular diariamente, políticos são alvo de deepfakes, e claro, onde notícias com imagens se espalham à velocidade da luz.
Por isso, ter uma forma simples de identificar conteúdos gerados por IA é cada vez mais essencial.
Não resolve tudo, mas é um passo importante.
Conclusão
O Gemini ganha assim uma ferramenta que deve tornar-se padrão na indústria:
um sistema direto e integrado que te diz se a imagem que estás a ver nasceu na realidade ou no CPU de alguém.
🔥 Este artigo foi útil?
Precisamos dos nossos leitores. Segue a Leak no Google Notícias e no MSN Portugal. Temos uma nova comunidade no WhatsApp à tua espera. Podes também receber as notícias do teu e-mail. Carrega aqui para te registares É grátis!


