Quantos segundos são precisos para clonarem a tua voz? Medo!

Imagina esta cena: recebes uma chamada do teu filho, do teu pai ou até do teu chefe. A voz é igualzinha. O tom, a respiração, até a hesitação típica daquela pessoa está lá. Do outro lado, pedem-te algo urgente: uma transferência de dinheiro, um código do banco, um favor imediato. Tudo parece legítimo… mas afinal não é. A pessoa nunca te ligou. Era apenas uma voz clonada por inteligência artificial e o que mais choca é que bastaram apenas segundos de gravação para o fazer. Mas quantos segundos são precisos para clonarem a tua voz?

15 segundos ou até menos chegam para clonarem a voz

Durante anos, pensava-se que para imitar uma voz era preciso recolher horas de gravações. Hoje, essa ideia está completamente ultrapassada. Grandes laboratórios de IA, como a OpenAI, provaram que apenas 15 segundos de áudio são suficientes para replicar uma voz ao ponto de enganar até familiares próximos.

medo de atender chamadas disparou por este motivo!

E o mais assustador? Outras ferramentas, disponíveis na internet e sem grandes barreiras de acesso, já fazem um clone funcional com 3 a 8 segundos de gravação. Basta uma chamada gravada, um áudio de WhatsApp, ou até uma publicação antiga nas redes sociais onde tenhas falado.

O resultado é uma cópia tão fiel que consegue transmitir emoção, sotaque e entoação natural, enganando facilmente qualquer pessoa que confie na voz como sinal de autenticidade.

Casos reais que provam o perigo

Não estamos a falar de ficção científica. Já há várias histórias documentadas:

O golpe milionário em Hong Kong: funcionários de uma empresa foram enganados por deepfakes de vídeo e voz que imitavam os executivos. Resultado: transferiram milhões para contas controladas pelos burlões.

O avô enganado nos EUA: um idoso recebeu uma chamada do “neto” a pedir dinheiro para sair de uma suposta situação de emergência. A voz era perfeita, mas falsa. O homem só descobriu mais tarde que tinha sido vítima de uma burla com voz clonada.

Campanhas políticas com áudios falsos: gravações deepfake de líderes a dizer frases que nunca pronunciaram já circularam antes de eleições, manipulando a opinião pública.

Se estas situações aconteceram com grandes empresas e políticos, imagina o que pode acontecer a qualquer cidadão comum.

desligar chamada de spam, burlões obtêm o número de telefone, atenção: as chamadas que atender podem não ser de humanos!

Como os burlões conseguem a tua voz

Podes pensar: “Mas eu nunca publiquei vídeos, estou seguro.” Infelizmente, não é bem assim. Assim a tua voz pode ser apanhada de várias formas:

Chamadas gravadas: entretanto qualquer telefonema, mesmo de segundos, pode ser interceptado ou guardado por quem queira usá-lo.

Redes sociais: vídeos antigos no Instagram, TikTok ou até num grupo de WhatsApp podem ser suficientes.

Mensagens de voz: cada áudio que envias pode ser uma mina de ouro para criminosos.

Fraudes em call centers: basta responderes a uma chamada automática e dizeres “Sim” ou algumas frases para os burlões ficarem com material suficiente.

O mais preocupante é que já não são precisos minutos de conversa. Em alguns casos, uma única frase de 5 segundos pode bastar para criar um clone aceitável.

Por que isto é tão perigoso

Vivemos numa era em que a voz era vista como algo único, quase como uma impressão digital. Bancos usavam-na para autenticação, famílias confiavam nela para reconhecer chamadas, e empresas a utilizavam em sistemas de verificação.

Mas agora, a confiança cega na voz pode ser uma armadilha. Os burlões já estão a explorar esta falha para:

  • Fazer pedidos de dinheiro a familiares, fingindo ser alguém próximo.
  • Enganar funcionários de empresas e autorizar transferências.
  • Espalhar desinformação política com áudios falsos.
  • Chantagear pessoas com gravações adulteradas.

O perigo é real e está a crescer todos os dias.

O que podes fazer para te proteger

Desconfia sempre de pedidos urgentes por telefone. Se um familiar pedir dinheiro, confirma por mensagem ou videochamada antes de agir.

Entretanto evita partilhar demasiados áudios em público. Assim o que parece inofensivo pode-se utilizar contra ti. Por outro lado usa senhas fortes em vez de autenticação por voz. Este método já não é seguro. Ao memo tempo educa os mais vulneráveis. Os burlões sabem que idosos ou pessoas menos digitais são alvos fáceis.

Confirma por outro canal. Se alguém te liga com urgência, volta a ligar para o número oficial ou envia mensagem por outra aplicação.

Se antes recebias uma chamada e bastava reconhecer o tom familiar para acreditar, hoje essa confiança pode ser o teu maior erro. A clonagem de voz não se trata de uma “coisa do futuro” já está aqui, já se utiliza em burlas e já enganou milhares de pessoas em todo o mundo.

A resposta à pergunta inicial é simples e assustadora: com apenas alguns segundos da tua voz, já conseguem criar um clone convincente. E isso significa que a tua melhor defesa não é a tecnologia, mas sim a desconfiança inteligente.

Na era da inteligência artificial, ouvir a voz de alguém já não é prova de que essa pessoa está mesmo do outro lado.

🔥 Este artigo foi útil?


Sê o primeiro a votar 🙂

Precisamos dos nossos leitores. Segue a Leak no Google Notícias e no MSN Portugal. Temos uma nova comunidade no WhatsApp à tua espera. Podes também receber as notícias do teu e-mail. Carrega aqui para te registares É grátis!

A ferver

Bruno Fonseca
Bruno Fonseca
Fundador da Leak, estreou-se no online em 1999 quando criou a CDRW.co.pt. Deu os primeiros passos no mundo da tecnologia com o Spectrum 48K e nunca mais largou os computadores. É viciado em telemóveis, tablets e gadgets.

Em destaque