
Já imaginaste receber uma chamada do teu filho a pedir dinheiro urgente, com a voz dele, o sotaque dele, e até o nervosismo que reconheces há anos? O problema é que pode não ser ele. Pode ser uma inteligência artificial construída a partir de um vídeo de três segundos que ele publicou nas redes sociais.
De acordo com James Grifo, especialista em segurança de áudio e CEO da Audio Visual Nation, os burlões atuais precisam apenas de três segundos de áudio retirado de uma publicação nas redes sociais ou de uma mensagem de voz para criar um clone convincente de qualquer voz. "O que torna a clonagem de voz especialmente predatória é a acessibilidade da tecnologia", afirmou. "Os burlões conseguem criar um clone convincente com muito pouco áudio."
Não é um problema distante. Segundo dados recentes de cibersegurança, 1 em cada 4 pessoas já recebeu uma chamada com voz gerada por IA no último ano. Em Portugal, este tipo de ameaça digital não é exceção, a PSP já alertou para o crescimento das burlas por falso acidente, que triplicaram em 2025, muitas delas com recurso a técnicas de manipulação emocional semelhantes.
Como funciona a clonagem de voz com IA
A tecnologia que está por detrás destas burlas usa modelos de inteligência artificial generativa que analisam as frequências únicas da tua voz: o teu sotaque, o ritmo, a respiração e criam uma "impressão digital" sonora. A partir daí, o burlão pode escrever qualquer texto e fazê-lo soar como se fosses tu a falar.
O cenário mais comum e cruel é o da emergência familiar: a chamada entra, a voz soa exatamente como alguém que conheces,o pedido é sempre urgente: um acidente, uma emergência, uma complicação médica. O pânico faz o resto. O teu cérebro reage antes de raciocinar.
O que fazer caso recebas uma chamada suspeita?
- Cria uma palavra-código com a tua família.
Uma palavra secreta que só vocês conhecem. Um burlão pode imitar uma voz, mas não consegue replicar informação privada que nunca foi partilhada publicamente. - Faz perguntas pessoais.
Por exemplo: “O que comemos ontem ao jantar?” ou “Qual era o nome do nosso primeiro cão?”. Escolhe perguntas cuja resposta não esteja nas redes sociais nem seja fácil de adivinhar. - Usa a Regra do Segundo Contacto.
Nunca envies dinheiro nem partilhes dados sensíveis com base numa única chamada. Desliga e liga de volta para o número habitual da pessoa. - Evita interagir com números desconhecidos.
Se atenderes, não forneças informações nem confirmes dados pessoais. Evita dizer “sim” ou responder a perguntas diretas logo no início. - Desconfia sempre da urgência.
Pedidos urgentes de dinheiro ou informação são um sinal clássico de fraude mesmo que a voz pareça familiar.
Portugal também está na mira
Embora os dados citados sejam americanos, a tendência é global. O FBI emitiu avisos formais sobre campanhas de voz gerada por IA e as autoridades portuguesas têm multiplicado os alertas sobre burlas com perfil semelhante. A PSP e a app portuguesa Guardião uniram-se para combater chamadas e mensagens fraudulentas, usando IA para detetar e bloquear ameaças antes de chegarem ao teu smartphone.
A tecnologia que os criminosos usam para atacar é a mesma que pode ser usada para te proteger. A diferença está em estares informado e preparado.
