Desde o lançamento do ChatGPT no final de 2022, as ferramentas de geração de vídeo com Inteligência Artificial evoluíram a uma velocidade que poucos antecipavam. O que há três anos parecia claramente artificial, hoje já passa por real nas redes sociais sem que a maioria das pessoas questione aquilo que está a ver. E quem cria este tipo de conteúdo falso sabe aproveitar-se disso muito bem.
O problema é real e está a crescer rapidamente. Deepfakes de políticos, celebridades a promover esquemas de criptomoedas ou transmissões falsas em direto no YouTube são criados com ferramentas cada vez mais acessíveis e difíceis de detetar a olho nu.
A boa notícia é que os vídeos gerados por IA continuam a cometer erros. Só precisas de saber onde olhar.
Os sinais que ainda os traem
Começa pelo rosto. A boca continua a ser um dos pontos mais fracos: movimentos labiais dessincronizados com o áudio ou expressões que não encaixam totalmente no contexto ainda são erros frequentes. As mãos também denunciam muitos vídeos gerados por IA, com dedos em excesso, proporções estranhas ou movimentos pouco naturais.
O fundo do vídeo merece igualmente atenção. Bordas desfocadas, objetos que aparecem e desaparecem ou padrões repetidos de forma estranha podem indicar que o conteúdo foi criado artificialmente. O áudio também costuma falhar: vozes demasiado uniformes, sem pausas naturais, ou ruído ambiente que não corresponde ao que aparece na imagem são sinais de alerta.
Desconfia ainda de vídeos demasiado perfeitos. Iluminação impecável, ausência total de ruído de imagem e enquadramentos sempre estáveis podem parecer impressionantes, mas muitas vezes acabam por denunciar precisamente o contrário.
O que podes fazer quando tens dúvidas
A primeira linha de defesa continua a ser uma pesquisa simples: procura o mesmo vídeo ou tema noutras plataformas. Se um vídeo viral não aparece referido em mais lado nenhum ou não é mencionado por fontes credíveis, há fortes motivos para desconfiar.
Para quem quiser ir mais longe, já existem ferramentas específicas para detetar conteúdo gerado por IA. O Hive Moderation AI Detector e o Deepware Scanner analisam vídeos e apresentam uma estimativa sobre a probabilidade de terem sido criados artificialmente.
A Google também disponibiliza o SynthID Detector, integrado no Gemini, capaz de detetar marcas de água invisíveis em conteúdos gerados por IA. Ainda assim, a ferramenta funciona melhor com conteúdos produzidos por empresas e plataformas que já adotaram essa tecnologia.
A Meta e outras plataformas estão também a trabalhar em sistemas de rotulagem automática de conteúdo gerado por IA, mas os especialistas admitem que dificilmente existirá uma solução totalmente eficaz. Quem quiser criar conteúdo falso pode simplesmente recorrer a ferramentas que não deixam marcas facilmente detetáveis.
Por agora, o melhor detetor continua a ser o espírito crítico de quem sabe que nem tudo o que parece real o é.
