98 segundos.
É tudo o que é preciso em 2025 para clonar a voz de alguém, criar um vídeo deepfake convincente e drenar a conta bancária de uma empresa.
A tecnologia Deepfake costumava ser um estúdio ao nível de Hollywood e meses de trabalho são agora mais rápidos do que a nossa pausa para o café da manhã.
Em 2025, a tecnologia deepfake atingiu um marco assustador.
Sobre 8 milhões de ficheiros multimédia sintéticos estão atualmente a circular em linha, contra apenas 500 000 há dois anos.
E não vamos sequer começar com o custo financeiro.
As empresas estão a perder uma média de $500 000 por incidente de deepfakecom a fraude baseada em IA projectada para custará às empresas americanas $40 mil milhões até 2027.
Ainda mais alarmante... os avaliadores humanos só conseguem detetar vídeos de tecnologia deepfake de alta qualidade 24.5% do tempo.
Isto significa que 3/4 das falsificações passam despercebidas.

Bem-vindo a 2025. Atualmente, a tecnologia deepfake tornou-se a arma mais sofisticada do cibercrime.
Neste blogue, vamos explicar como funciona a tecnologia deepfake, os novos formatos que vão surgir em 2025 e porque é que os métodos de deteção tradicionais já não são suficientes.
Verá também como os sistemas de defesa alimentados por IA estão a ajudar as organizações a reagir e muito mais.
Vamos lá começar.
Principais conclusões
- Os deepfakes começaram por ser um entretenimento inofensivo no Reddit, mas evoluíram para ferramentas de burla em grande escala, manipulação política e fraude empresarial.
- Os formatos actuais da tecnologia deepfake incluem a troca de rosto, a clonagem de voz, a sincronização labial e as encenações de corpo inteiro.
- Os formatos emergentes incluem a falsificação de documentos gerada por IA e a falsificação biométrica para contornar os sistemas de verificação de identidade e voz.
- A tecnologia Deepfake pode ser utilizada em fraudes financeiras, falsificação de identidade de executivos, desinformação política e extorsão pessoal.
- Os métodos tradicionais de deteção de deepfake, como a deteção manual ou as ferramentas forenses, já não são eficazes contra os deepfakes modernos e em tempo real.
- Apenas sistemas adaptáveis e alimentados por IA, como o TruthScan, podem detetar deepfakes de dia zero, oferecendo proteção em tempo real em vídeo, áudio e texto.
O que é a tecnologia Deepfake?
A tecnologia Deepfake significa criar algo que não é real, mas que parece e soa completamente real.
Trata-se de imagens, vídeos ou clips de áudio gerados por IA que mostram pessoas ou eventos que nunca aconteceram.
Então, isso significa que são iguais à edição tradicional?
Não é bem assim.
Nunca mais se preocupe com o facto de a IA detetar os seus textos. Undetectable AI Pode ajudar-vos:
- Faça aparecer a sua escrita assistida por IA de tipo humano.
- Bypass todas as principais ferramentas de deteção de IA com apenas um clique.
- Utilização IA com segurança e com confiança na escola e no trabalho.
- Edição tradicional é o que os editores de vídeo têm vindo a fazer há décadas. Inclui o corte, a junção, a correção de cor e a adição manual de efeitos visuais. Utiliza ferramentas de software como o Photoshop ou o Premiere Pro.
- Falsificações profundas automatizam esse processo. Utilizam modelos de IA que podem estudar milhares de imagens do rosto de uma pessoa e depois gerar movimentos ou expressões novos e realistas que nunca foram registados.
Por exemplo:
Num deepfake, a IA pode trocar o rosto de um ator pelo de outro, fazer corresponder cada pestanejo e expressão, e até fazê-los dizer palavras que nunca disseram.

Agora, antes de entrarmos na forma como esta tecnologia deepfake funciona, vamos ver onde tudo começou.
A palavra "deepfake" resulta da combinação de "aprendizagem profunda" e "falso".
Surgiu pela primeira vez em 2017, quando um O utilizador do Reddit criou uma comunidade para partilhar vídeos gerados por IA.
Pouco tempo depois, ferramentas de código aberto como o DeepFaceLab, FakeApp e ZAO tornaram possível a quase toda a gente criar deepfakes realistas em minutos.
Atualmente, só o DeepFaceLab é responsável por mais de 95% de todos os vídeos deepfake em linha. E já não é necessário um computador topo de gama ou conhecimentos de programação.
Com apenas um pequeno clip de voz e alguns dólares, qualquer pessoa pode fazer-se passar por outra pessoa online.
Agora, vamos à questão "como é que a tecnologia DeepFake funciona?".
A tecnologia Deepfake baseia-se em dois modelos-chave de IA: Redes Adversariais Generativas (GANs) e Autoencodificadores Variacionais (VAEs).
- GANs funcionam como um confronto digital. Uma IA (o gerador) tenta criar conteúdos falsos, enquanto outra (o discriminador) tenta apanhá-los. Em cada ronda, ambas melhoram, até que a falsificação se torna quase impossível de detetar.
- VAEs, por outro lado, são mais como estudantes cuidadosos da realidade. Aprendem os padrões, a iluminação e os detalhes faciais das pessoas reais, comprimindo e reconstruindo imagens vezes sem conta. Quanto mais praticam, mais naturais parecem os seus rostos recriados.
Os VAEs funcionam como a base. Ensinam ao sistema o aspeto, o movimento e a reação à luz dos rostos reais.
Uma vez construída essa compreensão, os GANs refinam o resultado. Aperfeiçoa os detalhes, suaviza o movimento e aperfeiçoa as expressões até que cada fotograma pareça convincentemente real.
Formatos comuns: Vídeo, áudio, imagens e texto
A tecnologia Deepfake não se limita aos vídeos. Podem existir em quase todos os formatos que utilizamos online.
A IA pode manipular sons, imagens e até palavras escritas para criar versões sintéticas da realidade.
Vamos analisar a forma como cada formato está a ser utilizado.
| Formato | Descrição | Exemplo | Fontes |
| Vídeo | Vídeos gerados por IA que misturam imagens e áudio falsos através de troca de rostos ou transferência de desempenho. | Em 2024, os burlões fizeram-se passar por um executivo da Arup numa videochamada em direto, utilizando deepfakes para roubar $25.6M. | Fonte |
| Áudio (Clonagem de voz) | A IA clona a voz de uma pessoa utilizando amostras curtas para a fazer dizer coisas que nunca disse. | Em 2024, uma voz clonada do CEO do LastPass foi usada no WhatsApp para enganar um funcionário, parte de um aumento de 680% em ataques de deepfake de voz. | Fonte |
| Imagens | Imagens falsas de um único fotograma utilizadas para difundir desinformação ou manipular os mercados. | Em 2023, uma fotografia falsa da explosão do Pentágono tornou-se viral, provocando uma breve queda do S&P 500. | Source |
| Texto | Notícias falsas escritas por IA, propaganda ou relatórios destinados a enganar ou manipular. | Falsas publicações políticas e análises financeiras falsas criadas com ferramentas de IA espalharam-se pela Internet. |
A clonagem de voz é o mais perigoso de todos os formatos, porque é acessível e fácil de criar.
A tecnologia de vídeo deepfake também é ameaçadora, mas continua a necessitar de computadores potentes e de longos tempos de processamento.
Uma voz falsa pode ser criada em apenas alguns minutos, por vezes utilizando apenas um clip de áudio de 60 segundos.
Estas vozes clonadas já estão a ser utilizadas em esquemas telefónicos, chamadas de executivos falsos e fraudes em call-centers.
Mas não se fica por aqui. A tecnologia Deepfake está a evoluir rapidamente e dois novos formatos já estão a causar problemas.
- Falsificação de documentos digitais
A IA pode agora criar ou alterar documentos oficiais, como passaportes, bilhetes de identidade e até extractos financeiros.
Só em 2024, os casos de falsificação de documentos digitais disparada pelo 244%A fraude documental é a maior fraude documental do mundo, representando mais de metade do total.
Muitos destes ataques estão a visar sistemas de identificação nacionais, como o Tax ID da Índia e o Cartão de Identidade Nacional do Paquistão.
- Falsificação biométrica (KYC Bypass)
Depois há a falsificação biométrica. Falsificações profundas feitas para enganar os sistemas de verificação facial ou de voz.
Pense nas verificações de identidade utilizadas durante os registos bancários ou a integração de empresas.
Atualmente, os atacantes utilizam rostos ou vozes sintéticas para contornar estes sistemas, e tais ataques saltaram 704% em 2023. É por isso que o simples "controlos de vivacidade" já não é suficiente.
A ascensão da tecnologia Deepfake
Vamos analisar os dados.
| Métrica | 2023 | Projeção para 2025-27 | Principais informações |
| Ficheiros Deepfake em circulação | 500,000 | 8 milhões de euros | Crescimento explosivo 900% |
| Tentativas de fraude relacionadas com o Deepfake | Linha de base | +3,000% em relação ao ano anterior (2023) | Exploração organizada e em grande escala |
| Perda média de negócios por incidente | - | ~$500,000 | Risco financeiro grave |
| Perdas por fraude com recurso a IA (EUA) | $12.3B | $40B (até 2027) | 32% aumento anual |
| Precisão da deteção humana | - | 24.5% | A revisão manual deixou de ser fiável |
Para combater as falsificações profundas, precisamos de tecnologia que aprenda tão rapidamente como as falsificações. E uma das ferramentas de deteção de Deepfake mais fiáveis atualmente é TruthScan.

Se não conhece esta plataforma, trata-se de uma plataforma de deteção de deepfake em tempo real concebida para ser dimensionada.
Utiliza Redes Adversariais Generativas (GANs) e Modelos de visão-linguagem (VLMs) para detetar as mais pequenas inconsistências em vídeo, áudio e texto.
Vários testes demonstraram que O TruthScan atinge uma precisão de até 98%em comparação com cerca de 70% com ferramentas forenses mais antigas.
Efectua verificações contínuas em todos os canais digitais. Isto significa que as organizações podem detetar deepfakes antes de causarem danos, e não depois.
Do entretenimento e dos memes às ameaças graves
A tecnologia Deepfake começou como entretenimento.
Como mencionámos acima, os utilizadores do reddit trocavam caras para se rirem, criavam memes e melhoravam cenas de filmes.
Hollywood chegou mesmo a utilizá-lo para o envelhecimento digital e a magia da pós-produção. Mas essa fase alegre não durou muito tempo.
Em 2017, surgiu a primeira grande utilização indevida. Tratava-se de um pornografia deepfake não consensual.
De 2018 a 2022, a tecnologia Deepfake passou de um divertimento inofensivo a uma ferramenta séria de manipulação e crime.
Os primeiros exemplos incluem o Vídeo deepfake do presidente do Gabão em 2018, o que provocou agitação política.
Em 2023, com ferramentas poderosas como Midjourney 5.1 e DALL-E 2, a criação de deepfake tornou-se fácil e perigosa.
Chegou então o momento em que já não são apenas as figuras públicas que são visadas. As pessoas comuns enfrentam agora deepfakes utilizados para assédio, chantagem e vingança.
Os vídeos falsos surgiram mesmo em casos de divórcio, candidaturas a emprego e disputas internas de empresas.
Casos de abuso político e empresarial
A tecnologia Deepfake entrou oficialmente no mundo dos negócios e da política.
Exemplos de utilização abusiva por parte das empresas:
Em 2024, os burlões enganaram os empregados da Arup usando vídeo deepfake e clonagem de voz.
Fingiram ser executivos de topo numa videochamada em direto e convenceram os funcionários a transferir $25,6 milhões. O esquema funcionou porque as pessoas confiaram no rosto e na voz familiar no ecrã.
Nesse mesmo ano, os piratas informáticos atacaram LastPass clonando a voz do diretor-geral no WhatsApp.
Utilizaram-na para pressionar um empregado a tomar medidas urgentes fora de horas.
Estes tipos de burlas estão a tornar-se comuns porque os criminosos podem facilmente encontrar gravações públicas, como entrevistas ou discursos, para copiar a voz ou o rosto de alguém.
Isto significa que qualquer executivo que apareça em linha pode tornar-se um alvo.
Exemplos de abuso de poder político:
O Fórum Económico Mundial considerou a desinformação impulsionada pela IA um dos principais riscos globais de 2024, com os deepfakes no centro.
Em agosto de 2024, os investigadores descobriram o Rede de Spamouflageuma operação nas redes sociais que se crê estar ligada à China, que utilizou deepfakes para desacreditar o Presidente das Filipinas.
Tácticas semelhantes foram utilizadas na guerra, como vídeos falsos de Presidente ucraniano Volodymyr Zelenskyy parecendo render-se.
Riscos e perigos dos Deepfakes
Vamos analisar a forma como a tecnologia deepfake está a mudar a ideia daquilo em que podemos confiar.
- Riscos para a governação e a confiança
Se tudo pode ser falsificado, em que é que podemos confiar? A tecnologia Deepfake abalou a nossa confiança na informação digital.
Quer se trate de um discurso de um político, de um clip de notícias de última hora ou de um vídeo viral, a maioria das pessoas pergunta-se agora, "Isto é real ou gerado por IA?"
Esta dúvida crescente dificulta a manutenção da credibilidade dos governos, dos jornalistas e das instituições.
Como vimos anteriormente, os deepfakes já foram utilizados para espalhar desinformação política e até imitar funcionários públicos.
- Catástrofes financeiras e empresariais
No mundo financeiro, a tecnologia deepfake está a tornar-se rapidamente um problema de mil milhões de dólares.
Os burlões estão agora a utilizar vozes clonadas, vídeos falsos e identidades sintéticas para enganar empregados, investidores e empresas inteiras.
Já vimos como as imitações de executivos e os incidentes de manipulação de mercado podem abalar grandes empresas, bastando uma videochamada convincente ou uma voz familiar a dizer a coisa errada.
- Vulnerabilidades técnicas e sociais
A tecnologia Deepfake está a quebrar sistemas que antes pensávamos serem infalíveis.
O reconhecimento facial e a verificação de voz, que outrora eram fiáveis em termos de segurança, podem agora ser contornados com rostos e vozes gerados por IA.
Isto significa que mesmo "provas" como uma fotografia ou um vídeo não é automaticamente fiável.
Para além disso, o comportamento humano aumenta o risco. As pessoas mais velhas e os grandes utilizadores das redes sociais têm mais probabilidades de acreditar e partilhar deepfakes, o que ajuda a que se espalhem ainda mais rapidamente.
Como o TruthScan protege as organizações
O TruthScan é uma ferramenta de deteção de deepfake que adiciona uma camada de verificação à própria realidade.
Em que é que isto difere dos sistemas tradicionais?
Os sistemas tradicionais de deteção de deepfake analisam apenas imagens ou áudio, mas o TruthScan utiliza a verificação multimodal.
O que é a verificação multimodal?
Significa que faz verificações cruzadas de vídeo, áudio, texto e metadados em tempo real para detetar inconsistências que os olhos humanos e os sistemas antigos não detectam.
- É valida a autenticidade da fonte antes de o conteúdo ser publicado ou partilhado. Garante que as marcas, os executivos e as instituições não amplificam inadvertidamente os meios de comunicação manipulados.
- É reforça a verificação da identidade contra tentativas de clonagem de voz e de troca de rosto, detectando impressões digitais sintéticas invisíveis a olho nu.
- É protege a confiança organizacional preservando a proveniência do conteúdo, para que cada vídeo ou documento verificado tenha uma cadeia ininterrupta de autenticidade.
Num mundo em que a própria verdade está a ser atacada, a ferramenta de deteção de deepfake TruthScan detecta a falsificação e restaura a confiança no que é real.
Como detetar Deepfakes: Melhores métodos para detetar meios de comunicação falsos
A deteção da tecnologia deepfake requer uma defesa em três camadas, como a revisão humana, a análise forense e a deteção adaptativa por IA.
- Formas manuais de detetar Deepfakes
Um revisor treinado pode corretamente identificar deepfakes de alta qualidade apenas 24.5% do tempo.
Existem sinais tradicionais como iluminação inadequada, sombras não naturais ou movimentos labiais dessincronizados que se tornaram pouco fiáveis.
Os GANs modernos suavizam essas falhas e, quando o vídeo é comprimido (como nas redes sociais), esses pequenos sinais desaparecem completamente.
- Abordagens técnicas e analíticas
Este método é mais fiável do que a revisão manual, mas tem um custo computacional elevado.
Vamos perceber como funcionam estas abordagens:
Começa com técnicas de análise forense que é a base da deteção técnica de deepfake.
Estas ferramentas dividem os meios de comunicação em pormenores microscópicos para ver inconsistências invisíveis para os humanos.
Por exemplo:
- A análise fotograma a fotograma disseca os vídeos em imagens individuais, o que ajuda a identificar padrões não naturais, como iluminação irregular ou movimentos faciais desfasados.
Depois vem Análise do nível de erro (ELA)que inverte o processo de edição, realçando as diferenças na compressão de píxeis. É um sinal revelador de manipulação.
À medida que nos vamos aprofundando, coerência espácio-temporal analisam a forma como a voz, os gestos e as expressões faciais se alinham ao longo do tempo. Mesmo um pequeno atraso entre o movimento dos lábios e o áudio pode denunciar uma origem sintética.
Mas embora estes métodos sejam poderosos, também consomem muitos recursos.
O processamento de milhares de vídeos fotograma a fotograma não é prático em grande escala, especialmente quando milhões de novos ficheiros multimédia são carregados diariamente.
A tecnologia Deepfake evolui devido à forma como é feita. Cada vez que um detetor de deepfake melhora, o gerador de falsificações (o "adversário") aprende com isso e produz resultados ainda mais convincentes.
Este constante vai-e-vem é conhecido como loop adversarial. Isto significa que os sistemas estáticos de deteção de deepfake ficam desactualizados em poucos meses.
A única defesa sustentável é a IA que aprende em tempo real, utilizando redes neurais para se atualizar constantemente à medida que surgem novas técnicas de deepfake.
- Usando as ferramentas de deteção de IA do TruthScan
Todos os métodos que vimos acima ainda não são tão avançados para detetar com precisão a tecnologia deepfake. A velocidade, a escala e a sofisticação destes ataques exigem sistemas de IA especializados e adaptáveis, criados especificamente para este campo de batalha em evolução.
É aí que TruthScan entra em cena. O TruthScan foi projetado especificamente para a defesa no mundo real.
- Os seus Sistema de aprendizagem com base em IA nunca pára de treinar, estuda diariamente novos tipos de tecnologia deepfake e actualiza-se automaticamente. Isto significa que consegue detetar até os mais avançados "dia zero" deepfakes, aqueles que ninguém viu antes, sem precisar de humanos para o treinar.
- Também funciona em tempo real em todos os principais canais de comunicação desde videochamadas e centrais de atendimento até plataformas de mídia digital. O TruthScan não analisa apenas uma coisa. Ele verifica vídeo, áudio e texto juntos, certificando-se de que tudo esteja alinhado.
Eis como protege diferentes tipos de organizações:
- Instituições financeiras: O TruthScan detecta vozes falsas nas chamadas de apoio ao cliente, bloqueia identidades tecnológicas deepfake durante as verificações KYC (que estão a aumentar rapidamente) e impede que executivos falsos aprovem transferências bancárias fraudulentas.
- Empresas: Mantém a comunicação interna real. Assinala os meios de comunicação adulterados que podem ser utilizados para chantagem, desinformação ou danos à marca. Também pode analisar registos de comunicação mais antigos para detetar padrões de conteúdo sintético, criando segurança a longo prazo.
- Governo e sector público: O TruthScan verifica os meios de comunicação utilizados em investigações e anúncios públicos, protegendo contra vídeos políticos falsos ou declarações manipuladas que possam perturbar a confiança do público ou a segurança nacional.
O TruthScan é uma ferramenta de deteção de deepfake que oferece às organizações a velocidade, a precisão e a adaptabilidade necessárias para se manterem à frente.
Experimente o nosso Detetor de IA e o Humanizer diretamente no widget abaixo!
Conclusão
A tecnologia Deepfake começou como uma experiência inteligente. Era uma forma de pôr a cara de Nicolas Cage em tudo.
Mas agora, está a invadir reuniões de direção, campanhas eleitorais e contas bancárias. E a brincadeira acabou.
O que era antes "diversão inofensiva" no Reddit transformou-se numa máquina de fraude de mil milhões de dólares.
A parte assustadora?
A maioria das pessoas ainda não consegue distinguir o que é verdadeiro. Mesmo os especialistas só conseguem detetar falsificações de alta qualidade num quarto das vezes. A linha entre ver e acreditar está oficialmente esbatida.
E as ferramentas de deteção de "deepfake" em que outrora confiámos para detetar a manipulação já estão um passo atrás.
Os falsos estão sempre a aprender, a adaptar-se e a melhorar.
É por isso que o futuro da defesa digital depende da IA que combate a IA.
Ferramenta de deteção de deepfake como TruthScan tem sistemas adaptativos que evoluem em tempo real e detecta o que os humanos não conseguem.
Num mundo em que qualquer pessoa pode "dizer" ou "parecer" fazer qualquer coisa, a verdade não está morta, apenas precisa de mais segurança.
Porque o próximo vídeo viral pode não ser apenas uma notícia falsa... pode ser um "tu" falso.