98 segundos.
É tudo o que é preciso em 2025 para clonar a voz de alguém, criar um vídeo deepfake convincente e drenar a conta bancária de uma empresa.
A tecnologia Deepfake costumava ser um estúdio ao nível de Hollywood e meses de trabalho são agora mais rápidos do que a nossa pausa para o café da manhã.
Em 2025, a tecnologia deepfake atingiu um marco assustador.
Sobre 8 milhões de ficheiros multimédia sintéticos estão atualmente a circular em linha, contra apenas 500 000 há dois anos.
E não vamos sequer começar com o custo financeiro.
As empresas estão a perder uma média de $500 000 por incidente de deepfakecom a fraude baseada em IA projectada para custará às empresas americanas $40 mil milhões até 2027.
Ainda mais alarmante... os avaliadores humanos só conseguem detetar vídeos de tecnologia deepfake de alta qualidade 24.5% do tempo.
Isto significa que 3/4 das falsificações passam despercebidas.

Bem-vindo a 2025. Atualmente, a tecnologia deepfake tornou-se a arma mais sofisticada do cibercrime.
Neste blogue, vamos explicar como funciona a tecnologia deepfake, os novos formatos que vão surgir em 2025 e porque é que os métodos de deteção tradicionais já não são suficientes.
Verá também como os sistemas de defesa alimentados por IA estão a ajudar as organizações a reagir e muito mais.
Vamos lá começar.
Principais conclusões
- Os deepfakes começaram por ser um entretenimento inofensivo no Reddit, mas evoluíram para ferramentas de burla em grande escala, manipulação política e fraude empresarial.
- Os formatos actuais da tecnologia deepfake incluem a troca de rosto, a clonagem de voz, a sincronização labial e as encenações de corpo inteiro.
- Os formatos emergentes incluem a falsificação de documentos gerada por IA e a falsificação biométrica para contornar os sistemas de verificação de identidade e voz.
- A tecnologia Deepfake pode ser utilizada em fraudes financeiras, falsificação de identidade de executivos, desinformação política e extorsão pessoal.
- Os métodos tradicionais de deteção de deepfake, como a deteção manual ou as ferramentas forenses, já não são eficazes contra os deepfakes modernos e em tempo real.
- Apenas sistemas adaptáveis e alimentados por IA, como o TruthScan, podem detetar deepfakes de dia zero, oferecendo proteção em tempo real em vídeo, áudio e texto.
O que é a tecnologia Deepfake?
A tecnologia Deepfake significa criar algo que não é real, mas que parece e soa completamente real.
Trata-se de imagens, vídeos ou clips de áudio gerados por IA que mostram pessoas ou eventos que nunca aconteceram.
Então, isso significa que são iguais à edição tradicional?
Não é bem assim.
Nunca mais se preocupe com o facto de a IA detetar os seus textos. Undetectable AI Pode ajudar-vos:
- Faça aparecer a sua escrita assistida por IA de tipo humano.
- Bypass todas as principais ferramentas de deteção de IA com apenas um clique.
- Utilização IA com segurança e com confiança na escola e no trabalho.
- Edição tradicional é o que os editores de vídeo têm vindo a fazer há décadas. Inclui o corte, a junção, a correção de cor e a adição manual de efeitos visuais. Utiliza ferramentas de software como o Photoshop ou o Premiere Pro.
- Falsificações profundas automatizam esse processo. Utilizam modelos de IA que podem estudar milhares de imagens do rosto de uma pessoa e depois gerar movimentos ou expressões novos e realistas que nunca foram registados.
Por exemplo:
Num deepfake, a IA pode trocar o rosto de um ator pelo de outro, fazer corresponder cada pestanejo e expressão, e até fazê-los dizer palavras que nunca disseram.

Agora, antes de entrarmos na forma como esta tecnologia deepfake funciona, vamos ver onde tudo começou.
A palavra "deepfake" resulta da combinação de "aprendizagem profunda" e "falso".
Surgiu pela primeira vez em 2017, quando um O utilizador do Reddit criou uma comunidade para partilhar vídeos gerados por IA.
Pouco tempo depois, ferramentas de código aberto como o DeepFaceLab, FakeApp e ZAO tornaram possível a quase toda a gente criar deepfakes realistas em minutos.
Atualmente, só o DeepFaceLab é responsável por mais de 95% de todos os vídeos deepfake em linha. E já não é necessário um computador topo de gama ou conhecimentos de programação.
Com apenas um pequeno clip de voz e alguns dólares, qualquer pessoa pode fazer-se passar por outra pessoa online.
Agora, vamos à questão "como é que a tecnologia DeepFake funciona?".
A tecnologia Deepfake baseia-se em dois modelos-chave de IA: Redes Adversariais Generativas (GANs) e Autoencodificadores Variacionais (VAEs).
- GANs funcionam como um confronto digital. Uma IA (o gerador) tenta criar conteúdos falsos, enquanto outra (o discriminador) tenta apanhá-los. Em cada ronda, ambas melhoram, até que a falsificação se torna quase impossível de detetar.
- VAEs, por outro lado, são mais como estudantes cuidadosos da realidade. Aprendem os padrões, a iluminação e os detalhes faciais das pessoas reais, comprimindo e reconstruindo imagens vezes sem conta. Quanto mais praticam, mais naturais parecem os seus rostos recriados.
Os VAEs funcionam como a base. Ensinam ao sistema o aspeto, o movimento e a reação à luz dos rostos reais.
Uma vez construída essa compreensão, os GANs refinam o resultado. Aperfeiçoa os detalhes, suaviza o movimento e aperfeiçoa as expressões até que cada fotograma pareça convincentemente real.
Formatos comuns: Vídeo, áudio, imagens e texto
A tecnologia Deepfake não se limita aos vídeos. Podem existir em quase todos os formatos que utilizamos online.
A IA pode manipular sons, imagens e até palavras escritas para criar versões sintéticas da realidade.
Vamos analisar a forma como cada formato está a ser utilizado.
| Formato | Descrição | Exemplo | Fontes |
| Vídeo | Vídeos gerados por IA que misturam imagens e áudio falsos através de troca de rostos ou transferência de desempenho. | Em 2024, os burlões fizeram-se passar por um executivo da Arup numa videochamada em direto, utilizando deepfakes para roubar $25.6M. | Fonte |
| Áudio (Clonagem de voz) | A IA clona a voz de uma pessoa utilizando amostras curtas para a fazer dizer coisas que nunca disse. | Em 2024, uma voz clonada do CEO do LastPass foi usada no WhatsApp para enganar um funcionário, parte de um aumento de 680% em ataques de deepfake de voz. | Fonte |
| Imagens | Imagens falsas de um único fotograma utilizadas para difundir desinformação ou manipular os mercados. | Em 2023, uma fotografia falsa da explosão do Pentágono tornou-se viral, provocando uma breve queda do S&P 500. | Source |
| Texto | Notícias falsas escritas por IA, propaganda ou relatórios destinados a enganar ou manipular. | Falsas publicações políticas e análises financeiras falsas criadas com ferramentas de IA espalharam-se pela Internet. |
A clonagem de voz é o mais perigoso de todos os formatos, porque é acessível e fácil de criar.
A tecnologia de vídeo deepfake também é ameaçadora, mas continua a necessitar de computadores potentes e de longos tempos de processamento.
Uma voz falsa pode ser criada em apenas alguns minutos, por vezes utilizando apenas um clip de áudio de 60 segundos.
Estas vozes clonadas já estão a ser utilizadas em esquemas telefónicos, chamadas de executivos falsos e fraudes em call-centers.
Mas não se fica por aqui. A tecnologia Deepfake está a evoluir rapidamente e dois novos formatos já estão a causar problemas.
- Falsificação de documentos digitais
A IA pode agora criar ou alterar documentos oficiais, como passaportes, bilhetes de identidade e até extractos financeiros.
Só em 2024, os casos de falsificação de documentos digitais disparada pelo 244%A fraude documental é a maior fraude documental do mundo, representando mais de metade do total.
Muitos destes ataques estão a visar sistemas de identificação nacionais, como o Tax ID da Índia e o Cartão de Identidade Nacional do Paquistão.
Para combater estes riscos, soluções como o TruthScan Detetor de imagens AI ajudam a verificar se um documento ou imagem de identificação foi manipulado digitalmente.

Detecta imagens geradas por IA ou adulteradas em tempo real, assinalando fotografias clonadas, texto alterado ou elementos compostos antes de passarem pelos sistemas de verificação.
Desta forma, as organizações podem mais facilmente confirmar a autenticidade e impedir as falsificações deepfake antes que se espalhem.
- Falsificação biométrica (KYC Bypass)
Depois há a falsificação biométrica. Falsificações profundas feitas para enganar os sistemas de verificação facial ou de voz.
Pense nas verificações de identidade utilizadas durante os registos bancários ou a integração de empresas.
Atualmente, os atacantes utilizam rostos ou vozes sintéticas para contornar estes sistemas, e tais ataques saltaram 704% em 2023. É por isso que o simples "controlos de vivacidade" já não é suficiente.
A ascensão da tecnologia Deepfake
Vamos analisar os dados.
| Métrica | 2023 | Projeção para 2025-27 | Principais informações |
| Ficheiros Deepfake em circulação | 500,000 | 8 milhões de euros | Crescimento explosivo 900% |
| Tentativas de fraude relacionadas com o Deepfake | Linha de base | +3,000% em relação ao ano anterior (2023) | Exploração organizada e em grande escala |
| Perda média de negócios por incidente | - | ~$500,000 | Risco financeiro grave |
| Perdas por fraude com recurso a IA (EUA) | $12.3B | $40B (até 2027) | 32% aumento anual |
| Precisão da deteção humana | - | 24.5% | A revisão manual deixou de ser fiável |
Para combater as falsificações profundas, precisamos de tecnologia que aprenda tão rapidamente como as falsificações. E uma das ferramentas de deteção de Deepfake mais fiáveis atualmente é TruthScan.

Se não conhece esta plataforma, trata-se de uma plataforma de deteção de deepfake em tempo real concebida para ser dimensionada.
Utiliza Redes Adversariais Generativas (GANs) e Modelos de visão-linguagem (VLMs) para detetar as mais pequenas inconsistências em vídeo, áudio e texto.
Vários testes demonstraram que O TruthScan atinge uma precisão de até 98%em comparação com cerca de 70% com ferramentas forenses mais antigas.
Efectua verificações contínuas em todos os canais digitais. Isto significa que as organizações podem detetar deepfakes antes de causarem danos, e não depois.
Do entretenimento e dos memes às ameaças graves
A tecnologia Deepfake começou como entretenimento.
Como mencionámos acima, os utilizadores do reddit trocavam caras para se rirem, criavam memes e melhoravam cenas de filmes.
Hollywood chegou mesmo a utilizá-lo para o envelhecimento digital e a magia da pós-produção. Mas essa fase alegre não durou muito tempo.
Em 2017, surgiu a primeira grande utilização indevida. Tratava-se de um pornografia deepfake não consensual.
De 2018 a 2022, a tecnologia Deepfake passou de um divertimento inofensivo a uma ferramenta séria de manipulação e crime.
Os primeiros exemplos incluem o Vídeo deepfake do presidente do Gabão em 2018, o que provocou agitação política.
Em 2023, com ferramentas poderosas como Midjourney 5.1 e DALL-E 2, a criação de deepfake tornou-se fácil e perigosa.
Chegou então o momento em que já não são apenas as figuras públicas que são visadas. As pessoas comuns enfrentam agora deepfakes utilizados para assédio, chantagem e vingança.
Os vídeos falsos surgiram mesmo em casos de divórcio, candidaturas a emprego e disputas internas de empresas.
Casos de abuso político e empresarial
A tecnologia Deepfake entrou oficialmente no mundo dos negócios e da política.
Exemplos de utilização abusiva por parte das empresas:
Em 2024, os burlões enganaram os empregados da Arup usando vídeo deepfake e clonagem de voz.
Fingiram ser executivos de topo numa videochamada em direto e convenceram os funcionários a transferir $25,6 milhões. O esquema funcionou porque as pessoas confiaram no rosto e na voz familiar no ecrã.
Nesse mesmo ano, os piratas informáticos atacaram LastPass clonando a voz do diretor-geral no WhatsApp.
Utilizaram-na para pressionar um empregado a tomar medidas urgentes fora de horas.
Estes tipos de burlas estão a tornar-se comuns porque os criminosos podem facilmente encontrar gravações públicas, como entrevistas ou discursos, para copiar a voz ou o rosto de alguém.
Isto significa que qualquer executivo que apareça em linha pode tornar-se um alvo.
Exemplos de abuso de poder político:
O Fórum Económico Mundial considerou a desinformação impulsionada pela IA um dos principais riscos globais de 2024, com os deepfakes no centro.
Em agosto de 2024, os investigadores descobriram o Rede de Spamouflageuma operação nas redes sociais que se crê estar ligada à China, que utilizou deepfakes para desacreditar o Presidente das Filipinas.
Tácticas semelhantes foram utilizadas na guerra, como vídeos falsos de Presidente ucraniano Volodymyr Zelenskyy parecendo render-se.
Riscos e perigos dos Deepfakes
Vamos analisar a forma como a tecnologia deepfake está a mudar a ideia daquilo em que podemos confiar.
- Riscos para a governação e a confiança
Se tudo pode ser falsificado, em que é que podemos confiar? A tecnologia Deepfake abalou a nossa confiança na informação digital.
Quer se trate de um discurso de um político, de um clip de notícias de última hora ou de um vídeo viral, a maioria das pessoas pergunta-se agora, "Isto é real ou gerado por IA?"
Esta dúvida crescente dificulta a manutenção da credibilidade dos governos, dos jornalistas e das instituições.
Como vimos anteriormente, os deepfakes já foram utilizados para espalhar desinformação política e até imitar funcionários públicos.
- Catástrofes financeiras e empresariais
No mundo financeiro, a tecnologia deepfake está a tornar-se rapidamente um problema de mil milhões de dólares.
Os burlões estão agora a utilizar vozes clonadas, vídeos falsos e identidades sintéticas para enganar empregados, investidores e empresas inteiras.
Já vimos como as imitações de executivos e os incidentes de manipulação de mercado podem abalar grandes empresas, bastando uma videochamada convincente ou uma voz familiar a dizer a coisa errada.
- Vulnerabilidades técnicas e sociais
A tecnologia Deepfake está a quebrar sistemas que antes pensávamos serem infalíveis.
O reconhecimento facial e a verificação de voz, que outrora eram fiáveis em termos de segurança, podem agora ser contornados com rostos e vozes gerados por IA.
Isto significa que mesmo "provas" como uma fotografia ou um vídeo não é automaticamente fiável.
Para além disso, o comportamento humano aumenta o risco. As pessoas mais velhas e os grandes utilizadores das redes sociais têm mais probabilidades de acreditar e partilhar deepfakes, o que ajuda a que se espalhem ainda mais rapidamente.
Como o TruthScan protege as organizações
O TruthScan é uma ferramenta de deteção de deepfake que adiciona uma camada de verificação à própria realidade.
Em que é que isto difere dos sistemas tradicionais?
Os sistemas tradicionais de deteção de deepfake analisam apenas imagens ou áudio, mas o TruthScan utiliza a verificação multimodal.
O que é a verificação multimodal?
Significa que faz verificações cruzadas de vídeo, áudio, texto e metadados em tempo real para detetar inconsistências que os olhos humanos e os sistemas antigos não detectam.
- É valida a autenticidade da fonte antes de o conteúdo ser publicado ou partilhado. Garante que as marcas, os executivos e as instituições não amplificam inadvertidamente os meios de comunicação manipulados.
- É reforça a verificação da identidade contra tentativas de clonagem de voz e de troca de rosto, detectando impressões digitais sintéticas invisíveis a olho nu.
- É protege a confiança organizacional preservando a proveniência do conteúdo, para que cada vídeo ou documento verificado tenha uma cadeia ininterrupta de autenticidade.
Num mundo em que a própria verdade está a ser atacada, a ferramenta de deteção de deepfake TruthScan detecta a falsificação e restaura a confiança no que é real.
Como detetar Deepfakes: Melhores métodos para detetar meios de comunicação falsos
A deteção da tecnologia deepfake requer uma defesa em três camadas, como a revisão humana, a análise forense e a deteção adaptativa por IA.
- Formas manuais de detetar Deepfakes
Um revisor treinado pode corretamente identificar deepfakes de alta qualidade apenas 24.5% do tempo.
Existem sinais tradicionais como iluminação inadequada, sombras não naturais ou movimentos labiais dessincronizados que se tornaram pouco fiáveis.
Os GANs modernos suavizam essas falhas e, quando o vídeo é comprimido (como nas redes sociais), esses pequenos sinais desaparecem completamente.
- Abordagens técnicas e analíticas
Este método é mais fiável do que a revisão manual, mas tem um custo computacional elevado.
Vamos perceber como funcionam estas abordagens:
Começa com técnicas de análise forense que é a base da deteção técnica de deepfake.
Estas ferramentas dividem os meios de comunicação em pormenores microscópicos para ver inconsistências invisíveis para os humanos.
Por exemplo:
- A análise fotograma a fotograma disseca os vídeos em imagens individuais, o que ajuda a identificar padrões não naturais, como iluminação irregular ou movimentos faciais desfasados.
Depois vem Análise do nível de erro (ELA)que inverte o processo de edição, realçando as diferenças na compressão de píxeis. É um sinal revelador de manipulação.
À medida que nos vamos aprofundando, coerência espácio-temporal analisam a forma como a voz, os gestos e as expressões faciais se alinham ao longo do tempo. Mesmo um pequeno atraso entre o movimento dos lábios e o áudio pode denunciar uma origem sintética.
Mas embora estes métodos sejam poderosos, também consomem muitos recursos.
O processamento de milhares de vídeos fotograma a fotograma não é prático em grande escala, especialmente quando milhões de novos ficheiros multimédia são carregados diariamente.
A tecnologia Deepfake evolui devido à forma como é feita. Cada vez que um detetor de deepfake melhora, o gerador de falsificações (o "adversário") aprende com isso e produz resultados ainda mais convincentes.
Este constante vai-e-vem é conhecido como loop adversarial. Isto significa que os sistemas estáticos de deteção de deepfake ficam desactualizados em poucos meses.
A única defesa sustentável é a IA que aprende em tempo real, utilizando redes neurais para se atualizar constantemente à medida que surgem novas técnicas de deepfake.
- Usando as ferramentas de deteção de IA do TruthScan
Todos os métodos que vimos acima ainda não são tão avançados para detetar com precisão a tecnologia deepfake. A velocidade, a escala e a sofisticação destes ataques exigem sistemas de IA especializados e adaptáveis, criados especificamente para este campo de batalha em evolução.
É aí que TruthScan entra em cena. O TruthScan foi projetado especificamente para a defesa no mundo real.
- Os seus Sistema de aprendizagem com base em IA nunca pára de treinar, estuda diariamente novos tipos de tecnologia deepfake e actualiza-se automaticamente. Isto significa que consegue detetar até os mais avançados "dia zero" deepfakes, aqueles que ninguém viu antes, sem precisar de humanos para o treinar.
- Também funciona em tempo real em todos os principais canais de comunicação desde videochamadas e centrais de atendimento até plataformas de mídia digital. O TruthScan não analisa apenas uma coisa. Ele verifica vídeo, áudio e texto juntos, certificando-se de que tudo esteja alinhado.
Eis como protege diferentes tipos de organizações:
- Instituições financeiras: O TruthScan detecta vozes falsas nas chamadas de apoio ao cliente, bloqueia identidades tecnológicas deepfake durante as verificações KYC (que estão a aumentar rapidamente) e impede que executivos falsos aprovem transferências bancárias fraudulentas.
- Empresas: Mantém a comunicação interna real. Assinala os meios de comunicação adulterados que podem ser utilizados para chantagem, desinformação ou danos à marca. Também pode analisar registos de comunicação mais antigos para detetar padrões de conteúdo sintético, criando segurança a longo prazo.
- Governo e sector público: O TruthScan verifica os meios de comunicação utilizados em investigações e anúncios públicos, protegendo contra vídeos políticos falsos ou declarações manipuladas que possam perturbar a confiança do público ou a segurança nacional.
O TruthScan é uma ferramenta de deteção de deepfake que oferece às organizações a velocidade, a precisão e a adaptabilidade necessárias para se manterem à frente.
Experimente o nosso Detetor de IA e o Humanizer diretamente no widget abaixo!
Conclusão
A tecnologia Deepfake começou como uma experiência inteligente. Era uma forma de pôr a cara de Nicolas Cage em tudo.
Mas agora, está a invadir reuniões de direção, campanhas eleitorais e contas bancárias. E a brincadeira acabou.
O que era antes "diversão inofensiva" no Reddit transformou-se numa máquina de fraude de mil milhões de dólares.
A parte assustadora?
A maioria das pessoas ainda não consegue distinguir o que é verdadeiro. Mesmo os especialistas só conseguem detetar falsificações de alta qualidade num quarto das vezes. A linha entre ver e acreditar está oficialmente esbatida.
E as ferramentas de deteção de "deepfake" em que outrora confiámos para detetar a manipulação já estão um passo atrás.
Os falsos estão sempre a aprender, a adaptar-se e a melhorar.
É por isso que o futuro da defesa digital depende da IA que combate a IA.
Ferramenta de deteção de deepfake como TruthScan tem sistemas adaptativos que evoluem em tempo real e detecta o que os humanos não conseguem.
Num mundo em que qualquer pessoa pode "dizer" ou "parecer" fazer qualquer coisa, a verdade não está morta, apenas precisa de mais segurança.
Porque o próximo vídeo viral pode não ser apenas uma notícia falsa... pode ser um "tu" falso.