O que é a tecnologia Deepfake? Perigos e deteção

98 segundos. 

É tudo o que é preciso em 2025 para clonar a voz de alguém, criar um vídeo deepfake convincente e drenar a conta bancária de uma empresa. 

A tecnologia Deepfake costumava ser um estúdio ao nível de Hollywood e meses de trabalho são agora mais rápidos do que a nossa pausa para o café da manhã.

Em 2025, a tecnologia deepfake atingiu um marco assustador.

Sobre 8 milhões de ficheiros multimédia sintéticos estão atualmente a circular em linha, contra apenas 500 000 há dois anos. 

E não vamos sequer começar com o custo financeiro.

As empresas estão a perder uma média de $500 000 por incidente de deepfakecom a fraude baseada em IA projectada para custará às empresas americanas $40 mil milhões até 2027

Ainda mais alarmante... os avaliadores humanos só conseguem detetar vídeos de tecnologia deepfake de alta qualidade 24.5% do tempo

Isto significa que 3/4 das falsificações passam despercebidas.

O que é a tecnologia Deepfake? Perigos e deteção o que é a tecnologia deepfake

Bem-vindo a 2025. Atualmente, a tecnologia deepfake tornou-se a arma mais sofisticada do cibercrime. 

Neste blogue, vamos explicar como funciona a tecnologia deepfake, os novos formatos que vão surgir em 2025 e porque é que os métodos de deteção tradicionais já não são suficientes. 

Verá também como os sistemas de defesa alimentados por IA estão a ajudar as organizações a reagir e muito mais.

Vamos lá começar. 


Principais conclusões

  • Os deepfakes começaram por ser um entretenimento inofensivo no Reddit, mas evoluíram para ferramentas de burla em grande escala, manipulação política e fraude empresarial.

  • Os formatos actuais da tecnologia deepfake incluem a troca de rosto, a clonagem de voz, a sincronização labial e as encenações de corpo inteiro.

  • Os formatos emergentes incluem a falsificação de documentos gerada por IA e a falsificação biométrica para contornar os sistemas de verificação de identidade e voz.

  • A tecnologia Deepfake pode ser utilizada em fraudes financeiras, falsificação de identidade de executivos, desinformação política e extorsão pessoal.

  • Os métodos tradicionais de deteção de deepfake, como a deteção manual ou as ferramentas forenses, já não são eficazes contra os deepfakes modernos e em tempo real.

  • Apenas sistemas adaptáveis e alimentados por IA, como o TruthScan, podem detetar deepfakes de dia zero, oferecendo proteção em tempo real em vídeo, áudio e texto.


O que é a tecnologia Deepfake?

A tecnologia Deepfake significa criar algo que não é real, mas que parece e soa completamente real.

Trata-se de imagens, vídeos ou clips de áudio gerados por IA que mostram pessoas ou eventos que nunca aconteceram.

Então, isso significa que são iguais à edição tradicional?
Não é bem assim. 

Deteção de IA Deteção de IA

Nunca mais se preocupe com o facto de a IA detetar os seus textos. Undetectable AI Pode ajudar-vos:

  • Faça aparecer a sua escrita assistida por IA de tipo humano.
  • Bypass todas as principais ferramentas de deteção de IA com apenas um clique.
  • Utilização IA com segurança e com confiança na escola e no trabalho.
Experimenta GRATUITAMENTE
  • Edição tradicional é o que os editores de vídeo têm vindo a fazer há décadas. Inclui o corte, a junção, a correção de cor e a adição manual de efeitos visuais. Utiliza ferramentas de software como o Photoshop ou o Premiere Pro. 
  • Falsificações profundas automatizam esse processo. Utilizam modelos de IA que podem estudar milhares de imagens do rosto de uma pessoa e depois gerar movimentos ou expressões novos e realistas que nunca foram registados.

Por exemplo:

Num deepfake, a IA pode trocar o rosto de um ator pelo de outro, fazer corresponder cada pestanejo e expressão, e até fazê-los dizer palavras que nunca disseram.

O que é a tecnologia Deepfake? Perigos e deteção o que é a tecnologia deepfake

Agora, antes de entrarmos na forma como esta tecnologia deepfake funciona, vamos ver onde tudo começou.

A palavra "deepfake" resulta da combinação de "aprendizagem profunda" e "falso".

Surgiu pela primeira vez em 2017, quando um O utilizador do Reddit criou uma comunidade para partilhar vídeos gerados por IA.

Pouco tempo depois, ferramentas de código aberto como o DeepFaceLab, FakeApp e ZAO tornaram possível a quase toda a gente criar deepfakes realistas em minutos.

Atualmente, só o DeepFaceLab é responsável por mais de 95% de todos os vídeos deepfake em linha. E já não é necessário um computador topo de gama ou conhecimentos de programação.

Com apenas um pequeno clip de voz e alguns dólares, qualquer pessoa pode fazer-se passar por outra pessoa online.

Agora, vamos à questão "como é que a tecnologia DeepFake funciona?".

A tecnologia Deepfake baseia-se em dois modelos-chave de IA: Redes Adversariais Generativas (GANs) e Autoencodificadores Variacionais (VAEs).

  • GANs funcionam como um confronto digital. Uma IA (o gerador) tenta criar conteúdos falsos, enquanto outra (o discriminador) tenta apanhá-los. Em cada ronda, ambas melhoram, até que a falsificação se torna quase impossível de detetar.
  • VAEs, por outro lado, são mais como estudantes cuidadosos da realidade. Aprendem os padrões, a iluminação e os detalhes faciais das pessoas reais, comprimindo e reconstruindo imagens vezes sem conta. Quanto mais praticam, mais naturais parecem os seus rostos recriados. 

Os VAEs funcionam como a base. Ensinam ao sistema o aspeto, o movimento e a reação à luz dos rostos reais.

Uma vez construída essa compreensão, os GANs refinam o resultado. Aperfeiçoa os detalhes, suaviza o movimento e aperfeiçoa as expressões até que cada fotograma pareça convincentemente real.

Formatos comuns: Vídeo, áudio, imagens e texto

A tecnologia Deepfake não se limita aos vídeos. Podem existir em quase todos os formatos que utilizamos online. 

A IA pode manipular sons, imagens e até palavras escritas para criar versões sintéticas da realidade.

Vamos analisar a forma como cada formato está a ser utilizado.

FormatoDescriçãoExemploFontes
VídeoVídeos gerados por IA que misturam imagens e áudio falsos através de troca de rostos ou transferência de desempenho.Em 2024, os burlões fizeram-se passar por um executivo da Arup numa videochamada em direto, utilizando deepfakes para roubar $25.6M.Fonte
Áudio (Clonagem de voz)A IA clona a voz de uma pessoa utilizando amostras curtas para a fazer dizer coisas que nunca disse.Em 2024, uma voz clonada do CEO do LastPass foi usada no WhatsApp para enganar um funcionário, parte de um aumento de 680% em ataques de deepfake de voz.Fonte
ImagensImagens falsas de um único fotograma utilizadas para difundir desinformação ou manipular os mercados.Em 2023, uma fotografia falsa da explosão do Pentágono tornou-se viral, provocando uma breve queda do S&P 500.Source
TextoNotícias falsas escritas por IA, propaganda ou relatórios destinados a enganar ou manipular.Falsas publicações políticas e análises financeiras falsas criadas com ferramentas de IA espalharam-se pela Internet.

A clonagem de voz é o mais perigoso de todos os formatos, porque é acessível e fácil de criar. 

A tecnologia de vídeo deepfake também é ameaçadora, mas continua a necessitar de computadores potentes e de longos tempos de processamento. 

Uma voz falsa pode ser criada em apenas alguns minutos, por vezes utilizando apenas um clip de áudio de 60 segundos. 

Estas vozes clonadas já estão a ser utilizadas em esquemas telefónicos, chamadas de executivos falsos e fraudes em call-centers. 

Mas não se fica por aqui. A tecnologia Deepfake está a evoluir rapidamente e dois novos formatos já estão a causar problemas.

  1. Falsificação de documentos digitais

A IA pode agora criar ou alterar documentos oficiais, como passaportes, bilhetes de identidade e até extractos financeiros.

Só em 2024, os casos de falsificação de documentos digitais disparada pelo 244%A fraude documental é a maior fraude documental do mundo, representando mais de metade do total.

Muitos destes ataques estão a visar sistemas de identificação nacionais, como o Tax ID da Índia e o Cartão de Identidade Nacional do Paquistão.

  1. Falsificação biométrica (KYC Bypass)

Depois há a falsificação biométrica. Falsificações profundas feitas para enganar os sistemas de verificação facial ou de voz.

Pense nas verificações de identidade utilizadas durante os registos bancários ou a integração de empresas.

Atualmente, os atacantes utilizam rostos ou vozes sintéticas para contornar estes sistemas, e tais ataques saltaram 704% em 2023. É por isso que o simples "controlos de vivacidade" já não é suficiente. 

A ascensão da tecnologia Deepfake

Vamos analisar os dados.

Métrica2023Projeção para 2025-27Principais informações
Ficheiros Deepfake em circulação500,0008 milhões de eurosCrescimento explosivo 900%
Tentativas de fraude relacionadas com o DeepfakeLinha de base+3,000% em relação ao ano anterior (2023)Exploração organizada e em grande escala
Perda média de negócios por incidente-~$500,000Risco financeiro grave
Perdas por fraude com recurso a IA (EUA)$12.3B$40B (até 2027)32% aumento anual
Precisão da deteção humana-24.5%A revisão manual deixou de ser fiável

Para combater as falsificações profundas, precisamos de tecnologia que aprenda tão rapidamente como as falsificações. E uma das ferramentas de deteção de Deepfake mais fiáveis atualmente é TruthScan.

Captura de ecrã do painel de controlo do TruthScan que mostra as ferramentas de deteção de IA e deepfake

Se não conhece esta plataforma, trata-se de uma plataforma de deteção de deepfake em tempo real concebida para ser dimensionada.

Utiliza Redes Adversariais Generativas (GANs) e Modelos de visão-linguagem (VLMs) para detetar as mais pequenas inconsistências em vídeo, áudio e texto.

Vários testes demonstraram que O TruthScan atinge uma precisão de até 98%em comparação com cerca de 70% com ferramentas forenses mais antigas. 

Efectua verificações contínuas em todos os canais digitais. Isto significa que as organizações podem detetar deepfakes antes de causarem danos, e não depois.

Do entretenimento e dos memes às ameaças graves

A tecnologia Deepfake começou como entretenimento.

Como mencionámos acima, os utilizadores do reddit trocavam caras para se rirem, criavam memes e melhoravam cenas de filmes. 

Hollywood chegou mesmo a utilizá-lo para o envelhecimento digital e a magia da pós-produção. Mas essa fase alegre não durou muito tempo. 

Em 2017, surgiu a primeira grande utilização indevida. Tratava-se de um pornografia deepfake não consensual

De 2018 a 2022, a tecnologia Deepfake passou de um divertimento inofensivo a uma ferramenta séria de manipulação e crime. 

Os primeiros exemplos incluem o Vídeo deepfake do presidente do Gabão em 2018, o que provocou agitação política.

Em 2023, com ferramentas poderosas como Midjourney 5.1 e DALL-E 2, a criação de deepfake tornou-se fácil e perigosa.

Chegou então o momento em que já não são apenas as figuras públicas que são visadas. As pessoas comuns enfrentam agora deepfakes utilizados para assédio, chantagem e vingança. 

Os vídeos falsos surgiram mesmo em casos de divórcio, candidaturas a emprego e disputas internas de empresas.

Casos de abuso político e empresarial

A tecnologia Deepfake entrou oficialmente no mundo dos negócios e da política. 

Exemplos de utilização abusiva por parte das empresas:

Em 2024, os burlões enganaram os empregados da Arup usando vídeo deepfake e clonagem de voz.

Fingiram ser executivos de topo numa videochamada em direto e convenceram os funcionários a transferir $25,6 milhões. O esquema funcionou porque as pessoas confiaram no rosto e na voz familiar no ecrã.

Nesse mesmo ano, os piratas informáticos atacaram LastPass clonando a voz do diretor-geral no WhatsApp.

Utilizaram-na para pressionar um empregado a tomar medidas urgentes fora de horas.

Estes tipos de burlas estão a tornar-se comuns porque os criminosos podem facilmente encontrar gravações públicas, como entrevistas ou discursos, para copiar a voz ou o rosto de alguém.

Isto significa que qualquer executivo que apareça em linha pode tornar-se um alvo.

Exemplos de abuso de poder político:

O Fórum Económico Mundial considerou a desinformação impulsionada pela IA um dos principais riscos globais de 2024, com os deepfakes no centro.

Em agosto de 2024, os investigadores descobriram o Rede de Spamouflageuma operação nas redes sociais que se crê estar ligada à China, que utilizou deepfakes para desacreditar o Presidente das Filipinas.

Tácticas semelhantes foram utilizadas na guerra, como vídeos falsos de Presidente ucraniano Volodymyr Zelenskyy parecendo render-se.

Riscos e perigos dos Deepfakes

Vamos analisar a forma como a tecnologia deepfake está a mudar a ideia daquilo em que podemos confiar.

  1. Riscos para a governação e a confiança

Se tudo pode ser falsificado, em que é que podemos confiar? A tecnologia Deepfake abalou a nossa confiança na informação digital.

Quer se trate de um discurso de um político, de um clip de notícias de última hora ou de um vídeo viral, a maioria das pessoas pergunta-se agora, "Isto é real ou gerado por IA?" 

Esta dúvida crescente dificulta a manutenção da credibilidade dos governos, dos jornalistas e das instituições.

Como vimos anteriormente, os deepfakes já foram utilizados para espalhar desinformação política e até imitar funcionários públicos.

  1. Catástrofes financeiras e empresariais

No mundo financeiro, a tecnologia deepfake está a tornar-se rapidamente um problema de mil milhões de dólares.

Os burlões estão agora a utilizar vozes clonadas, vídeos falsos e identidades sintéticas para enganar empregados, investidores e empresas inteiras. 

Já vimos como as imitações de executivos e os incidentes de manipulação de mercado podem abalar grandes empresas, bastando uma videochamada convincente ou uma voz familiar a dizer a coisa errada.

  1. Vulnerabilidades técnicas e sociais

A tecnologia Deepfake está a quebrar sistemas que antes pensávamos serem infalíveis.

O reconhecimento facial e a verificação de voz, que outrora eram fiáveis em termos de segurança, podem agora ser contornados com rostos e vozes gerados por IA.

Isto significa que mesmo "provas" como uma fotografia ou um vídeo não é automaticamente fiável. 

Para além disso, o comportamento humano aumenta o risco. As pessoas mais velhas e os grandes utilizadores das redes sociais têm mais probabilidades de acreditar e partilhar deepfakes, o que ajuda a que se espalhem ainda mais rapidamente. 

Como o TruthScan protege as organizações

O TruthScan é uma ferramenta de deteção de deepfake que adiciona uma camada de verificação à própria realidade. 

Em que é que isto difere dos sistemas tradicionais? 

Os sistemas tradicionais de deteção de deepfake analisam apenas imagens ou áudio, mas o TruthScan utiliza a verificação multimodal. 

O que é a verificação multimodal? 

Significa que faz verificações cruzadas de vídeo, áudio, texto e metadados em tempo real para detetar inconsistências que os olhos humanos e os sistemas antigos não detectam.

  • É valida a autenticidade da fonte antes de o conteúdo ser publicado ou partilhado. Garante que as marcas, os executivos e as instituições não amplificam inadvertidamente os meios de comunicação manipulados.
  • É reforça a verificação da identidade contra tentativas de clonagem de voz e de troca de rosto, detectando impressões digitais sintéticas invisíveis a olho nu.
  • É protege a confiança organizacional preservando a proveniência do conteúdo, para que cada vídeo ou documento verificado tenha uma cadeia ininterrupta de autenticidade.

Num mundo em que a própria verdade está a ser atacada, a ferramenta de deteção de deepfake TruthScan detecta a falsificação e restaura a confiança no que é real.

Como detetar Deepfakes: Melhores métodos para detetar meios de comunicação falsos

A deteção da tecnologia deepfake requer uma defesa em três camadas, como a revisão humana, a análise forense e a deteção adaptativa por IA.

  • Formas manuais de detetar Deepfakes

Um revisor treinado pode corretamente identificar deepfakes de alta qualidade apenas 24.5% do tempo.

Existem sinais tradicionais como iluminação inadequada, sombras não naturais ou movimentos labiais dessincronizados que se tornaram pouco fiáveis. 

Os GANs modernos suavizam essas falhas e, quando o vídeo é comprimido (como nas redes sociais), esses pequenos sinais desaparecem completamente.

  • Abordagens técnicas e analíticas

Este método é mais fiável do que a revisão manual, mas tem um custo computacional elevado. 

Vamos perceber como funcionam estas abordagens:

Começa com técnicas de análise forense que é a base da deteção técnica de deepfake.

Estas ferramentas dividem os meios de comunicação em pormenores microscópicos para ver inconsistências invisíveis para os humanos. 

Por exemplo:

  • A análise fotograma a fotograma disseca os vídeos em imagens individuais, o que ajuda a identificar padrões não naturais, como iluminação irregular ou movimentos faciais desfasados. 

Depois vem Análise do nível de erro (ELA)que inverte o processo de edição, realçando as diferenças na compressão de píxeis. É um sinal revelador de manipulação. 

À medida que nos vamos aprofundando, coerência espácio-temporal analisam a forma como a voz, os gestos e as expressões faciais se alinham ao longo do tempo. Mesmo um pequeno atraso entre o movimento dos lábios e o áudio pode denunciar uma origem sintética.

Mas embora estes métodos sejam poderosos, também consomem muitos recursos.

O processamento de milhares de vídeos fotograma a fotograma não é prático em grande escala, especialmente quando milhões de novos ficheiros multimédia são carregados diariamente. 

A tecnologia Deepfake evolui devido à forma como é feita. Cada vez que um detetor de deepfake melhora, o gerador de falsificações (o "adversário") aprende com isso e produz resultados ainda mais convincentes. 

Este constante vai-e-vem é conhecido como loop adversarial. Isto significa que os sistemas estáticos de deteção de deepfake ficam desactualizados em poucos meses. 

A única defesa sustentável é a IA que aprende em tempo real, utilizando redes neurais para se atualizar constantemente à medida que surgem novas técnicas de deepfake. 

  • Usando as ferramentas de deteção de IA do TruthScan

Todos os métodos que vimos acima ainda não são tão avançados para detetar com precisão a tecnologia deepfake. A velocidade, a escala e a sofisticação destes ataques exigem sistemas de IA especializados e adaptáveis, criados especificamente para este campo de batalha em evolução. 

É aí que TruthScan entra em cena. O TruthScan foi projetado especificamente para a defesa no mundo real. 

  • Os seus Sistema de aprendizagem com base em IA nunca pára de treinar, estuda diariamente novos tipos de tecnologia deepfake e actualiza-se automaticamente. Isto significa que consegue detetar até os mais avançados "dia zero" deepfakes, aqueles que ninguém viu antes, sem precisar de humanos para o treinar.
  • Também funciona em tempo real em todos os principais canais de comunicação desde videochamadas e centrais de atendimento até plataformas de mídia digital. O TruthScan não analisa apenas uma coisa. Ele verifica vídeo, áudio e texto juntos, certificando-se de que tudo esteja alinhado. 

Eis como protege diferentes tipos de organizações:

  • Instituições financeiras: O TruthScan detecta vozes falsas nas chamadas de apoio ao cliente, bloqueia identidades tecnológicas deepfake durante as verificações KYC (que estão a aumentar rapidamente) e impede que executivos falsos aprovem transferências bancárias fraudulentas.
  • Empresas: Mantém a comunicação interna real. Assinala os meios de comunicação adulterados que podem ser utilizados para chantagem, desinformação ou danos à marca. Também pode analisar registos de comunicação mais antigos para detetar padrões de conteúdo sintético, criando segurança a longo prazo.
  • Governo e sector público: O TruthScan verifica os meios de comunicação utilizados em investigações e anúncios públicos, protegendo contra vídeos políticos falsos ou declarações manipuladas que possam perturbar a confiança do público ou a segurança nacional.

O TruthScan é uma ferramenta de deteção de deepfake que oferece às organizações a velocidade, a precisão e a adaptabilidade necessárias para se manterem à frente. 

Experimente o nosso Detetor de IA e o Humanizer diretamente no widget abaixo!

Conclusão

A tecnologia Deepfake começou como uma experiência inteligente. Era uma forma de pôr a cara de Nicolas Cage em tudo. 

Mas agora, está a invadir reuniões de direção, campanhas eleitorais e contas bancárias. E a brincadeira acabou.

O que era antes "diversão inofensiva" no Reddit transformou-se numa máquina de fraude de mil milhões de dólares. 

A parte assustadora?

A maioria das pessoas ainda não consegue distinguir o que é verdadeiro. Mesmo os especialistas só conseguem detetar falsificações de alta qualidade num quarto das vezes. A linha entre ver e acreditar está oficialmente esbatida.

E as ferramentas de deteção de "deepfake" em que outrora confiámos para detetar a manipulação já estão um passo atrás. 

Os falsos estão sempre a aprender, a adaptar-se e a melhorar.

É por isso que o futuro da defesa digital depende da IA que combate a IA. 

Ferramenta de deteção de deepfake como TruthScan tem sistemas adaptativos que evoluem em tempo real e detecta o que os humanos não conseguem.

Num mundo em que qualquer pessoa pode "dizer" ou "parecer" fazer qualquer coisa, a verdade não está morta, apenas precisa de mais segurança. 

Porque o próximo vídeo viral pode não ser apenas uma notícia falsa... pode ser um "tu" falso.

Undetectable AI (TM)