85 % dos norte-americanos dizem que os deepfakes diminuíram sua confiança nas informações on-line


As ferramentas de IA generativa transformaram as deepfakes de pesquisa científica em uma grande preocupação pública. As pessoas demonstram medo em relação à mídia sintética e, ao mesmo tempo, demonstram incapacidade de detectá-la, de acordo com os resultados da pesquisa de junho de 2025.

O FBI afirma que a tecnologia deepfake de IA permite atividades criminosas por meio de três métodos principais, que incluem mensagens de spam geradas por IA, personas de mídia social criadas por IA e sites de phishing codificados por IA.

O objetivo desses esquemas é atingir tanto organizações empresariais quanto consumidores individuais para exploração financeira. A combinação da tecnologia deepfake com IA resultou em mais de $200 milhões em perdas durante 2025.

A maioria dos americanos (85%) perdeu a confiança nas informações on-line durante o ano passado por causa de deepfakes e 81% temem danos pessoais causados por conteúdo falso de áudio e vídeo. Mais de 90% dos usuários não utilizam ferramentas de detecção. Os dados indicam uma "lacuna de confiança" crescente que exige intervenção imediata dos órgãos reguladores, operadores de plataformas e tecnólogos.


Principais conclusões

InsightDados de apoio
O vídeo Deepfake está no topo do índice de medo.73,5 % dos entrevistados escolheram o vídeo deepfake como o formato com o qual estão "mais preocupados", seguido por imagens (63,6 %), áudio (52,5 %) e texto (47,2 %). 
Está ocorrendo uma crise de confiança total.85,4 % relatam que se tornaram menos propensos a confiar em notícias, fotos ou vídeos on-line nos últimos 12 meses devido a deepfakes realistas. 
As ameaças pessoais se tornaram comuns.80,8 % temem que golpistas ou agentes mal-intencionados possam usar conteúdo deepfake como arma contra eles ou suas famílias. 
Forte consenso moral sobre o consentimento.62,2 % afirma que usar a imagem de uma pessoa real sem permissão é nunca aceitável; apenas 2.7 % dizem que é sempre aceitável. 


Metodologia

  • Amostra e trabalho de campo. Recrutamos 1.000 adultos dos EUA usando cotas de idade, gênero e regionais alinhadas com as referências do Censo dos EUA. O trabalho de campo foi concluído em 18 de junho de 2025.
  • Design da pergunta. Cinco perguntas fechadas mediram a preocupação com diferentes formatos de deepfake, mudanças recentes na confiança, percepção de risco pessoal, visões éticas sobre consentimento e uso prévio de software de detecção.
  • Margem de erro. ±3,1 pontos percentuais no nível de confiança de 95 %.
  • Ponderação. A ponderação pós-estratificação corrigiu pequenos desvios dos dados demográficos nacionais.

Perguntas

Q1: Com qual forma de IA Deepfakes você está mais preocupado? (Escolha todas as opções aplicáveis)

P2: O surgimento de imagens e vídeos realistas com IA deepfake tornou menos provável que você confie nas notícias e nos vídeos/fotos/artigos que viu on-line nos últimos 12 meses?

P3: Você teme que alguém possa usar a tecnologia deepfake de IA para criar um vídeo ou áudio falso seu ou de sua família (por exemplo, para se passar por você em um golpe ou difamá-lo)?

P4: Você acha aceitável que filmes ou mídia usem a tecnologia deepfake de IA para retratar pessoas reais (como atores ou figuras públicas) sem o consentimento dessas pessoas?


Análise de tendências

  1. A ansiedade do vídeo supera a de outros formatos

No passado, o vídeo era uma mídia confiável na qual as pessoas acreditavam quando o viam. As preocupações com o vídeo sintético agora dominam as mentes dos americanos, pois o vídeo perdeu seu status de confiável. As pessoas temem o vídeo mais do que as imagens por uma margem de 10 pontos (73,5% vs. 63,6%) porque o movimento do vídeo combinado com a voz sincronizada e a aparência realista intensifica suas preocupações. As organizações de mídia devem implementar procedimentos rigorosos de autenticação para o conteúdo de vídeo antes de divulgá-lo ao público.

  1. Erosão da confiança nas informações

A queda maciça nos níveis de confiança entre o público demonstra uma dúvida generalizada sobre todo tipo de conteúdo digital, independentemente de sua óbvia falta de credibilidade. A teoria do "discurso barato" demonstra como a facilidade de fabricação fez com que a verificação da verdade se tornasse responsabilidade do consumidor. As figuras públicas e os jornalistas, juntamente com os formuladores de políticas, precisam se preparar para um maior monitoramento, investindo em métodos de verificação claros (como marcas d'água criptográficas e metadados assinados).

Nunca mais se preocupe com a detecção de seus textos pela IA. Undetectable AI Pode lhe ajudar:

  • Faça sua escrita assistida por IA aparecer semelhante ao humano.
  • Bypass todas as principais ferramentas de detecção de IA com apenas um clique.
  • Uso IA com segurança e com confiança na escola e no trabalho.
Experimente GRATUITAMENTE
  1. Deepfakes se tornam pessoais

A maioria dos entrevistados (85%) imagina que eles mesmos ou seus familiares serão vítimas de ataques de deepfake. A percepção de deepfakes como ferramentas de desinformação política com foco em eleições e celebridades mudou para incluir ameaças pessoais nos últimos ciclos. A disseminação de aplicativos de clonagem de voz e troca de rosto com IA tornou o roubo de identidade e os golpes financeiros ameaças plausíveis para as famílias comuns, o que desencadeou demandas por melhores mecanismos de recurso das vítimas e leis de proteção de identidade.

  1. Demanda quase universal por consentimento

A pergunta ética da pesquisa revela como a comunidade de Hollywood continua dividida em relação a atores sintéticos e apresentações póstumas. A forte posição pública contra a violação dos direitos individuais surgiu como a opção "nunca aceitável", que recebeu o apoio de 62,2% dos participantes. As autoridades públicas devem usar essas evidências para criar leis que exijam o consentimento explícito dos indivíduos antes de criar representações de semelhanças geradas por IA e garantir a divulgação adequada dos rótulos.

  1. Lacuna de prontidão e oportunidade de educação

Embora exista uma grande preocupação com o problema, 89,5% dos entrevistados não usaram ferramentas de detecção. O mercado mostra um potencial latente, pois os níveis de interesse excedem os recursos de uso atuais, o que indica problemas de usabilidade e conscientização e dúvidas sobre a eficácia. A IA indetectável, juntamente com outros participantes do setor, deve criar processos de integração simples e, ao mesmo tempo, adicionar ferramentas de detecção às plataformas dos consumidores e desenvolver programas educacionais que expliquem a tecnologia de IA ao público.

Implicações para as partes interessadas

Partes interessadasConclusões práticas
Notícias e plataformas sociaisImplemente padrões de mídia autenticada (C2PA, proveniência W3C) e crachás de "origem verificada" para reconstruir a confiança do público.
Estúdios de entretenimentoInstitua contratos explícitos de adesão para semelhanças sintéticas e adote divulgações na tela quando a recreação com IA for usada.
ReguladoresAvançar os projetos de lei sobre direito de publicidade e rotulagem de deepfake para alinhar-se às expectativas de consentimento público.
Empresas e marcasMonitore proativamente as imagens da marca em busca de manipulações e instrua os funcionários sobre como identificar conteúdo suspeito.
ConsumidoresProcure ferramentas de detecção confiáveis e pratique a higiene digital "pausar, verificar, compartilhar" antes de ampliar a mídia.

Comentários

Coletamos respostas adicionais dos participantes da pesquisa relacionadas ao seu uso de ferramentas de detecção de falsificações profundas com IA, o que revelou que alguns já as estão usando e que uma grande parte dos indivíduos disse que não as conhecia, mas que está interessada em saber mais. Os dados completos da pesquisa estão disponíveis mediante solicitação.

Este relatório é um resumo de IA de nossas descobertas completas, que estão disponíveis mediante solicitação.


Conclusão

As preocupações com o Deepfake em 2025 são definidas por um paradoxo gritante: alarme público crescente que se cruza com uma ação protetora mínima. Com a confiança em declínio, as organizações enfrentam uma necessidade urgente de verificar, rotular e autenticar o conteúdo digital.

Uso justo

Fique à vontade para usar essas informações em um artigo ou postagem de blog, desde que nos forneça um link e uma citação. Para ter acesso ao conjunto completo de dados da pesquisa, não hesite em entrar em contato conosco diretamente.

Para consultas à imprensa ou acesso a crosstabs completas, entre em contato com [email protected] ou [email protected]

Direitos autorais © 2023 Code Blog Pro. Todos os direitos reservados