"A inteligência artificial age como um aprimorador de desempenho para os criminosos cibernéticos. Ela efetivamente eleva o nível dos bandidos de nível médio." [1]
No último ano, a inteligência artificial (IA) evoluiu rapidamente, potencializando tudo, desde pesquisas personalizadas até diagnósticos médicos avançados. Mas, enquanto a tecnologia avança rapidamente, uma realidade mais sombria se aproxima: os criminosos cibernéticos estão usando essas mesmas descobertas de IA como armas para aperfeiçoar os golpes, fazer-se passar por vítimas e ampliar os empreendimentos ilegais.
Os órgãos governamentais, desde o Internet Crime Complaint Center (IC3) do FBI até o Departamento de Segurança Interna (DHS), apontaram o crime cibernético orientado por IA como um problema de rápido crescimento. [2][8]
Pesquisamos as descobertas do governo dos EUA e análises confiáveis de terceiros sobre como a IA está sendo usada para crimes cibernéticos em 2024. De golpes assustadores de deepfake a potente campanhas de phishingSe o seu filho não tiver uma boa visão, aqui está o que os dados e as verificações de fatos revelam.
Principais conclusões:
- A IA é um fator contribuinte, mas não a única causa de todos os ataques cibernéticos. O hacking tradicional persiste em escala.
- A personificação de deepfake não é mais ficção científica; ela está acontecendo agora.
- A geração de sextortion e CSAM usando IA é uma prioridade urgente para as agências de aplicação da lei e de proteção à criança.
- A desinformação é uma ameaça à segurança nacional, com a IA alimentando personas e narrativas falsas mais críveis.
- Uma aplicação mais rígida está no horizonte, já que o DOJ e o FBI prometem tratar os crimes assistidos por IA com maior seriedade.
- 56% dos americanos pesquisados disseram estar preocupados com Deep Fakes, IA que representa uma ameaça à vida humana ou uso ilegal. [9]*
1. Phishing e engenharia social aprimorados por IA
Uma nova era de phishing convincente
- O que está acontecendo?
Os criminosos usam IA generativa para criar e-mails e textos de phishing perfeitos e personalizados. Já se foi o tempo dos erros gramaticais ridículos. Agora, esses e-mails parecem polidos e hiperdirecionados, enganando até mesmo os destinatários mais atentos. [2][3] - Avisos oficiais
A divisão do FBI em São Francisco alerta sobre uma "ameaça crescente de criminosos cibernéticos que usam ferramentas baseadas em IA para orquestrar campanhas de phishing altamente direcionadas". [2] Em 2024, o IC3 relatou um aumento contínuo nas perdas relacionadas a phishing, embora não forneça uma contagem exata de quantas são orientadas por IA. [3] Qualitativamente, no entanto, os investigadores observam um aumento notável nas tentativas de phishing mais sofisticadas que ignoram os sinais de alerta típicos. - Destaque da verificação de fatos
Embora as reclamações de phishing estejam disparando em geral, o FBI não publicou uma porcentagem exata atribuída exclusivamente à IA. Em vez disso, eles enfatizam o realismo crescente e as taxas de sucesso desses golpes aprimorados por IA. Esse é um excelente exemplo de uma ameaça que é real, mesmo que os números precisos sejam ilusórios.
Impactos sobre empresas e indivíduos
- Comprometimento de e-mail comercial (BEC):
A IA ajuda os golpistas a replicar e-mails executivos ou adaptar mensagens em vários idiomas, aumentando o sucesso da fraude de BEC. As perdas com fraudes de BEC ultrapassaram $2,9 bilhões em 2023, de acordo com o FBI, e espera-se que 2024 ultrapasse esse valor - embora a fatia de IA ainda esteja sendo monitorada. [3] - Perdas pessoais:
As pessoas se deparam com alertas bancários falsos bem elaborados ou cartas de "golpe do romance" que parecem extremamente reais. Isso levou ao roubo de credenciais, ao esvaziamento de contas bancárias e ao roubo de identidade [2]. Os idosos continuam especialmente vulneráveis, pois os criminosos podem clonar vozes ou produzir mensagens parecidas com as de um cuidador.
2. Falsificação de identidade e fraude do Deepfake
Vozes falsas, dinheiro real
Imagine receber uma ligação frenética da voz de um ente querido implorando por dinheiro para resgate. Na realidade, A IA usou amostras de mídia social para gerar essa assinatura vocal exata.
De acordo com os boletins IC3 do FBI, a clonagem de voz surgiu como uma nova ferramenta para extorsão e golpes financeiros. [2][5] Também foram registrados incidentes de chamadas de "CEOs falsos" que enganam os funcionários para que transfiram fundos.
Nunca mais se preocupe com a detecção de seus textos pela IA. Undetectable AI Pode lhe ajudar:
- Faça sua escrita assistida por IA aparecer semelhante ao humano.
- Bypass todas as principais ferramentas de detecção de IA com apenas um clique.
- Uso IA com segurança e com confiança na escola e no trabalho.
Caso em questão: Em 2023, uma mãe do Arizona quase foi enganada quando acreditou ter ouvido a voz chorosa de sua filha adolescente em uma ligação falsa de "sequestro". Felizmente, ela verificou a segurança de sua filha antes de transferir o dinheiro.
Vídeos Deepfake e personificação
Os criminosos também produzem chamadas de vídeo geradas por IA com "CEOs" ou "parceiros de negócios" realistas, instruindo os funcionários a autorizar grandes transferências. O Departamento de Justiça (DOJ) adverte que essas chamadas de vídeo deepfake são assustadoramente confiáveis, especialmente em ambientes de trabalho remotos ou híbridos. [4][7]
Nota de verificação de fatos:
As autoridades policiais confirmaram vários incidentes, mas não publicaram uma contagem oficial de casos de deepfake. Os exemplos relatados, entretanto, alinham-se com os avisos consistentes do FBI/DOJ sobre um "aumento acentuado" no uso da tecnologia deepfake para golpes. [2][4][7]
3. Sextorção gerada por IA e abuso de mídia sintética
Alteração de imagens inocentes para exploração
- O que está acontecendo?
Os criminosos pegam fotos benignas (de mídias sociais ou não) e as manipulam para transformá-las em material explícito. Essa chamada "sextorsão deepfake" prospera com a capacidade da IA de gerar imagens ou vídeos perturbadoramente convincentes. [5] - As vítimas incluem menores de idade
O FBI, em um PSA de 2023, observou um aumento nos casos de sextorção em que as fotos de menores eram transformadas em material pornográfico falso. Os criminosos então ameaçam compartilhar ou publicar essas imagens fabricadas, a menos que as vítimas paguem ou forneçam conteúdo sexual real. [5] - Material de abuso sexual infantil (CSAM)
O DHS e o DOJ confirmam que as ferramentas de IA estão sendo usadas para criar conteúdo de abuso sexual infantil gerado por IA. Em agosto de 2024, o DOJ prendeu um indivíduo por usar IA para produzir pornografia infantil. [6] As autoridades policiais enfatizam que "CSAM gerado por IA ainda é CSAM".
Lembrete de verificação de fatos:
Fontes oficiais tratam inequivocamente o CSAM manipulado por IA como ilegal. Dados precisos sobre a prevalência são escassos, mas várias ações de fiscalização confirmam sua ameaça real e crescente.
4. Desinformação orientada por IA e interferência política
- Interferência eleitoral 2.0
Em julho de 2024, o DOJ interrompeu um bot farm russo secreto que usava personas falsas aprimoradas por IA para espalhar desinformação [4][7]. Essas contas de mídia social geradas por IA promoviam narrativas divisivas com uma sofisticação que os filtros automatizados tinham dificuldade de detectar. - Influência interna e externa
O diretor do FBI, Wray, observa que "a IA generativa... diminui a barreira de entrada" [1], tornando mais fácil para adversários estrangeiros e grupos domésticos criarem "notícias falsas" plausíveis, vídeos deepfake ou se passarem por políticos. - Não apenas spam
Esse conteúdo pode minar a confiança do público, semear confusão durante as eleições ou incentivar esquemas financeiros maliciosos. [4][8] O DHS classifica a desinformação orientada por IA como um crime "habilitado para a cibernética", reconhecendo que, embora possa não envolver hacking direto, ela explora plataformas digitais para fins ilegais ou enganosos.
Contexto de verificação de fatos:
O DOJ documentou bem a derrubada da "fazenda de bots". [4][7] Pesquisadores de segurança independentes corroboram que a criação de personas geradas por IA está em ascensão. No entanto, as agências oficiais raramente divulgam métricas exatas (por exemplo, "30% de desinformação agora é baseada em IA"). Em vez disso, eles se concentram em divulgar a seriedade e a sofisticação dessas campanhas.
5. Ameaças emergentes: Malware e hacking assistidos por IA
WormGPT e muito mais
Em fóruns clandestinos, os criminosos estão divulgando modelos de IA - como o "WormGPT" - ajustados para a criação de malware. O DHS adverte que essas ferramentas "preenchem lacunas de conhecimento, como codificação de computadores", permitindo que hackers relativamente não qualificados lancem ataques avançados [8]. Embora o malware em larga escala criado por IA ainda seja limitado, os especialistas preveem que ele será uma grande preocupação no futuro.
Malware adaptável?
Os pesquisadores de segurança demonstraram que o malware orientado por IA pode modificar seu código ("polimorfismo") para evitar a detecção de antivírus. O DHS também teorizou sobre malware de "autoaprendizagem" que testa de forma autônoma novas explorações, mas exemplos reais continuam raros em 2024. [8]
Nota de verificação de fatos:
A maioria dos ataques de alto perfil (como ransomware) ainda depende de métodos convencionais, mas o FBI, a NSA e os especialistas em segurança cibernética veem sinais de que a IA faz cada vez mais parte do arsenal dos criminosos cibernéticos. Espere mais desenvolvimentos - e possivelmente mais estatísticas oficiais - até 2025.
Impactos e principais estatísticas (verificação de fatos)
- Reclamações gerais sobre crimes cibernéticos
- O IC3 do FBI recebeu mais de 880.000 reclamações de crimes cibernéticos em 2023, com perdas relatadas superiores a $12,5 bilhões - um aumento de 22% nas perdas em relação a 2022. [3]
- Embora a parte exata que envolve a IA não seja rastreada, os especialistas acreditam que o realismo da IA gera taxas de sucesso mais altas em golpes de phishing, BEC e falsificação de identidade. [2][3]
- Comprometimento de e-mail comercial (BEC)
- Continua sendo uma das formas mais caras de crime cibernético, ultrapassando $2,9 bilhões em perdas registradas em 2023. [3] O papel da IA? E-mails mais refinados, melhor localização e, ocasionalmente, chamadas ou vídeos deepfake.
- Sextortion Deepfake
- O FBI não publica uma contagem definitiva de incidentes de sextortion baseados em deepfake, mas "vários novos relatórios a cada mês" têm surgido. [5]
- Impacto na vítima: Humilhação pessoal, extorsão financeira e trauma emocional.
- Operações de desinformação
- O DOJ interrompeu um bot farm russo alimentado por IA em julho de 2024 [4][7]. As agências federais enfatizam a ameaça da desinformação propagada pela IA às eleições e aos processos democráticos dos EUA.
- Verificação de fatos sobre o mito da "terceira maior economia
- Algumas manchetes da mídia comparam os custos globais do crime cibernético ao PIB das principais nações, mas os $10-12 bilhões em perdas anuais relatadas nos EUA obviamente não estão nessa escala [3]. Os analistas estimam que o impacto econômico global do crime cibernético pode chegar a trilhões, colocando-o teoricamente entre as principais economias se forem incluídos todos os custos indiretos.
- "Contexto "Um em cada cinco crimes on-line
- Em determinadas regiões, cerca de 20-25% dos crimes relatados estão agora relacionados ao ciberespaço. Esse número não se aplica necessariamente a todo o mundo, mas destaca uma parcela crescente do total de crimes que são digitais.
Aplicação da lei e respostas políticas
- A postura mais rígida do DOJ
- A procuradora-geral adjunta Lisa Monaco prometeu "sentenças mais rígidas" para criminosos que exploram a IA para ampliar os delitos - tratando a IA como um fator agravante em casos de fraude, exploração infantil e outros. [6]
- Força-tarefa de IA da Segurança Interna
- O DHS está expandindo os esforços para detectar fraudes baseadas em IA, gerenciar a detecção de deepfake e proteger menores da exploração gerada por IA. [8] Ele também está explorando como usar a IA para defesa, examinando redes em busca de anomalias.
- Conformidade corporativa
- O DOJ agora pede às empresas que mostrem como lidam com os riscos de IA em seus programas de conformidade. Deixar de impedir que os funcionários façam mau uso da IA ou ignorar as vulnerabilidades de segurança da IA pode aumentar a responsabilidade corporativa. [6]
- Campanhas de conscientização pública
- O FBI, a FCC e a FTC lançaram alertas aos consumidores sobre golpes de "avós" baseados em IA e ligações falsas de sequestro. A mensagem? Sempre verifique chamadas ou mensagens suspeitas - ver (ou ouvir) não é mais acreditar na era da IA. [2][5]
56% dos americanos dizem estar preocupados com a IA prejudicial
Em novembro de 2024, a Undetectable AI fez uma pesquisa com 1.000 americanos nos Estados Unidos. [9] Os entrevistados, com idades entre 18 e 27 anos, indicaram que 23% acreditavam que a IA representa uma ameaça existencial para a humanidade, 18% expressaram preocupação com o uso ilegal de dados ou com a privacidade dos dados e 15% se preocuparam com o fato de a tecnologia de IA ser usada para criar deepfakes.
Olhando para o futuro: 2025 e além
Apesar da limitação de dados concretos sobre a prevalência exata de ataques orientados por IA, a tendência é clara: a IA está diminuindo as barreiras para os criminosos, permitindo golpes mais realistas e intensificando a desinformação. Enquanto isso, os defensores - autoridades policiais, especialistas em segurança cibernética e reguladores - estão se intensificando. Esperar:
- Mais IA na defesa: Ferramentas para análise forense de deepfake, filtros de phishing baseados em IA e detecção de anomalias em redes.
- Supervisão regulatória ampliada: É provável que o DOJ, a SEC e outros órgãos reprimam ainda mais o uso indevido da IA, impondo penalidades mais pesadas a indivíduos ou organizações que facilitem crimes relacionados à IA.
- Cooperação internacional mais ampla: O crime cibernético não tem fronteiras, e as operações conjuntas - como a derrubada de um bot farm russo pelo DOJ em julho de 2024 - se tornarão mais frequentes.
Conclusão: Um multiplicador de forças para o crime cibernético
O tema central que emerge de fontes oficiais e análises de especialistas é que a IA sobrecarrega os métodos cibercriminosos existentes. De phishing hiper-realista a chamadas de voz de "CEOs falsos", os criminosos usam a IA generativa para melhorar enormemente suas taxas de sucesso e explorar as vítimas que antes confiavam em simples "verificações instintivas" (erros de ortografia, sotaques errados etc.) para detectar golpes.
Mantenha-se vigilante e informado
A conscientização e a verificação do público são essenciais nesse ambiente de rápido crescimento. Seja você um executivo de alto escalão recebendo uma solicitação de transferência de última hora, um aposentado recebendo ligações de um "neto em crise" ou um usuário de mídia social confrontado com um vídeo sensacionalista de um político, lembre-se: se algo parecer estranho, verifique. A IA significa que os criminosos podem imitar pessoas reais ou criar ilusões com uma precisão surpreendente.
Metodologia
Conduzimos essa pesquisa examinando recursos oficiais do governo (como documentos publicados pelo Departamento de Justiça e o Relatório Anual de Crimes na Internet do IC3). Também examinamos comentários e cobertura de terceiros confiáveis sobre ameaças emergentes de crimes cibernéticos relacionadas à inteligência artificial. Também fizemos uma pesquisa com mais de 1.000 correspondentes nos Estados Unidos para entender suas preocupações com a IA. Por fim, verificamos os fatos neste relatório para garantir que todas as fontes citadas sejam precisas e atualizadas.
Uso justo
Você é bem-vindo e incentivado a apresentar esses dados em uma história ou artigo. Não se esqueça de atribuir a autoria à Undetectable AI e incluir um link para esta página para que os leitores possam visualizar o relatório completo.
Referências
- FBI: Prepare-se para um ano eleitoral com ameaças em ritmo acelerado, impulsionadas por vilões com IA - Defesa Um
- FBI alerta para o aumento da ameaça de criminosos cibernéticos que utilizam inteligência artificial (8 de maio de 2024)
- Internet Crime Complaint Center (IC3) - Relatório de crimes na Internet de 2023 e PSAs relacionados
- Escritório de Assuntos Públicos | Departamento de Justiça lidera esforços... para interromper a fazenda de bots de mídia social operada pelo governo russo (9 de julho de 2024)
- Internet Crime Complaint Center (IC3) | PSA: Atores mal-intencionados manipulando fotos e vídeos para criar conteúdo explícito e esquemas de sextortion (5 de junho de 2023)
- Homem preso por produzir, distribuir e possuir imagens geradas por IA de menores envolvidos em condutas sexualmente explícitas
- DOJ e parceiros interrompem a fazenda de bots russa - Detalhes da aplicação (julho de 2024)
- DHS: "Impacto da Inteligência Artificial em Atividades Criminosas e Ilícitas" (27 de setembro de 2024)
- Pesquisa de 2024 conduzida por IA indetectável