Tendências do cibercrime com IA e como podem prejudicá-lo em 2025

"A inteligência artificial actua como um melhorador de desempenho para os cibercriminosos. Na verdade, eleva o nível dos bandidos de nível médio". [1]

No último ano, a inteligência artificial (IA) evoluiu rapidamente, permitindo tudo, desde a pesquisa personalizada a diagnósticos médicos avançados. Mas enquanto a tecnologia avança, uma realidade mais sombria se aproxima: os cibercriminosos estão a usar essas mesmas descobertas de IA como armas para aperfeiçoar as burlas, fazer-se passar por vítimas e amplificar as actividades ilegais. 

As agências governamentais - desde o Internet Crime Complaint Center (IC3) do FBI até ao Department of Homeland Security (DHS) - assinalaram a cibercriminalidade baseada na IA como um problema em rápido crescimento. [2][8]

Pesquisámos as conclusões do governo dos EUA e análises credíveis de terceiros sobre a forma como a IA está a ser utilizada para a cibercriminalidade em 2024. De esquemas assustadores de deepfake a potente campanhas de phishingEis o que os dados - e as verificações dos factos - revelam.

Principais conclusões:

  1. A IA é um fator que contribui, mas não é a única causa de todos os ciberataques. A pirataria informática tradicional persiste em grande escala.
  2. A falsificação profunda de identidade já não é ficção científica; está a acontecer agora.
  3. A geração de sextortion e CSAM com recurso à IA é uma prioridade urgente para as agências de aplicação da lei e de proteção das crianças.
  4. A desinformação é uma ameaça à segurança nacional, com a IA a alimentar personalidades e narrativas falsas mais credíveis.
  5. O DOJ e o FBI prometem tratar os crimes assistidos por IA com maior seriedade.
  6. 56% dos americanos inquiridos afirmaram estar preocupados com as Deep Fakes, com a IA que representa uma ameaça para a vida humana ou com a sua utilização ilegal. [9]* 

1. Phishing e engenharia social melhorados por IA

Uma nova era de phishing convincente

  • O que é que está a acontecer?
    Os criminosos utilizam a IA generativa para criar mensagens de correio eletrónico e de texto de phishing perfeitas e personalizadas. Já lá vai o tempo dos erros gramaticais ridículos. Agora, estes e-mails parecem polidos e hiper-direcionados, enganando até os destinatários mais atentos. [2][3]
  • Avisos oficiais
    A divisão de São Francisco do FBI alerta para uma "ameaça crescente de cibercriminosos que utilizam ferramentas alimentadas por IA para orquestrar campanhas de phishing altamente direcionadas". [2] Em 2024, o IC3 relatou um aumento contínuo nas perdas relacionadas ao phishing - embora não forneça uma contagem exata de quantos são orientados por IA. [3] Qualitativamente, no entanto, os investigadores observam um aumento notável nas tentativas de phishing mais sofisticadas que contornam os sinais de alerta típicos.
  • Fact-Check em destaque
    Embora as queixas de phishing estejam a disparar em geral, o FBI não publicou uma percentagem exacta atribuída exclusivamente à IA. Em vez disso, salienta o realismo crescente e as taxas de sucesso destas fraudes melhoradas por IA. É um excelente exemplo de uma ameaça que é real - mesmo que os números exactos sejam ilusórios.

Impacto sobre as empresas e os particulares

  • Compromisso de e-mail comercial (BEC):
    A IA ajuda os golpistas a replicar e-mails executivos ou adaptar mensagens em vários idiomas, aumentando o sucesso na fraude BEC. As perdas resultantes de fraudes BEC excederam $2,9 mil milhões em 2023, de acordo com o FBI, e espera-se que 2024 ultrapasse esse valor - embora a fatia da IA ainda esteja a ser monitorizada. [3]
  • Perdas pessoais:
    As pessoas são confrontadas com alertas bancários falsos bem elaborados ou com cartas de "burla romântica" que parecem terrivelmente reais. Isto levou ao roubo de credenciais, ao esvaziamento de contas bancárias e ao roubo de identidade [2]. As pessoas idosas continuam a ser especialmente vulneráveis, uma vez que os criminosos podem clonar vozes ou produzir mensagens semelhantes às de um cuidador.

2. Falsificação de identidade e fraude no Deepfake

Vozes falsas, dinheiro real

Imagine receber uma chamada frenética da voz de um ente querido a pedir dinheiro para um resgate. Na realidade, A IA utilizou amostras das redes sociais para gerar essa assinatura vocal exacta. 

De acordo com os boletins IC3 do FBI, a clonagem de voz surgiu como uma nova ferramenta para extorsão e burlas financeiras. [2][5] Foram também registados incidentes de chamadas de "falsos diretores executivos" que enganam os empregados e os levam a transferir fundos.

Nunca mais se preocupe com o facto de a IA detetar os seus textos. Undetectable AI Pode ajudar-vos:

  • Faça aparecer a sua escrita assistida por IA de tipo humano.
  • Bypass todas as principais ferramentas de deteção de IA com apenas um clique.
  • Utilização IA com segurança e com confiança na escola e no trabalho.
Experimenta GRATUITAMENTE

Caso em questão: Em 2023, uma mãe do Arizona quase foi enganada quando acreditou ter ouvido a voz chorosa da sua filha adolescente numa chamada falsa de "rapto". Felizmente, ela verificou a segurança da filha antes de enviar o dinheiro.

Vídeos Deepfake e personificação

Os criminosos também produzem videochamadas geradas por IA com "CEOs" ou "parceiros de negócios" realistas, instruindo os funcionários a autorizar grandes transferências. O Departamento de Justiça (DOJ) alerta para o facto de estas videochamadas deepfake serem assustadoramente credíveis, especialmente em ambientes de trabalho remotos ou híbridos. [4][7]

Nota de verificação de factos:
As autoridades policiais confirmaram vários incidentes, mas não publicaram uma contagem oficial de casos de deepfake. No entanto, os exemplos relatados estão em consonância com os avisos consistentes do FBI/DOJ sobre um "aumento acentuado" na utilização da tecnologia deepfake para burlas. [2][4][7]

3. Sextorção gerada por IA e abuso dos meios de comunicação social sintéticos

Alteração de imagens inocentes para exploração

  • O que é que está a acontecer?
    Os criminosos pegam em fotografias benignas (das redes sociais ou outras) e manipulam-nas para as transformar em material explícito. Esta chamada "sextorção deepfake" prospera com a capacidade da IA para gerar imagens ou vídeos perturbadoramente convincentes. [5]
  • As vítimas incluem menores
    O FBI, num PSA de 2023, registou um aumento dos casos de sextorsão em que as fotografias de menores eram transformadas em material pornográfico falso. Os infractores ameaçam então partilhar ou publicar estas imagens fabricadas, a menos que as vítimas paguem ou forneçam conteúdo sexual real. [5]
  • Material de abuso sexual de crianças (CSAM)
    O DHS e o DOJ confirmam que estão a ser utilizadas ferramentas de IA para criar conteúdos de abuso sexual de crianças gerados por IA. Em agosto de 2024, o DOJ prendeu um indivíduo por utilizar a IA para produzir pornografia infantil[6]. [6] As autoridades policiais sublinham que "o CSAM gerado pela IA continua a ser CSAM". 

Lembrete de verificação de factos:
As fontes oficiais tratam inequivocamente o CSAM manipulado por IA como ilegal. Os dados precisos sobre a prevalência são escassos, mas várias acções de execução confirmam a sua ameaça real e crescente.

4. Desinformação e interferência política impulsionadas pela IA

  • Ingerência eleitoral 2.0
    Em julho de 2024, o DOJ desmantelou uma exploração secreta de bots russos que utilizava personagens falsas melhoradas por IA para espalhar desinformação [4][7]. Estas contas de redes sociais geradas por IA divulgavam narrativas divisivas com uma sofisticação que os filtros automatizados tinham dificuldade em detetar.
  • Influência interna e externa
    O diretor do FBI, Wray, observa que "a IA generativa... reduz a barreira à entrada" [1], tornando mais fácil, tanto para os adversários estrangeiros como para os grupos nacionais, criar "notícias falsas" plausíveis, vídeos "deepfake" ou fazer-se passar por políticos.
  • Não apenas spam
    Este conteúdo pode minar a confiança do público, semear a confusão durante as eleições ou encorajar esquemas financeiros maliciosos. [4][8] O DHS classifica a desinformação impulsionada por IA como um crime "cibernético" - reconhecendo que, embora possa não envolver pirataria direta, explora plataformas digitais para fins ilegais ou enganosos.

Contexto de verificação de factos:
O DOJ documentou bem o desmantelamento da "quinta de bots". [4][7] Investigadores de segurança independentes corroboram que a criação de personas geradas por IA está a aumentar. No entanto, as agências oficiais raramente divulgam métricas exactas (por exemplo, "30% de desinformação é agora baseada em IA"). Em vez disso, concentram-se em publicitar a gravidade e a sofisticação destas campanhas.

5. Ameaças emergentes: Malware e pirataria informática assistida por IA

WormGPT e mais além

Em fóruns clandestinos, os criminosos estão a promover modelos de IA - como o "WormGPT" - aperfeiçoados para escrever malware. O DHS alerta para o facto de estas ferramentas "preencherem lacunas de conhecimento, como a codificação informática", permitindo que hackers relativamente pouco qualificados lancem ataques avançados [8]. Embora o malware escrito por IA em grande escala ainda seja limitado, os especialistas prevêem que será uma grande preocupação no futuro.

Malware adaptável?

Os investigadores de segurança demonstraram que o malware orientado para a IA pode transformar o seu código ("polimorfismo") para escapar à deteção antivírus. O DHS também teorizou sobre malware de "auto-aprendizagem" que testa autonomamente novas explorações, mas os exemplos do mundo real continuam a ser raros em 2024. [8]

Nota de verificação de factos:
A maioria dos ataques de grande visibilidade (como o ransomware) ainda se baseia em métodos convencionais, mas o FBI, a NSA e os especialistas em cibersegurança vêem sinais de que a IA faz cada vez mais parte do arsenal dos cibercriminosos. Esperam-se mais desenvolvimentos - e possivelmente mais estatísticas oficiais - até 2025.

Impactos e principais estatísticas (verificação dos factos)

  1. Queixas globais de cibercriminalidade
    • O IC3 do FBI recebeu mais de 880 000 queixas de cibercrime em 2023, com perdas registadas superiores a $12,5 mil milhões - um aumento de 22% nas perdas em relação a 2022. [3]
    • Embora a parte exacta que envolve a IA não seja monitorizada, os especialistas acreditam que o realismo da IA conduz a taxas de sucesso mais elevadas em esquemas de phishing, BEC e falsificação de identidade. [2][3]
  2. Compromisso de correio eletrónico empresarial (BEC)
    • Continua a ser uma das formas mais dispendiosas de cibercrime, ultrapassando os $2,9 mil milhões em perdas registadas em 2023. [3] O papel da IA? E-mails mais polidos, melhor localização e, ocasionalmente, chamadas ou vídeos deepfake.
  3. Deepfake Sextortion
    • O FBI não publica uma contagem definitiva dos incidentes de sextorção baseados em deepfake, mas têm surgido "vários novos relatórios todos os meses". [5]
    • Impacto na vítima: Humilhação pessoal, extorsão financeira e trauma emocional.
  4. Operações de desinformação
    • O DOJ interrompeu um bot farm russo alimentado por IA em julho de 2024 [4][7]. As agências federais enfatizam a ameaça da desinformação propagada pela IA às eleições e aos processos democráticos dos EUA.
  5. Fact-Check sobre o mito da "terceira maior economia
    • Alguns títulos dos meios de comunicação social comparam os custos globais da cibercriminalidade com o PIB das principais nações, mas os $10-12 mil milhões de euros de perdas anuais registadas nos EUA não estão obviamente a essa escala [3]. Os analistas estimam que o impacto económico global da cibercriminalidade pode atingir os biliões, colocando-a teoricamente entre as principais economias, se incluirmos todos os custos indirectos.
  6. "Contexto "Um em cada cinco crimes em linha
    • Em certas regiões, cerca de 20-25% dos crimes comunicados estão atualmente relacionados com o ciberespaço. Este valor não se aplica necessariamente a todo o mundo, mas evidencia uma percentagem crescente da criminalidade total que é digital.

Aplicação da lei e respostas políticas

  1. A posição mais dura do DOJ
    • A Procuradora-Geral Adjunta Lisa Monaco prometeu "sentenças mais duras" para os criminosos que exploram a IA para amplificar os crimes - tratando a IA como um fator agravante em casos de fraude, exploração infantil e outros. [6]
  2. Grupo de Trabalho sobre IA da Segurança Interna
    • O DHS está a expandir os esforços para detetar fraudes baseadas em IA, gerir a deteção de deepfake e proteger os menores da exploração gerada por IA[8]. [8] Está também a explorar a forma de utilizar a IA para a defesa, analisando as redes em busca de anomalias.
  3. Conformidade empresarial
    • O DOJ pede agora às empresas que mostrem como lidam com os riscos da IA nos seus programas de conformidade. Não impedir que os funcionários utilizem indevidamente a IA, ou ignorar as vulnerabilidades de segurança da IA, pode aumentar a responsabilidade da empresa. [6]
  4. Campanhas de sensibilização do público
    • O FBI, a FCC e a FTC lançaram alertas aos consumidores sobre as burlas dos "avós" com base em IA e as chamadas de sequestro "deepfake". A mensagem? Verificar sempre as chamadas ou mensagens suspeitas - ver (ou ouvir) já não é acreditar na era da IA. [2][5]

56% dos americanos dizem estar preocupados com a IA nociva

Em novembro de 2024, a Undetectable AI realizou um inquérito a 1000 americanos nos Estados Unidos[9]. [9] Os inquiridos, com idades compreendidas entre os 18 e os 27 anos, indicaram que 23% acreditavam que a IA representa uma ameaça existencial para a humanidade, 18% manifestaram preocupação com a utilização ilegal de dados ou com a privacidade dos dados e 15% estavam preocupados com a utilização da tecnologia de IA para criar deepfakes.

Olhando para o futuro: 2025 e mais além

Apesar da escassez de dados concretos sobre a prevalência exacta de ataques conduzidos por IA, a tendência é clara: a IA está a reduzir as barreiras para os criminosos, permitindo fraudes mais realistas e intensificando a desinformação. Entretanto, os defensores - autoridades policiais, especialistas em cibersegurança e reguladores - estão a intensificar-se. Esperar:

  • Mais IA na Defesa: Ferramentas para análise forense de deepfake, filtros de phishing baseados em IA e deteção de anomalias em redes.
  • Supervisão regulatória ampliada: O DOJ, a SEC e outros provavelmente irão reprimir ainda mais o uso indevido da IA, impondo penalidades mais pesadas a indivíduos ou organizações que facilitam crimes relacionados à IA.
  • Cooperação internacional mais alargada: A cibercriminalidade não tem fronteiras e as operações conjuntas - como a destruição de um bot farm russo pelo DOJ em julho de 2024 - tornar-se-ão mais frequentes.

Conclusão: Um multiplicador de forças para a cibercriminalidade

O tema central que emerge das fontes oficiais e da análise de peritos é que a IA reforça os métodos cibercriminosos existentes. Desde o phishing hiper-realista até às chamadas de voz do "falso CEO", os criminosos utilizam a IA generativa para melhorar consideravelmente as suas taxas de sucesso - e para explorar as vítimas que antes confiavam em simples "verificações instintivas" (erros ortográficos, sotaques errados, etc.) para detetar fraudes.

Mantenha-se vigilante e informado

A consciencialização e a verificação do público são fundamentais neste ambiente em rápido crescimento. Quer seja um executivo de topo a receber um pedido de transferência de última hora, um reformado a receber chamadas de um "neto em crise" ou um utilizador das redes sociais confrontado com um vídeo sensacionalista de um político, lembre-se: se algo lhe parecer estranho, verifique-o. A IA significa que os criminosos podem imitar pessoas reais ou criar ilusões com uma precisão surpreendente.

Metodologia

Realizámos esta investigação examinando recursos oficiais do governo (tais como documentos publicados pelo Departamento de Justiça e o relatório anual sobre crimes na Internet do IC3). Também examinámos comentários de terceiros de confiança e a cobertura de ameaças emergentes de cibercrime relacionadas com a Inteligência Artificial. Também inquirimos mais de 1000 correspondentes nos Estados Unidos para compreender as suas preocupações relativamente à IA. Por último, verificámos os factos deste relatório para garantir que todas as fontes citadas são exactas e estão actualizadas.

Utilização justa

É bem-vindo e encorajado a apresentar estes dados numa história ou num artigo. Certifique-se de que atribui a autoria à Undetectable AI e inclui uma ligação a esta página para que os leitores possam ver o relatório completo.

Referências

  1. FBI: Prepare-se para um ano eleitoral com ameaças em ritmo acelerado, alimentadas por bandidos com IA - Defesa Um
  2. O FBI alerta para o aumento da ameaça de criminosos cibernéticos que utilizam a inteligência artificial (8 de maio de 2024)
  3. Internet Crime Complaint Center (IC3) - Relatório de crimes na Internet de 2023 e PSAs relacionados
  4. Gabinete de Assuntos Públicos | O Departamento de Justiça lidera os esforços... para interromper a criação de bots nas redes sociais operada pelo governo russo (9 de julho de 2024)
  5. Internet Crime Complaint Center (IC3) | PSA: Actores maliciosos que manipulam fotografias e vídeos para criar conteúdos explícitos e esquemas de sextortion (5 de junho de 2023)
  6. Homem preso por produzir, distribuir e possuir imagens geradas por IA de menores envolvidos em condutas sexualmente explícitas
  7. O DOJ e os seus parceiros interrompem a exploração de bots russos - Pormenores da aplicação da lei (julho de 2024)
  8. DHS: "Impacto da Inteligência Artificial nas Actividades Criminosas e Ilícitas" (27 de setembro de 2024) 
  9. Inquérito de 2024 realizado por uma IA indetetável

Direitos de autor © 2023 Code Blog Pro. Todos os direitos reservados