Les tendances de la cybercriminalité liée à l'IA et la façon dont elles peuvent vous nuire en 2025

"L'intelligence artificielle agit comme un amplificateur de performance pour les cybercriminels. Elle permet d'élever le niveau des méchants de niveau moyen". [1]

Au cours de l'année écoulée, l'intelligence artificielle (IA) a rapidement évolué, alimentant tout, de la recherche personnalisée aux diagnostics médicaux avancés. Mais alors que la technologie progresse à toute allure, une réalité plus sombre se profile : les cybercriminels... sont en train d'armer ces mêmes percées en matière d'intelligence artificielle pour affiner les escroqueries, usurper l'identité des victimes et amplifier les entreprises illégales. 

Les agences gouvernementales - de l'Internet Crime Complaint Center (IC3) du FBI au Department of Homeland Security (DHS) - ont signalé que la cybercriminalité induite par l'IA était un problème en pleine expansion[2][8]. [2][8]

Nous avons recherché les conclusions du gouvernement américain et des analyses crédibles de tiers sur la façon dont l'IA est utilisée pour la cybercriminalité en 2024. De Des escroqueries terrifiantes de type "deepfake à puissant campagnes d'hameçonnageVoici ce que révèlent les données et les vérifications.

Principaux enseignements :

  1. L'IA est un facteur qui contribue à toutes les cyberattaques, mais elle n'en est pas la cause unique. Le piratage traditionnel persiste à grande échelle.
  2. L'usurpation d'identité n'est plus de la science-fiction, c'est une réalité.
  3. La création de sextors et de CSAM à l'aide de l'IA est une priorité urgente pour les services de police et les agences de protection de l'enfance.
  4. La désinformation est une menace pour la sécurité nationale, l'IA permettant de créer des personnages et des récits plus crédibles.
  5. Une répression plus sévère se profile à l'horizon, le ministère de la justice et le FBI s'engageant à traiter les crimes assistés par l'IA avec une gravité accrue.
  6. 56% des Américains interrogés ont déclaré être préoccupés par les Deep Fakes, l'IA représentant une menace pour la vie humaine ou une utilisation illégale. [9]* 

1. L'hameçonnage et l'ingénierie sociale renforcés par l'IA

Une nouvelle ère d'hameçonnage convaincant

  • Que se passe-t-il ?
    Les criminels utilisent l'IA générative pour créer des courriels et des textes d'hameçonnage parfaits et personnalisés. L'époque des fautes de grammaire risibles est révolue. Aujourd'hui, ces courriels apparaissent comme peaufinés et hyperciblés, dupant même les destinataires les plus vigilants [2][3]. [2][3]
  • Avertissements officiels
    La division du FBI à San Francisco met en garde contre une "menace croissante de cybercriminels utilisant des outils alimentés par l'IA pour orchestrer des campagnes d'hameçonnage très ciblées"[2]. En 2024, l'IC3 a fait état d'une augmentation continue des pertes liées au phishing, sans toutefois préciser combien d'entre elles sont dues à l'IA[3]. [D'un point de vue qualitatif, cependant, les enquêteurs constatent une augmentation notable des tentatives d'hameçonnage plus sophistiquées qui contournent les signaux d'alarme habituels.
  • Fact-Check Highlight
    Bien que le nombre de plaintes pour hameçonnage soit globalement en hausse, le FBI n'a pas publié de pourcentage exact attribué uniquement à l'IA. Il met plutôt l'accent sur le réalisme croissant et le taux de réussite de ces escroqueries améliorées par l'IA. Il s'agit là d'un excellent exemple d'une menace réelle, même si les chiffres précis sont difficiles à obtenir.

Impacts sur les entreprises et les particuliers

  • Compromission des courriels d'affaires (BEC) :
    L'IA aide les escrocs à reproduire les courriels des dirigeants ou à adapter les messages dans plusieurs langues, augmentant ainsi le succès de la fraude BEC. Selon le FBI, les pertes dues aux escroqueries BEC ont dépassé $2,9 milliards en 2023, et l'on s'attend à ce qu'elles dépassent ce chiffre en 2024, bien que la part de l'IA soit encore à l'étude[3]. [3]
  • Pertes personnelles :
    Les gens sont confrontés à de fausses alertes bancaires bien conçues ou à des lettres d'"escroquerie amoureuse" qui semblent d'une réalité déchirante. Cela a conduit au vol d'informations d'identification, à la destruction de comptes bancaires et à l'usurpation d'identité [2]. Les personnes âgées restent particulièrement vulnérables, car les criminels peuvent imiter les voix ou produire des messages ressemblant à ceux d'un soignant.

2. L'usurpation d'identité et la fraude Deepfake

Fausses voix, argent réel

Imaginez que vous receviez un appel frénétique de la voix d'un être cher demandant une rançon. En réalité, L'IA a utilisé des échantillons de médias sociaux pour générer cette signature vocale exacte. 

Selon les bulletins IC3 du FBI, le clonage de voix est devenu un nouvel outil d'extorsion et d'escroquerie financière[2][5]. [Des cas d'appels de "faux PDG" incitant les employés à virer des fonds ont également été signalés.

Ne vous inquiétez plus jamais de la détection de vos messages par l'IA. Undetectable AI peut vous aider :

  • Faites apparaître votre écriture assistée par l'IA à l'image de l'homme.
  • By-pass tous les principaux outils de détection de l'IA en un seul clic.
  • Utilisation AI en toute sécurité et en toute confiance à l'école et au travail.
Essaie GRATUITEMENT

Un exemple concret : En 2023, une mère de l'Arizona a failli être victime d'une escroquerie lorsqu'elle a cru entendre la voix sanglotante de sa fille adolescente lors d'un faux appel pour "enlèvement". Heureusement, elle s'est assurée que sa fille était en sécurité avant de virer de l'argent.

Vidéos "Deepfake" et usurpation d'identité

Les criminels produisent également des appels vidéo générés par l'IA, mettant en scène des "PDG" ou des "partenaires commerciaux" réalistes, qui demandent aux employés d'autoriser des virements importants. Le ministère de la Justice (DOJ) avertit que ces faux appels vidéo sont d'une crédibilité déconcertante, en particulier dans les environnements de travail distants ou hybrides [4][7]. [4][7]

Fact-Check Note :
Les forces de l'ordre ont confirmé plusieurs incidents, mais n'ont pas publié de décompte officiel des cas de deepfake. Les exemples signalés s'alignent toutefois sur les avertissements constants du FBI et du DOJ concernant une "forte augmentation" de l'utilisation de la technologie deepfake à des fins d'escroquerie [2][4][7]. [2][4][7]

3. Sextorsion et abus de médias synthétiques générés par l'IA

Altération d'images innocentes en vue de leur exploitation

  • Que se passe-t-il ?
    Les criminels prennent des photos anodines (provenant des médias sociaux ou autres) et les manipulent pour en faire du matériel explicite. Ce qu'on appelle la "deepfake sextortion" repose sur la capacité de l'IA à générer des images ou des vidéos inquiétantes et convaincantes[5]. [5]
  • Les victimes comprennent des mineurs
    Le FBI, dans un message d'intérêt public datant de 2023, a noté une augmentation des cas de sextorsion où les photos de mineurs sont transformées en faux matériel pornographique. Les délinquants menacent ensuite de partager ou de publier ces images fabriquées à moins que les victimes ne paient ou ne fournissent un véritable contenu sexuel[5]. [5]
  • Matériel relatif aux abus sexuels sur enfants (CSAM)
    Le DHS et le DOJ confirment que des outils d'IA sont utilisés pour créer du contenu pédopornographique généré par l'IA. En août 2024, le DOJ a arrêté un individu qui utilisait l'IA pour produire de la pornographie enfantine[6]. [Les forces de l'ordre insistent sur le fait que "les contenus pédopornographiques générés par l'IA restent des contenus pédopornographiques". 

Rappel de la vérification des faits :
Les sources officielles considèrent sans équivoque que le CSAM manipulé par l'IA est illégal. Les données précises sur la prévalence sont rares, mais de nombreuses mesures d'application de la loi confirment qu'il s'agit d'une menace réelle et croissante.

4. Désinformation et ingérence politique pilotées par l'IA

  • Ingérence électorale 2.0
    En juillet 2024, le ministère de la justice a démantelé une ferme à robots russe secrète qui utilisait de faux personnages améliorés par l'IA pour diffuser de la désinformation [4][7]. Ces comptes de médias sociaux générés par l'IA diffusaient des récits de division avec une sophistication que les filtres automatisés avaient du mal à détecter.
  • Influence intérieure et extérieure
    Le directeur du FBI, M. Wray, note que "l'IA générative [...] abaisse la barrière à l'entrée" [1], ce qui permet aux adversaires étrangers et aux groupes nationaux de créer plus facilement des "fake news" plausibles, des vidéos "deepfake" ou d'usurper l'identité d'un homme politique.
  • Pas seulement du spam
    Ce contenu peut saper la confiance du public, semer la confusion pendant les élections ou encourager des plans financiers malveillants[4][8]. [Le DHS classe la désinformation induite par l'IA dans la catégorie des délits "cybernétiques", reconnaissant que même si elle n'implique pas de piratage direct, elle exploite les plateformes numériques à des fins illégales ou trompeuses.

Fact-Check Context :
Le ministère de la justice a bien documenté le démantèlement des "fermes à robots". [Des chercheurs indépendants en sécurité corroborent le fait que la création de persona générée par l'IA est en augmentation. Toutefois, les agences officielles publient rarement des chiffres exacts (par exemple, "30% de la désinformation est maintenant basée sur l'IA"). Elles s'efforcent plutôt de faire connaître la gravité et la sophistication de ces campagnes.

5. Menaces émergentes : Les logiciels malveillants et le piratage assistés par l'IA

WormGPT et au-delà

Sur les forums clandestins, les criminels vantent les mérites de modèles d'IA - comme "WormGPT" - perfectionnés pour l'écriture de logiciels malveillants. Le DHS avertit que ces outils "comblent les lacunes en matière de connaissances telles que le codage informatique", permettant à des pirates relativement peu qualifiés de lancer des attaques avancées [8]. Bien que les logiciels malveillants écrits par l'IA à grande échelle soient encore limités, les experts prévoient qu'ils constitueront une préoccupation majeure à l'avenir.

Les logiciels malveillants adaptatifs ?

Les chercheurs en sécurité ont démontré que les logiciels malveillants pilotés par l'IA peuvent modifier leur code ("polymorphisme") pour échapper à la détection antivirus. Le ministère de la sécurité intérieure a également théorisé sur les logiciels malveillants "auto-apprenants" qui testent de manière autonome de nouveaux exploits, mais les exemples réels restent rares en 2024[8]. [8]

Fact-Check Note :
La plupart des attaques très médiatisées (comme les ransomwares) reposent encore sur des méthodes conventionnelles, mais le FBI, la NSA et les experts en cybersécurité constatent que l'IA fait de plus en plus partie de l'arsenal des cybercriminels. Il faut s'attendre à de nouveaux développements, et peut-être à des statistiques plus officielles, d'ici 2025.

Impacts et statistiques clés (Fact-Checked)

  1. Plaintes globales en matière de cybercriminalité
    • L'IC3 du FBI a reçu plus de 880 000 plaintes pour cybercriminalité en 2023, avec des pertes déclarées dépassant $12,5 milliards, soit une augmentation de 22% par rapport à 2022[3]. [3]
    • Bien que la part exacte de l'IA ne soit pas connue, les experts estiment que le réalisme de l'IA entraîne des taux de réussite plus élevés dans les escroqueries par phishing, BEC et usurpation d'identité[2]. [2][3]
  2. Compromission du courrier électronique des entreprises (BEC)
    • Reste l'une des formes de cybercriminalité les plus coûteuses, dépassant les $2,9 milliards d'euros de pertes déclarées en 2023. [Le rôle de l'IA ? Des courriels plus soignés, une meilleure localisation et, à l'occasion, de faux appels ou de fausses vidéos.
  3. Deepfake Sextorsion
    • Le FBI ne publie pas de décompte définitif des incidents de sextorsion basés sur des deepfakes, mais de "nombreux nouveaux rapports chaque mois" ont fait surface[5]. [5]
    • Impact sur les victimes : Humiliation personnelle, extorsion financière et traumatisme émotionnel.
  4. Opérations de désinformation
    • Le ministère de la justice a perturbé une ferme de robots russes alimentée par l'IA en juillet 2024 [4][7]. Les agences fédérales soulignent la menace que représente la désinformation propagée par l'IA pour les élections et les processus démocratiques aux États-Unis.
  5. Fact-Check sur le mythe de la "troisième économie du monde".
    • Certains médias comparent les coûts mondiaux de la cybercriminalité au PIB de grands pays, mais les $10-12 milliards de pertes annuelles déclarées par les États-Unis ne se situent évidemment pas à cette échelle [3]. Les analystes estiment que l'impact économique mondial de la cybercriminalité pourrait atteindre des milliers de milliards, ce qui le placerait théoriquement parmi les principales économies si l'on tient compte de tous les coûts indirects.
  6. "Un crime sur cinq en ligne" Contexte
    • Dans certaines régions, environ 20-25% des délits signalés sont désormais liés à la cybercriminalité. Ce chiffre ne s'applique pas nécessairement au monde entier, mais il met en évidence la part croissante de la criminalité numérique dans l'ensemble de la criminalité.

Application de la loi et réponses politiques

  1. La position plus stricte du ministère de la justice
    • Le procureur général adjoint Lisa Monaco a promis des "peines plus sévères" pour les criminels qui exploitent l'IA pour amplifier les délits, en traitant l'IA comme un facteur aggravant dans la fraude, l'exploitation des enfants, etc. [6]
  2. Groupe de travail sur l'IA de la sécurité intérieure
    • Le ministère de la sécurité intérieure multiplie les efforts pour détecter les escroqueries fondées sur l'IA, gérer la détection des fausses informations (deepfake) et protéger les mineurs contre l'exploitation générée par l'IA[8]. [Il étudie également la manière d'utiliser l'IA à des fins de défense, en analysant les réseaux à la recherche d'anomalies.
  3. Conformité des entreprises
    • Le ministère de la justice demande désormais aux entreprises de montrer comment elles gèrent les risques liés à l'IA dans leurs programmes de conformité. Le fait de ne pas empêcher les employés d'utiliser l'IA à mauvais escient ou d'ignorer les failles de sécurité de l'IA peut engager la responsabilité de l'entreprise[6]. [6]
  4. Campagnes de sensibilisation du public
    • Le FBI, la FCC et la FTC ont tous lancé des alertes aux consommateurs sur les escroqueries aux "grands-parents" basées sur l'IA et les faux appels d'enlèvement. Le message ? Vérifiez toujours les appels ou les messages suspects - voir (ou entendre) n'est plus croire à l'ère de l'IA. [2][5]

56% des Américains se disent préoccupés par l'IA nuisible

En novembre 2024, Undetectable AI a interrogé 1 000 Américains à travers les États-Unis[9]. [Les personnes interrogées, âgées de 18 à 27 ans, ont indiqué que 23% pensaient que l'IA représentait une menace existentielle pour l'humanité, 18% s'inquiétaient de l'utilisation illégale des données ou de la confidentialité des données, et 15% craignaient que la technologie de l'IA ne soit utilisée pour créer des deepfakes.

Perspectives d'avenir : 2025 et au-delà

Malgré le peu de données concrètes sur la prévalence exacte des attaques basées sur l'IA, la tendance est claire : l'IA abaisse les barrières pour les criminels, permet des escroqueries plus réalistes et intensifie la désinformation. Pendant ce temps, les défenseurs - les forces de l'ordre, les experts en cybersécurité et les autorités de régulation - s'activent. Attendez-vous à.. :

  • Plus d'IA dans la défense : Outils pour la recherche de fausses informations (deepfake forensics), filtres d'hameçonnage basés sur l'IA et détection d'anomalies dans les réseaux.
  • Une surveillance réglementaire élargie : Le DOJ, la SEC et d'autres organismes vont probablement sévir davantage contre l'utilisation abusive de l'IA, en imposant des sanctions plus lourdes aux personnes ou aux organisations qui facilitent les crimes liés à l'IA.
  • Une coopération internationale plus large : La cybercriminalité ne connaît pas de frontières et les opérations conjointes - comme le démantèlement par le ministère de la justice d'une ferme de robots russes en juillet 2024 - seront de plus en plus fréquentes.

Conclusion : Un multiplicateur de force pour la cybercriminalité

Le thème central qui ressort des sources officielles et de l'analyse des experts est que l'IA suralimente les méthodes cybercriminelles existantes. Du phishing hyperréaliste aux appels vocaux de "faux PDG", les criminels utilisent l'IA générative pour améliorer considérablement leurs taux de réussite et pour exploiter les victimes qui se fiaient auparavant à de simples "vérifications instinctives" (fautes d'orthographe, accents étrangers, etc.) pour repérer les escroqueries.

Rester vigilant et informé

La sensibilisation du public et la vérification sont essentielles dans cet environnement en pleine expansion. Que vous soyez un cadre supérieur recevant une demande de télégramme de dernière minute, un retraité recevant des appels d'un "petit-enfant en crise" ou un utilisateur de médias sociaux confronté à une vidéo sensationnelle d'un homme politique, n'oubliez pas : si quelque chose ne vous semble pas normal, vérifiez-le. Grâce à l'IA, les criminels peuvent imiter des personnes réelles ou créer des illusions avec une précision étonnante.

Méthodologie

Nous avons mené cette recherche en examinant les ressources gouvernementales officielles (telles que les documents publiés par le ministère de la Justice et le rapport annuel de l'IC3 sur la criminalité sur Internet). Nous avons également examiné les commentaires et la couverture par des tiers de confiance des nouvelles menaces de cybercriminalité liées à l'intelligence artificielle. Nous avons également interrogé plus de 1 000 correspondants aux États-Unis pour comprendre leurs préoccupations concernant l'intelligence artificielle. Enfin, nous avons vérifié les faits dans ce rapport afin de garantir que toutes les sources citées sont exactes et à jour.

Utilisation équitable

Nous vous encourageons à présenter ces données dans une histoire ou un article. Veillez à citer l'IA indétectable et à inclure un lien vers cette page afin que les lecteurs puissent consulter le rapport complet.

Références

  1. FBI : Préparez-vous à une année électorale marquée par des menaces à un rythme effréné, alimentées par des méchants dotés d'une IA - Première défense
  2. Le FBI met en garde contre la menace croissante des cybercriminels utilisant l'intelligence artificielle (8 mai 2024)
  3. Internet Crime Complaint Center (IC3) - Rapport sur la criminalité sur Internet 2023 et messages d'intérêt public connexes
  4. Office of Public Affairs | Justice Department Leads Efforts... to Disrupt Covert Russian Government-Operated Social Media Bot Farm (9 juillet 2024)
  5. Internet Crime Complaint Center (IC3) | PSA : Acteurs malveillants manipulant des photos et des vidéos pour créer du contenu explicite et des stratagèmes de sextorsion (5 juin 2023)
  6. Un homme arrêté pour avoir produit, distribué et possédé des images de mineurs se livrant à des actes sexuels explicites générées par l'intelligence artificielle
  7. Le ministère de la justice et ses partenaires interrompent une ferme de robots russe - Enforcement Details (juillet 2024)
  8. DHS : "Impact de l'intelligence artificielle sur les activités criminelles et illicites" (27 septembre 2024) 
  9. 2024 Enquête menée par une IA indétectable

Copyright © 2023 Code Blog Pro. Tous droits réservés