"Kunstmatige intelligentie werkt als een prestatieverbeteraar voor cybercriminelen. Het verhoogt het niveau van de middenklasse slechteriken." [1]
In het afgelopen jaar heeft kunstmatige intelligentie (AI) een snelle ontwikkeling doorgemaakt, waarbij alles van gepersonaliseerd zoeken tot geavanceerde medische diagnostiek wordt aangestuurd. Maar terwijl de technologie voorwaarts raast, doemt er een duistere realiteit op: cybercriminelen bewapenen diezelfde AI-doorbraken om zwendel te verfijnen, zich voor te doen als slachtoffer en illegale ondernemingen uit te breiden.
Overheidsinstanties - van het Internet Crime Complaint Center (IC3) van de FBI tot het Department of Homeland Security (DHS) - hebben AI-gestuurde cybercriminaliteit aangemerkt als een snel groeiend probleem. [2][8]
We onderzochten de bevindingen van de Amerikaanse overheid en geloofwaardige analyses van derden over hoe AI wordt gebruikt voor cybercriminaliteit in 2024. Van angstaanjagende deepfake oplichting naar krachtig phishing-campagnesDit is wat de gegevens en de feiten laten zien.
Belangrijkste opmerkingen:
- AI is een bijdragende factor, maar niet de enige oorzaak van elke cyberaanval. Traditionele hacking blijft op grote schaal bestaan.
- Deepfake imitatie is niet langer sciencefiction; het gebeurt nu.
- Sextortion en CSAM genereren met behulp van AI is een dringende prioriteit voor wetshandhavings- en kinderbeschermingsinstanties.
- Desinformatie is een bedreiging voor de nationale veiligheid, waarbij AI zorgt voor geloofwaardiger valse personages en verhalen.
- Strengere handhaving ligt in het verschiet, nu DOJ en FBI zweren AI-ondersteunde misdaden met verhoogde ernst te zullen behandelen.
- 56% van de ondervraagde Amerikanen zei bezorgd te zijn over Deep Fakes, AI die een bedreiging vormt voor mensenlevens of onwettig gebruik. [9]*
1. AI-ondersteunde phishing en social engineering
Een nieuw tijdperk van overtuigende phishing
- Wat gebeurt er?
Criminelen gebruiken generatieve AI om perfecte, gepersonaliseerde phishingmails en -teksten te maken. De dagen van lachwekkende grammaticafouten zijn voorbij. Nu zien deze e-mails er gepolijst en hypergericht uit, waardoor zelfs oplettende ontvangers worden gedupeerd. [2][3] - Officiële waarschuwingen
De FBI-afdeling in San Francisco waarschuwt voor een "toenemende dreiging van cybercriminelen die AI-hulpmiddelen gebruiken om zeer gerichte phishingcampagnes te orkestreren". [2] In 2024 rapporteerde de IC3 een aanhoudende stijging in phishing-gerelateerde verliezen, hoewel ze niet precies aangeven hoeveel er AI-gestuurd zijn. [3] Kwalitatief zien onderzoekers echter een opvallende toename van meer geavanceerde phishingpogingen die typische rode vlaggen omzeilen. - Fact-Check hoogtepunt
Hoewel het aantal klachten over phishing in het algemeen enorm toeneemt, heeft de FBI geen exact percentage gepubliceerd dat alleen aan AI wordt toegeschreven. In plaats daarvan benadrukken ze het toenemende realisme en de succespercentages van deze door AI verbeterde scams. Het is een goed voorbeeld van een bedreiging die echt is, ook al zijn exacte cijfers moeilijk te geven.
Gevolgen voor bedrijven en particulieren
- Compromittering van zakelijke e-mails (BEC):
AI helpt oplichters om e-mails van leidinggevenden te kopiëren of berichten in meerdere talen op maat te maken, waardoor het succes van BEC-fraude toeneemt. Verliezen door BEC-fraude overschreden $2,9 miljard in 2023, volgens de FBI, en 2024 zal dat naar verwachting overtreffen, hoewel het AI-gedeelte nog steeds in de gaten wordt gehouden. [3] - Persoonlijke verliezen:
Mensen worden geconfronteerd met goed ontworpen valse bankwaarschuwingen of "romance scam" brieven die hartverscheurend echt lijken. Dit heeft geleid tot gestolen referenties, lege bankrekeningen en identiteitsdiefstal [2]. Vooral ouderen blijven kwetsbaar, omdat criminelen stemmen kunnen klonen of op een verzorger lijkende berichten kunnen produceren.
2. Deepfake imitatie en fraude
Nepstemmen, echt geld
Stel je voor dat je een wanhopig telefoontje krijgt van de stem van een dierbare die smeekt om losgeld. In werkelijkheid, AI gebruikte samples van sociale media om die exacte vocale handtekening te genereren.
Volgens de IC3-bulletins van de FBI is het klonen van stemmen een nieuw middel voor afpersing en financiële oplichting. [2][5] Er zijn ook gevallen gemeld van "nep-CEO" telefoontjes die werknemers ertoe aanzetten geld over te maken.
Maak je nooit meer zorgen dat AI je sms'jes herkent. Undetectable AI Kan je helpen:
- Laat je AI-ondersteund schrijven verschijnen mensachtig.
- Omleiding alle grote AI-detectietools met slechts één klik.
- Gebruik AI veilig en vol vertrouwen op school en op het werk.
Puntje bij paaltje: In 2023 werd een moeder uit Arizona bijna opgelicht toen ze dacht dat ze de snikkende stem van haar tienerdochter hoorde in een vals "ontvoerings"-gesprek. Gelukkig controleerde ze de veiligheid van haar dochter voordat ze geld overmaakte.
Deepfake video's en imitatie
Criminelen produceren ook AI-gegenereerde videogesprekken met realistische "CEO's" of "zakenpartners" die werknemers instrueren om grote overschrijvingen goed te keuren. Het Department of Justice (DOJ) waarschuwt dat deze deepfake videogesprekken angstaanjagend geloofwaardig zijn, vooral in afgelegen of hybride werkomgevingen. [4][7]
Fact-Check Opmerking:
De rechtshandhaving heeft meerdere incidenten bevestigd, maar heeft geen officiële telling van het aantal gevallen van deepfake gepubliceerd. De gerapporteerde voorbeelden komen echter overeen met consistente waarschuwingen van de FBI/DOJ over een "scherpe toename" in het gebruik van deepfake technologie voor oplichting. [2][4][7]
3. AI-gegenereerde sextortion en misbruik van synthetische media
Onschuldige beelden veranderen in exploitatie
- Wat gebeurt er?
Criminelen nemen onschuldige foto's (van sociale media of anderszins) en manipuleren ze tot expliciet materiaal. Deze zogenaamde "deepfake sextortion" gedijt op het vermogen van AI om verontrustend overtuigende afbeeldingen of video's te genereren. [5] - Slachtoffers inclusief minderjarigen
De FBI signaleerde in een PSA uit 2023 een toename van sextortion-zaken waarbij foto's van minderjarigen werden omgezet in neppornografisch materiaal. Daders dreigen vervolgens deze vervalste afbeeldingen te delen of te publiceren tenzij slachtoffers betalen of echte seksuele inhoud leveren. [5] - Materiaal voor seksueel misbruik van kinderen (CSAM)
DHS en DOJ bevestigen dat AI-tools worden gebruikt om AI-gegenereerde inhoud over seksueel kindermisbruik te maken. In augustus 2024 arresteerde DOJ een individu voor het gebruik van AI om kinderporno te maken. [6] Rechtshandhaving benadrukt dat "door AI gegenereerde CSAM nog steeds CSAM is".
Fact-Check Herinnering:
Officiële bronnen behandelen door AI gemanipuleerde CSAM ondubbelzinnig als illegaal. Precieze prevalentiegegevens zijn schaars, maar meerdere handhavingsacties bevestigen de reële en groeiende dreiging.
4. AI-gestuurde desinformatie en politieke inmenging
- Verkiezingsbemoeienis 2.0
In juli 2024 verstoorde de DOJ een geheime Russische botfarm die met AI verbeterde valse personages gebruikte om desinformatie te verspreiden [4][7]. Deze door AI gegenereerde sociale media-accounts verspreidden geraffineerde verhalen die met moeite door geautomatiseerde filters konden worden gedetecteerd. - Binnenlandse en buitenlandse invloed
FBI-directeur Wray merkt op dat "generatieve AI ... de drempel voor toegang verlaagt" [1], waardoor het voor zowel buitenlandse tegenstanders als binnenlandse groepen eenvoudiger wordt om aannemelijk "nepnieuws" te maken, video's te vervalsen of zich voor te doen als politici. - Niet alleen spam
Deze inhoud kan het vertrouwen van het publiek ondermijnen, verwarring zaaien tijdens verkiezingen of kwaadaardige financiële plannen aanmoedigen. [4][8] Het DHS classificeert AI-gestuurde desinformatie als een "cyber-multi-misdrijf", waarbij wordt erkend dat er weliswaar geen sprake is van direct hacken, maar dat digitale platforms worden gebruikt voor illegale of misleidende doeleinden.
Fact-Check Context:
De DOJ heeft de "bot farm" takedown goed gedocumenteerd. [4][7] Onafhankelijke beveiligingsonderzoekers bevestigen dat het creëren van AI-gegenereerde persona's toeneemt. Officiële instanties geven echter zelden exacte cijfers vrij (bijv. "30% van de desinformatie is nu op AI gebaseerd"). In plaats daarvan richten ze zich op het openbaar maken van de ernst en geavanceerdheid van deze campagnes.
5. Opkomende bedreigingen: AI-ondersteunde malware en hacking
WormGPT en verder
Op ondergrondse fora prijzen criminelen AI-modellen aan, zoals "WormGPT", die zijn afgestemd op het schrijven van malware. Het DHS waarschuwt dat deze tools "gaten in de kennis opvullen, zoals computercodering", waardoor relatief ongeschoolde hackers geavanceerde aanvallen kunnen uitvoeren [8]. Hoewel grootschalige AI-malware nog beperkt is, voorspellen experts dat het in de toekomst een groot probleem zal worden.
Adaptieve malware?
Beveiligingsonderzoekers hebben aangetoond dat AI-gestuurde malware zijn code kan veranderen ("polymorfisme") om antivirusdetectie te omzeilen. Het DHS heeft ook getheoretiseerd over "zelflerende" malware die autonoom nieuwe exploits test, maar real-world voorbeelden blijven zeldzaam in 2024. [8]
Fact-Check Opmerking:
De meeste geruchtmakende aanvallen (zoals ransomware) zijn nog steeds gebaseerd op conventionele methoden, maar de FBI, NSA en cyberbeveiligingsdeskundigen zien tekenen dat AI steeds vaker deel uitmaakt van het arsenaal van cybercriminelen. Verwacht meer ontwikkelingen - en mogelijk meer officiële statistieken - tegen 2025.
Gevolgen en belangrijke statistieken (op feiten gecontroleerd)
- Klachten over cybercriminaliteit in het algemeen
- De IC3 van de FBI ontving 880.000+ klachten over cybercriminaliteit in 2023, met gerapporteerde verliezen van meer dan $12,5 miljard-een stijging van 22% in verliezen ten opzichte van 2022. [3]
- Hoewel het exacte aandeel van AI niet wordt bijgehouden, geloven experts dat het realisme van AI leidt tot hogere succespercentages bij phishing, BEC en oplichting door imitatie. [2][3]
- Compromittering van zakelijke e-mails (BEC)
- Blijft een van de duurste vormen van cybercriminaliteit, met meer dan $2,9 miljard aan gerapporteerde verliezen in 2023. [3] De rol van AI? Gepolijste e-mails, betere lokalisatie en af en toe deepfake gesprekken of video's.
- Deepfake Sextortion
- De FBI publiceert geen definitieve telling van op deepfake gebaseerde sextortion-incidenten, maar er zijn "elke maand meerdere nieuwe meldingen" opgedoken. [5]
- Gevolgen voor het slachtoffer: Persoonlijke vernedering, financiële afpersing en emotioneel trauma.
- Desinformatie
- De DOJ heeft in juli 2024 een door AI aangedreven Russische botfarm verstoord [4][7]. Federale agentschappen benadrukken de dreiging van AI-verspreide desinformatie voor Amerikaanse verkiezingen en democratische processen.
- Feitencheck over de mythe van de "op twee na grootste economie
- Sommige krantenkoppen vergelijken de wereldwijde kosten van cybercriminaliteit met het BBP van grote landen, maar de $10-12 miljard aan jaarlijks gerapporteerde verliezen in de VS zijn duidelijk niet van die omvang [3]. Analisten schatten wel dat de wereldwijde economische impact van cybercriminaliteit kan oplopen tot triljoenen, waarmee cybercriminaliteit theoretisch een van de grootste economieën is als alle indirecte kosten worden meegerekend.
- "Eén op de vijf misdrijven online" Context
- In bepaalde regio's is nu ongeveer 20-25% van de gerapporteerde misdaden cybergerelateerd. Dit cijfer geldt niet noodzakelijkerwijs wereldwijd, maar laat zien dat het aandeel van digitale criminaliteit in de totale criminaliteit toeneemt.
Wetshandhaving en beleidsreacties
- Strengere houding DOJ
- Plaatsvervangend procureur-generaal Lisa Monaco beloofde "strengere straffen" voor criminelen die AI gebruiken om misdrijven te versterken - AI behandelen als een verzwarende factor bij fraude, uitbuiting van kinderen en meer. [6]
- AI-taskforce binnenlandse veiligheid
- Het DHS breidt zijn inspanningen uit om AI-gestuurde oplichting te detecteren, deepfake-detectie te beheren en minderjarigen te beschermen tegen door AI gegenereerde uitbuiting. [8] Het onderzoekt ook hoe AI kan worden gebruikt voor verdediging, door netwerken te scannen op afwijkingen.
- Zakelijke naleving
- De DOJ vraagt bedrijven nu om in hun nalevingsprogramma's aan te tonen hoe ze omgaan met AI-risico's. Het niet voorkomen dat werknemers AI misbruiken of het negeren van zwakke plekken in de beveiliging van AI kan de aansprakelijkheid van bedrijven vergroten. [6]
- Bewustzijnscampagnes
- De FBI, FCC en FTC hebben allemaal consumentenwaarschuwingen gelanceerd over AI-gebaseerde "grootouder"-oplichting en valse ontvoeringsoproepen. De boodschap? Controleer altijd verdachte oproepen of berichten - zien (of horen) is niet langer geloven in het AI-tijdperk. [2][5]
56% van de Amerikanen zegt zich zorgen te maken over schadelijke AI
In november 2024 ondervroeg Undetectable AI 1.000 Amerikanen in de Verenigde Staten. [9] De respondenten, in de leeftijd van 18 tot 27 jaar, gaven aan dat 23% geloofden dat AI een existentiële bedreiging vormt voor de mensheid, 18% uitten hun bezorgdheid over het onwettige gebruik van gegevens of gegevensprivacy en 15% maakten zich zorgen over AI-technologie die wordt gebruikt om deepfakes te maken.
Vooruitblik: 2025 en daarna
Ondanks beperkte harde gegevens over de exacte prevalentie van AI-aanvallen, is de trend duidelijk: AI verlaagt de drempels voor criminelen, maakt realistischere oplichting mogelijk en intensiveert desinformatie. Ondertussen worden de verdedigers - wetshandhavers, cyberbeveiligingsdeskundigen en regelgevers - steeds actiever. Verwacht:
- Meer AI in defensie: Tools voor deepfake forensisch onderzoek, AI-gebaseerde phishingfilters en anomaliedetectie in netwerken.
- Uitgebreider regelgevend toezicht: DOJ, SEC en anderen zullen waarschijnlijk nog harder optreden tegen AI-misbruik en zwaardere straffen opleggen aan personen of organisaties die AI-gerelateerde misdaden faciliteren.
- Bredere internationale samenwerking: Cybercriminaliteit kent geen grenzen en gezamenlijke operaties, zoals de DOJ's arrestatie van een Russische botfarm in juli 2024, zullen vaker voorkomen.
Conclusie: Een krachtvermeerderaar voor cybercriminaliteit
Het kernthema dat uit officiële bronnen en analyses van experts naar voren komt, is dat AI bestaande methoden van cybercriminelen versterkt. Van hyperrealistische phishing tot "nep CEO"-spraakgesprekken, criminelen gebruiken generatieve AI om hun succespercentages enorm te verbeteren - en om slachtoffers uit te buiten die vroeger vertrouwden op eenvoudige "onderbuikcontroles" (spelfouten, andere accenten, enz.) om oplichting te herkennen.
Blijf waakzaam en geïnformeerd
Publieke bewustwording en verificatie zijn cruciaal in deze snel groeiende omgeving. Of je nu een C-suite executive bent die op het laatste moment een telegramverzoek ontvangt, een gepensioneerde die wordt gebeld door een "kleinkind in crisis" of een gebruiker van sociale media die wordt geconfronteerd met een sensationele video van een politicus, onthoud: als er iets niet klopt, controleer het dan. AI betekent dat criminelen echte mensen kunnen nabootsen of illusies kunnen creëren met een verbazingwekkende nauwkeurigheid.
Methodologie
We hebben dit onderzoek uitgevoerd door officiële overheidsbronnen te bestuderen (zoals gepubliceerde documenten van het Ministerie van Justitie en het jaarlijkse IC3 Internet Crime Annual Report). We hebben ook betrouwbare commentaren van derden en berichtgeving over opkomende bedreigingen van cybercriminaliteit met betrekking tot kunstmatige intelligentie onderzocht. We hebben ook meer dan 1000 correspondenten in de Verenigde Staten ondervraagd om inzicht te krijgen in hun zorgen over AI. Tot slot hebben we dit rapport op feiten gecontroleerd om te garanderen dat alle geciteerde bronnen accuraat en actueel zijn.
Eerlijk gebruik
U bent van harte welkom en wordt aangemoedigd om deze gegevens te vermelden in een verhaal of artikel. Zorg ervoor dat u Undetectable AI vermeldt en een link naar deze pagina toevoegt, zodat lezers het volledige rapport kunnen bekijken.
Referenties
- FBI: Bereid je voor op een verkiezingsjaar met vetgedrukte bedreigingen, aangedreven door slechteriken met AI - De FBI en de FBI hebben elkaar gevonden. Verdediging Eén
- FBI waarschuwt voor toenemende dreiging van cybercriminelen die gebruik maken van kunstmatige intelligentie (8 mei 2024)
- Internet Crime Complaint Center (IC3) - 2023 Internet Crime Report & gerelateerde PSA's
- Office of Public Affairs | Ministerie van Justitie leidt inspanningen... om geheime door de Russische overheid geëxploiteerde social media botfarm te verstoren (9 juli 2024)
- Internet Crime Complaint Center (IC3) | PSA: Kwaadwillenden die foto's en video's manipuleren om expliciete inhoud te creëren en Sextortion Schemes (5 juni 2023)
- Man gearresteerd voor het produceren, verspreiden en in bezit hebben van door AI gegenereerde beelden van minderjarigen die betrokken zijn bij seksueel expliciet gedrag
- DOJ & partners verstoren Russische botfarm - Details handhaving (juli 2024)
- DHS: "Impact van kunstmatige intelligentie op criminele en illegale activiteiten" (27 sept. 2024)
- 2024 Onderzoek uitgevoerd door Undetectable AI