"Kunstig intelligens fungerer som en prestasjonsforbedrer for nettkriminelle. Den gir skurker på mellomnivå et effektivt nivå." [1]
I løpet av det siste året har kunstig intelligens (AI) utviklet seg raskt, og brukes i alt fra personaliserte søk til avansert medisinsk diagnostikk. Men samtidig som teknologien raser fremover, truer en mørkere virkelighet: nettkriminelle bruker de samme AI-gjennombruddene som våpen for å raffinere svindel, utgi seg for å være ofre og forsterke ulovlig virksomhet.
Offentlige etater - fra FBIs Internet Crime Complaint Center (IC3) til Department of Homeland Security (DHS) - har flagget AI-drevet nettkriminalitet som et raskt voksende problem. [2][8]
Vi har undersøkt amerikanske myndigheters funn og troverdige tredjepartsanalyser om hvordan AI brukes til datakriminalitet i 2024. Fra skremmende deepfake-svindel til potent phishing-kampanjerHer er hva dataene - og faktasjekkene - viser.
De viktigste erfaringene:
- Kunstig intelligens er en medvirkende faktor, men ikke den eneste årsaken til alle dataangrep. Tradisjonell hacking fortsetter i stor skala.
- Deepfake-imitasjon er ikke lenger science fiction; det skjer nå.
- Sextortion og CSAM-generering ved hjelp av kunstig intelligens er en presserende prioritet for politi og barnevernsorganisasjoner.
- Desinformasjon er en nasjonal sikkerhetstrussel, og kunstig intelligens bidrar til å skape mer troverdige falske personer og narrativer.
- Strengere håndhevelse er på trappene, ettersom DOJ og FBI lover å behandle AI-assisterte forbrytelser med økt alvor.
- 56% av amerikanerne i undersøkelsen sa at de var bekymret for Deep Fakes, AI som utgjør en trussel mot menneskeliv eller ulovlig bruk. [9]*
1. AI-forbedret phishing og sosial manipulering
En ny æra med overbevisende phishing
- Hva er det som skjer?
Kriminelle bruker generativ kunstig intelligens til å lage perfekte, personaliserte phishing-e-poster og -meldinger. Tiden med latterlige grammatiske feil er forbi. Nå fremstår disse e-postene som polerte og hypermålrettede, og lurer selv årvåkne mottakere. [2][3] - Offisielle advarsler
FBIs avdeling i San Francisco advarer mot en "økende trussel fra nettkriminelle som bruker AI-drevne verktøy til å orkestrere svært målrettede phishing-kampanjer". [2] I 2024 rapporterte IC3 om en fortsatt økning i phishing-relaterte tap - selv om de ikke gir en nøyaktig oversikt over hvor mange som er AI-drevet. [3] Kvalitativt sett ser etterforskerne imidlertid en merkbar økning i mer sofistikerte phishing-forsøk som omgår typiske røde flagg. - Faktasjekkens høydepunkt
Selv om antallet phishing-klager skyter i været, har ikke FBI publisert en nøyaktig prosentandel som utelukkende tilskrives AI. I stedet legger de vekt på den økende realismen og suksessraten for disse AI-forbedrede svindelforsøkene. Det er et godt eksempel på en trussel som er reell - selv om nøyaktige tall er vanskelig å få tak i.
Konsekvenser for bedrifter og privatpersoner
- Kompromittering av e-post fra bedrifter (BEC):
Kunstig intelligens hjelper svindlere med å gjenskape e-poster fra ledere eller skreddersy meldinger på flere språk, noe som øker suksessen med BEC-svindel. Ifølge FBI oversteg tapene fra BEC-svindel $2,9 milliarder i 2023, og 2024 forventes å overgå dette - selv om AI-delen fortsatt overvåkes. [3] - Personlige tap:
Folk blir utsatt for godt utformede falske bankvarsler eller "romantiske svindelbrev" som ser hjerteskjærende ekte ut. Dette har ført til stjålet legitimasjon, tømte bankkontoer og identitetstyveri [2]. Eldre mennesker er fortsatt spesielt sårbare, ettersom kriminelle kan klone stemmer eller produsere vaktmesterlignende meldinger.
2. Deepfake-imitasjon og svindel
Falske stemmer, ekte penger
Forestill deg at du får en fortvilet telefon fra en kjær persons stemme som ber om løsepenger. I virkeligheten.., AI brukte eksempler fra sosiale medier for å generere den eksakte stemmesignaturen.
Ifølge FBIs IC3-bulletiner har stemmekloning blitt et nytt verktøy for utpressing og økonomisk svindel. [Det er også rapportert om tilfeller av "falske CEO"-samtaler som lurer ansatte til å overføre penger.
Aldri bekymre deg for at AI oppdager tekstene dine igjen. Undetectable AI Kan hjelpe deg:
- Få AI-assistert skriving til å vises ...menneskelignende.
- Bypass alle de viktigste AI-deteksjonsverktøyene med bare ett klikk.
- Bruk AI trygt og selvsikkert i skole og arbeid.
Et godt eksempel: I 2023 ble en mor i Arizona nesten svindlet da hun trodde hun hørte tenåringsdatterens hulkende stemme i en falsk "kidnappingssamtale". Heldigvis fikk hun bekreftet at datteren var i sikkerhet før hun overførte penger.
Deepfake-videoer og imitasjon
Kriminelle produserer også AI-genererte videosamtaler med realistiske "administrerende direktører" eller "forretningspartnere", som instruerer ansatte om å godkjenne store overføringer. Justisdepartementet (DOJ) advarer om at disse falske videosamtalene er urovekkende troverdige, spesielt i eksterne eller hybride arbeidsmiljøer. [4][7]
Faktasjekk-notat:
Politiet har bekreftet flere hendelser, men har ikke publisert noen offisiell oversikt over antall deepfake-saker. De rapporterte eksemplene stemmer imidlertid overens med FBI/DOJs advarsler om en "kraftig økning" i bruken av deepfake-teknologi til svindel. [2][4][7]
3. AI-generert sextortion og misbruk av syntetiske medier
Endring av uskyldige bilder til utnyttelse
- Hva er det som skjer?
Kriminelle tar harmløse bilder (fra sosiale medier eller andre steder) og manipulerer dem til å bli eksplisitt materiale. Denne såkalte "deepfake sextortion" baserer seg på AIs evne til å generere urovekkende overbevisende bilder eller videoer. [5] - Ofrene inkluderer mindreårige
I en PSA fra 2023 påpekte FBI en økning i tilfeller av sextortion, der bilder av mindreårige ble omgjort til falskt pornografisk materiale. Gjerningsmennene truer deretter med å dele eller publisere disse falske bildene med mindre ofrene betaler eller gir ekte seksuelt innhold. [5] - Materiale om seksuelle overgrep mot barn (CSAM)
DHS og DOJ bekrefter at AI-verktøy brukes til å lage AI-generert innhold med seksuelle overgrep mot barn. I august 2024 arresterte DOJ en person for å ha brukt kunstig intelligens til å produsere barnepornografi. [6] Politiet understreker at "CSAM generert av AI fortsatt er CSAM".
Påminnelse om faktasjekk:
Offisielle kilder behandler utvetydig AI-manipulert CSAM som ulovlig. Det finnes få nøyaktige data om utbredelsen, men flere håndhevingstiltak bekrefter at dette er en reell og økende trussel.
4. AI-drevet desinformasjon og politisk innblanding
- Valgpåvirkning 2.0
I juli 2024 avslørte Justisdepartementet en hemmelig russisk botfarm som brukte AI-forbedrede falske personas til å spre desinformasjon [4][7]. Disse AI-genererte kontoene i sosiale medier spredte splittende narrativer på en sofistikert måte som automatiserte filtre slet med å oppdage. - Innenlandsk og utenlandsk innflytelse
FBI-direktør Wray bemerker at "generativ AI ... senker inngangsbarrieren" [1], noe som gjør det enklere for både utenlandske motstandere og innenlandske grupper å lage troverdige "falske nyheter", deepfake videoer eller utgi seg for å være politikere. - Ikke bare spam
Dette innholdet kan undergrave tilliten i befolkningen, skape forvirring under valg eller oppmuntre til ondsinnede økonomiske planer. [4][8] DHS klassifiserer AI-drevet desinformasjon som en "cyberaktivert" forbrytelse - selv om den kanskje ikke involverer direkte hacking, utnytter den digitale plattformer til ulovlige eller villedende formål.
Faktasjekk-kontekst:
Justisdepartementet har godt dokumentert "botfarm"-aksjonen. [4][7] Uavhengige sikkerhetsforskere bekrefter at AI-generert personskaping er på fremmarsj. Offisielle byråer offentliggjør imidlertid sjelden nøyaktige tall (f.eks. "30% av desinformasjonen er nå AI-basert"). I stedet fokuserer de på å offentliggjøre hvor alvorlige og sofistikerte disse kampanjene er.
5. Nye trusler: AI-assistert skadelig programvare og hacking
WormGPT og videre
På undergrunnsfora selger kriminelle AI-modeller - som "WormGPT" - som er finjustert for å skrive skadelig programvare. DHS advarer om at disse verktøyene "fyller kunnskapshull som for eksempel datakoding", noe som gjør det mulig for relativt ufaglærte hackere å utføre avanserte angrep [8]. Selv om storskala AI-skriving av skadelig programvare fortsatt er begrenset, spår eksperter at det vil bli et stort problem i fremtiden.
Adaptiv skadelig programvare?
Sikkerhetsforskere har vist at AI-drevet skadevare kan endre koden sin ("polymorfisme") for å unngå å bli oppdaget av antivirusprogrammer. DHS har også teoretisert om "selvlærende" skadevare som autonomt tester nye utnyttelser, men eksempler fra den virkelige verden er fortsatt sjeldne i 2024. [8]
Faktasjekk-notat:
De fleste høyprofilerte angrep (som løsepengevirus) baserer seg fortsatt på konvensjonelle metoder, men FBI, NSA og cybersikkerhetseksperter ser tegn på at kunstig intelligens i økende grad blir en del av cyberkriminelles arsenal. Forvent mer utvikling - og muligens mer offisiell statistikk - innen 2025.
Konsekvenser og nøkkelstatistikk (faktasjekket)
- Samlet antall klager på nettkriminalitet
- FBIs IC3 mottok over 880 000 klager på nettkriminalitet i 2023, med rapporterte tap på over $12,5 milliarder - en økning i tap på 22% fra 2022. [3]
- Selv om den nøyaktige andelen som involverer AI, ikke er kartlagt, mener eksperter at AIs realisme fører til høyere suksessrate i phishing-, BEC- og etterligningssvindel. [2][3]
- Kompromittering av e-post fra bedrifter (BEC)
- Forblir en av de dyreste formene for nettkriminalitet, med over $2,9 milliarder i rapporterte tap i 2023. [3] AIs rolle? Mer polerte e-poster, bedre lokalisering og av og til deepfake-samtaler eller -videoer.
- Deepfake Sextortion
- FBI publiserer ikke en endelig oversikt over antall deepfake-baserte sextortion-hendelser, men "flere nye rapporter hver måned" har dukket opp. [5]
- Påvirkning på offeret: Personlig ydmykelse, økonomisk utpressing og følelsesmessige traumer.
- Desinformasjonsoperasjoner
- Justisdepartementet stanset en AI-drevet russisk botfarm i juli 2024 [4][7]. Føderale byråer understreker trusselen som AI-spredt desinformasjon utgjør mot amerikanske valg og demokratiske prosesser.
- Faktasjekk av myten om "den tredje største økonomien"
- Noen medieoverskrifter sammenligner de globale kostnadene ved datakriminalitet med BNP i store nasjoner, men de årlige tapene på $10-12 milliarder som rapporteres fra USA, er åpenbart ikke i den størrelsesordenen [3]. Analytikere anslår at de globale økonomiske konsekvensene av cyberkriminalitet kan komme opp i billioner, noe som teoretisk sett plasserer den blant de største økonomiene hvis man inkluderer alle indirekte kostnader.
- "En av fem forbrytelser på nettet" Kontekst
- I enkelte regioner er 20-25% av den anmeldte kriminaliteten nå cyberrelatert. Dette tallet gjelder ikke nødvendigvis for hele verden, men viser at en økende andel av den totale kriminaliteten er digital.
Rettshåndhevelse og politiske tiltak
- Justisdepartementets tøffere holdning
- Visestatsadvokat Lisa Monaco lovet "strengere straffer" for kriminelle som utnytter AI til å forsterke lovbrudd - og behandler AI som en skjerpende faktor i svindel, utnyttelse av barn og mer. [6]
- Homeland Security AI Task Force
- DHS utvider innsatsen for å oppdage AI-drevet svindel, håndtere deepfake-deteksjon og beskytte mindreårige mot AI-generert utnyttelse. [De utforsker også hvordan man kan bruke kunstig intelligens til forsvar, ved å skanne nettverk for avvik.
- Compliance i bedriften
- Justisdepartementet ber nå selskaper om å vise hvordan de håndterer risiko knyttet til kunstig intelligens i sine compliance-programmer. Hvis man ikke hindrer ansatte i å misbruke AI, eller ignorerer sikkerhetsproblemer knyttet til AI, kan det føre til erstatningsansvar for bedriften. [6]
- Kampanjer for offentlig bevisstgjøring
- FBI, FCC og FTC har alle lansert forbrukervarsler om AI-baserte "besteforeldre"-svindel og falske kidnappingsanrop. Hva er budskapet? Bekreft alltid mistenkelige anrop eller meldinger - å se (eller høre) er ikke lenger å tro i AI-æraen. [2][5]
56% av amerikanerne sier at de er bekymret for skadelig AI
I november 2024 gjennomførte Undetectable AI en spørreundersøkelse blant 1000 amerikanere over hele USA. [Respondentene, som var i alderen 18 til 27 år, oppga at 23% mente at AI utgjør en eksistensiell trussel mot menneskeheten, 18% uttrykte bekymring for ulovlig bruk av data eller personvern, og 15% var bekymret for at AI-teknologi blir brukt til å lage deepfakes.
Se fremover: 2025 og fremover
Til tross for at det finnes begrenset med data om den nøyaktige utbredelsen av AI-drevne angrep, er trenden klar: AI senker barrierene for kriminelle, muliggjør mer realistiske svindelforsøk og intensiverer desinformasjon. I mellomtiden øker forsvarerne - rettshåndhevere, cybersikkerhetseksperter og tilsynsmyndigheter - innsatsen. Det kan du vente deg:
- Mer kunstig intelligens i forsvaret: Verktøy for deepfake-etterforskning, AI-baserte phishing-filtre og deteksjon av anomalier i nettverk.
- Utvidet regulatorisk tilsyn: Justisdepartementet, SEC og andre vil sannsynligvis slå hardere ned på misbruk av kunstig intelligens og ilegge strengere straffer for enkeltpersoner eller organisasjoner som legger til rette for AI-relatert kriminalitet.
- Bredere internasjonalt samarbeid: Cyberkriminalitet er grenseløs, og felles operasjoner - som DOJs razzia mot en russisk botfarm i juli 2024 - vil bli vanligere.
Konklusjon: En kraftmultiplikator for datakriminalitet
Kjernetemaet som kommer frem i offisielle kilder og ekspertanalyser, er at kunstig intelligens forsterker eksisterende nettkriminelle metoder. Fra hyperrealistisk nettfisking til "falske CEO"-samtaler: Kriminelle bruker generativ kunstig intelligens til å forbedre suksessratene sine betraktelig - og til å utnytte ofre som tidligere stolte på enkle "magefølelser" (feilstavinger, aksenter osv.) for å oppdage svindelforsøk.
Vær årvåken og informert
Offentlig bevissthet og verifisering er avgjørende i dette raskt voksende miljøet. Enten du er en toppsjef som mottar en forespørsel om overføring i siste liten, en pensjonist som blir oppringt av et "barnebarn i krise", eller en bruker av sosiale medier som blir konfrontert med en oppsiktsvekkende video av en politiker, må du huske: Hvis noe føles rart, må du verifisere det. Kunstig intelligens gjør at kriminelle kan etterligne ekte mennesker eller skape illusjoner med forbløffende nøyaktighet.
Metodikk
Vi gjennomførte denne undersøkelsen ved å se nærmere på offisielle offentlige ressurser (for eksempel publiserte dokumenter fra Justisdepartementet og den årlige IC3 Internet Crime Annual Report). Vi har også undersøkt pålitelige tredjepartskommentarer og dekning av nye trusler mot cyberkriminalitet knyttet til kunstig intelligens. Vi har også gjennomført en spørreundersøkelse blant over 1000 korrespondenter i USA for å forstå deres bekymringer om kunstig intelligens. Til slutt faktasjekket vi rapporten for å sikre at alle siterte kilder er korrekte og oppdaterte.
Rettferdig bruk
Du er velkommen og oppfordres til å bruke disse dataene i en artikkel eller reportasje. Husk å oppgi Undetectable AI som kilde og inkludere en lenke til denne siden, slik at leserne kan se hele rapporten.
Referanser
- FBI: Forbered deg på et valgår med trusler i høyt tempo, drevet av skurker med kunstig intelligens - ... Forsvar 1
- FBI advarer mot økende trussel fra cyberkriminelle som bruker kunstig intelligens (8. mai 2024)
- Internet Crime Complaint Center (IC3) - 2023 Internet Crime Report & Related PSAs
- Office of Public Affairs | Justisdepartementet leder arbeidet ... for å forstyrre hemmelig russisk myndighetsstyrt botfarm for sosiale medier (9. juli 2024)
- Internet Crime Complaint Center (IC3) | PSA: Ondsinnede aktører som manipulerer bilder og videoer for å skape eksplisitt innhold og sextortion-ordninger (5. juni 2023)
- Mann arrestert for produksjon, distribusjon og besittelse av AI-genererte bilder av mindreårige som utviser seksuelt eksplisitt atferd
- DOJ og partnere forstyrrer russisk botfarm - håndhevelsesdetaljer (juli 2024)
- DHS: "Effekten av kunstig intelligens på kriminelle og ulovlige aktiviteter" (27. september 2024)
- 2024-undersøkelse utført av Uoppdagelig AI