Tendenser inden for AI-cyberkriminalitet og hvordan de kan skade dig i 2025

"Kunstig intelligens fungerer som en præstationsforstærker for cyberkriminelle. Den løfter effektivt skurke på mellemniveau." [1]

I løbet af det sidste år har kunstig intelligens (AI) udviklet sig hurtigt og driver alt fra personlig søgning til avanceret medicinsk diagnostik. Men mens teknologien løber fremad, truer en mørkere virkelighed: cyberkriminelle bruger de samme AI-gennembrud som våben til at forfine svindelnumre, udgive sig for at være ofre og forstærke ulovlige foretagender. 

Regeringsorganer - fra FBI's Internet Crime Complaint Center (IC3) til Department of Homeland Security (DHS) - har markeret AI-drevet cyberkriminalitet som et hurtigt voksende problem. [2][8]

Vi har undersøgt den amerikanske regerings resultater og troværdige tredjepartsanalyser af, hvordan AI bliver brugt til cyberkriminalitet i 2024. Fra Skræmmende deepfake-svindel til potent Phishing-kampagnerHer er, hvad dataene - og faktatjekkene - afslører.

Det vigtigste at tage med:

  1. AI er en medvirkende faktor, men ikke den eneste årsag til alle cyberangreb. Traditionel hacking fortsætter i stor skala.
  2. Deepfake-imitation er ikke længere science fiction; det sker nu.
  3. Sextortion og CSAM-generering ved hjælp af AI er en presserende prioritet for retshåndhævende myndigheder og børnebeskyttelsesorganisationer.
  4. Desinformation er en national sikkerhedstrussel, hvor AI skaber mere troværdige falske personer og fortællinger.
  5. Strengere håndhævelse er på vej, da DOJ og FBI lover at behandle AI-assisterede forbrydelser med øget alvor.
  6. 56% af de adspurgte amerikanere sagde, at de var bekymrede over Deep Fakes, AI, der udgør en trussel mod menneskeliv, eller ulovlig brug. [9]* 

1. AI-forbedret phishing og social engineering

En ny æra med overbevisende phishing

  • Hvad er det, der sker?
    Kriminelle bruger generativ AI til at lave perfekte, personlige phishing-mails og -tekster. Borte er dagene med latterlige grammatiske fejl. Nu ser disse e-mails polerede og hypermålrettede ud og narrer selv opmærksomme modtagere. [2][3]
  • Officielle advarsler
    FBI's San Francisco-afdeling advarer om en "stigende trussel fra cyberkriminelle, der bruger AI-drevne værktøjer til at orkestrere meget målrettede phishing-kampagner." [2] I 2024 rapporterede IC3 om en fortsat stigning i phishing-relaterede tab - selvom de ikke giver et præcist tal for, hvor mange der er AI-drevne. [3] Kvalitativt ser efterforskerne dog en bemærkelsesværdig stigning i mere sofistikerede phishing-forsøg, der omgår typiske røde flag.
  • Fakta-tjek højdepunkt
    Mens antallet af phishing-klager generelt er på himmelflugt, har FBI ikke offentliggjort en nøjagtig procentdel, der udelukkende tilskrives AI. I stedet understreger de den voksende realisme og succesraten for disse AI-forstærkede svindelnumre. Det er et godt eksempel på en trussel, der er reel - selv om præcise tal er svære at finde.

Konsekvenser for virksomheder og enkeltpersoner

  • Kompromittering af virksomheders e-mails (BEC):
    AI hjælper svindlere med at kopiere e-mails fra ledelsen eller skræddersy beskeder på flere sprog, hvilket øger succesen med BEC-svindel. Tab fra BEC-svindel oversteg $2,9 milliarder i 2023, ifølge FBI, og 2024 forventes at overgå det - selvom AI-delen stadig overvåges. [3]
  • Personlige tab:
    Folk møder veludformede falske bankadvarsler eller "romance scam"-breve, der ser hjerteskærende ægte ud. Det har ført til stjålne legitimationsoplysninger, tømte bankkonti og identitetstyveri [2]. Ældre mennesker er fortsat særligt sårbare, da kriminelle kan klone stemmer eller fremstille plejerlignende beskeder.

2. Deepfake-imitation og svindel

Falske stemmer, rigtige penge

Forestil dig at få et desperat opkald fra en elskedes stemme, der tigger om løsepenge. I virkeligheden, AI brugte prøver fra sociale medier til at generere den nøjagtige vokalsignatur. 

Ifølge FBI's IC3-bulletiner er stemmekloning blevet et nyt værktøj til afpresning og økonomisk svindel. [2][5] Der er også rapporteret om tilfælde af "falske CEO"-opkald, der narrer medarbejdere til at overføre penge.

Du skal aldrig bekymre dig om, at AI opdager dine tekster igen. Undetectable AI Kan hjælpe dig:

  • Få din AI-assisterede skrivning til at fremstå Menneskelignende.
  • Bypass alle større AI-detektionsværktøjer med bare ét klik.
  • Brug AI sikkert og selvsikkert i skolen og på arbejdet.
Prøv GRATIS

Et godt eksempel: I 2023 var en mor fra Arizona tæt på at blive snydt, da hun troede, hun hørte sin teenagedatters hulkende stemme i et falsk "kidnapningsopkald". Heldigvis bekræftede hun sin datters sikkerhed, før hun overførte penge.

Deepfake-videoer og efterligning

Kriminelle producerer også AI-genererede videoopkald med realistiske "CEO'er" eller "forretningspartnere", som beder medarbejdere om at godkende store overførsler. Justitsministeriet (DOJ) advarer om, at disse deepfake-videoopkald er foruroligende troværdige, især i fjerntliggende eller hybride arbejdsmiljøer. [4][7]

Notat om faktatjek:
Politiet har bekræftet flere hændelser, men har ikke offentliggjort en officiel optælling af deepfake-sager. De rapporterede eksempler stemmer dog overens med konsekvente FBI/DOJ-advarsler om en "kraftig stigning" i brugen af deepfake-teknologi til svindel. [2][4][7]

3. AI-genereret sextortion og misbrug af syntetiske medier

Ændring af uskyldige billeder til udnyttelse

  • Hvad er det, der sker?
    Kriminelle tager godartede fotos (fra sociale medier eller andet) og manipulerer dem til eksplicit materiale. Denne såkaldte "deepfake sextortion" trives med AI's evne til at generere foruroligende overbevisende billeder eller videoer. [5]
  • Ofre inkluderer mindreårige
    FBI bemærkede i en PSA fra 2023 en stigning i sextortionssager, hvor mindreåriges billeder blev omdannet til falsk pornografisk materiale. Gerningsmændene truer derefter med at dele eller offentliggøre disse falske billeder, medmindre ofrene betaler eller leverer ægte seksuelt indhold. [5]
  • Materiale om seksuelt misbrug af børn (CSAM)
    DHS og DOJ bekræfter, at AI-værktøjer bruges til at skabe AI-genereret indhold om seksuelt misbrug af børn. I august 2024 arresterede DOJ en person for at bruge AI til at producere børnepornografi. [6] De retshåndhævende myndigheder understreger, at "CSAM genereret af AI stadig er CSAM." 

Påmindelse om faktatjek:
Officielle kilder behandler utvetydigt AI-manipuleret CSAM som ulovligt. Præcise data om udbredelse er sparsomme, men flere håndhævelsesaktioner bekræfter, at det er en reel og voksende trussel.

4. AI-drevet misinformation og politisk indblanding

  • Indblanding i valget 2.0
    I juli 2024 optrevlede justitsministeriet en hemmelig russisk botfarm, der brugte AI-forbedrede falske personer til at sprede misinformation [4][7]. Disse AI-genererede konti på de sociale medier spredte splittende fortællinger på en sofistikeret måde, som automatiserede filtre havde svært ved at opdage.
  • Indenlandsk og udenlandsk indflydelse
    FBI-direktør Wray bemærker, at "generativ AI ... sænker adgangsbarrieren" [1], hvilket gør det lettere for både udenlandske modstandere og indenlandske grupper at skabe troværdige "falske nyheder", deepfake videoer eller udgive sig for at være politikere.
  • Ikke bare spam
    Dette indhold kan underminere offentlighedens tillid, skabe forvirring under valg eller opmuntre til ondsindede økonomiske planer. [4][8] DHS klassificerer AI-drevet desinformation som en "cyberaktiveret" forbrydelse - i erkendelse af, at selv om det måske ikke involverer direkte hacking, udnytter det digitale platforme til ulovlige eller vildledende formål.

Faktatjek-kontekst:
Justitsministeriet har veldokumenteret nedtagningen af "botfarme". [4][7] Uafhængige sikkerhedsforskere bekræfter, at AI-genereret persona-skabelse er stigende. Officielle agenturer frigiver dog sjældent præcise tal (f.eks. "30% af desinformation er nu AI-baseret"). I stedet fokuserer de på at offentliggøre, hvor alvorlige og sofistikerede disse kampagner er.

5. Nye trusler: AI-assisteret malware og hacking

WormGPT og mere til

På undergrundsfora sælger kriminelle AI-modeller - som "WormGPT" - der er finjusteret til at skrive malware. DHS advarer om, at disse værktøjer "udfylder huller i viden som f.eks. computerkodning", hvilket gør det muligt for relativt ufaglærte hackere at iværksætte avancerede angreb [8]. Mens storstilet AI-skrevet malware stadig er begrænset, forudser eksperter, at det vil være et stort problem fremover.

Adaptiv malware?

Sikkerhedsforskere har vist, at AI-drevet malware kan ændre sin kode ("polymorfisme") for at undgå at blive opdaget af antivirusprogrammer. DHS har også teoretiseret over "selvlærende" malware, der autonomt tester nye exploits, men eksempler fra den virkelige verden er stadig sjældne i 2024. [8]

Notat om faktatjek:
De fleste højt profilerede angreb (som ransomware) er stadig afhængige af konventionelle metoder, men FBI, NSA og cybersikkerhedseksperter ser tegn på, at AI i stigende grad er en del af de cyberkriminelles arsenal. Forvent mere udvikling - og muligvis mere officiel statistik - inden 2025.

Virkninger og vigtige statistikker (faktatjekket)

  1. Overordnede klager over cyberkriminalitet
    • FBI's IC3 modtog 880.000+ klager over cyberkriminalitet i 2023, med rapporterede tab på over $12,5 milliarder - en 22% stigning i tab fra 2022. [3]
    • Selv om den nøjagtige andel, der involverer AI, ikke spores, mener eksperter, at AI's realisme driver højere succesrater i phishing, BEC og efterligningssvindel. [2][3]
  2. Kompromittering af virksomheders e-mails (BEC)
    • Forbliver en af de dyreste former for cyberkriminalitet og overgår $2,9 milliarder i rapporterede tab i 2023. [3] AI's rolle? Mere polerede e-mails, bedre lokalisering og lejlighedsvis deepfake-opkald eller -videoer.
  3. Deepfake Sextortion
    • FBI offentliggør ikke en endelig optælling af deepfake-baserede sextortionshændelser, men "flere nye rapporter hver måned" er dukket op. [5]
    • Påvirkning af offeret: Personlig ydmygelse, økonomisk afpresning og følelsesmæssige traumer.
  4. Desinformationsoperationer
    • Justitsministeriet forstyrrede en AI-drevet russisk botfarm i juli 2024 [4][7]. Føderale agenturer understreger truslen fra AI-spredt desinformation mod amerikanske valg og demokratiske processer.
  5. Faktatjek af myten om "den tredjestørste økonomi"
    • Nogle medieoverskrifter sammenligner de globale omkostninger ved cyberkriminalitet med store nationers BNP, men de $10-12 milliarder i årlige rapporterede amerikanske tab er naturligvis ikke i den størrelsesorden [3]. Analytikere vurderer, at den globale økonomiske effekt af cyberkriminalitet kan nå billioner, hvilket teoretisk set placerer den blandt de største økonomier, hvis man medregner alle indirekte omkostninger.
  6. "En ud af fem forbrydelser online" Kontekst
    • I visse regioner er omkring 20-25% af de anmeldte forbrydelser nu cyberrelaterede. Dette tal gælder ikke nødvendigvis for hele verden, men det viser, at en stigende andel af den samlede kriminalitet er digital.

Retshåndhævelse og politiske reaktioner

  1. Justitsministeriets hårdere holdning
    • Vicejustitsminister Lisa Monaco lovede "hårdere straffe" til kriminelle, der udnytter AI til at forstærke lovovertrædelser - og behandlede AI som en skærpende faktor i svindel, udnyttelse af børn og meget mere. [6]
  2. Homeland Security AI Task Force
    • DHS udvider indsatsen for at opdage AI-drevne svindelnumre, håndtere deepfake-opdagelse og beskytte mindreårige mod AI-genereret udnyttelse. [8] De undersøger også, hvordan man kan bruge AI til forsvar ved at scanne netværk for uregelmæssigheder.
  3. Virksomhedens overholdelse
    • Justitsministeriet beder nu virksomheder om at vise, hvordan de håndterer AI-risici i deres compliance-programmer. Hvis man ikke forhindrer medarbejdere i at misbruge AI eller ignorerer AI-sikkerhedssårbarheder, kan det øge virksomhedens ansvar. [6]
  4. Offentlige oplysningskampagner
    • FBI, FCC og FTC har alle udsendt forbrugeradvarsler om AI-baserede "bedsteforældre"-svindelnumre og falske kidnapningsopkald. Hvad er budskabet? Bekræft altid mistænkelige opkald eller beskeder - at se (eller høre) er ikke længere at tro i AI-æraen. [2][5]

56% af amerikanerne siger, at de er bekymrede for skadelig AI

I november 2024 gennemførte Undetectable AI en undersøgelse blandt 1.000 amerikanere i hele USA. [9] Respondenterne i alderen 18 til 27 år angav, at 23% mente, at AI udgør en eksistentiel trussel mod menneskeheden, 18% udtrykte bekymring for ulovlig brug af data eller databeskyttelse, og 15% var bekymrede for, at AI-teknologi bliver brugt til at skabe deepfakes.

Ser fremad: 2025 og videre frem

På trods af begrænsede data om den nøjagtige udbredelse af AI-drevne angreb er tendensen klar: AI sænker barrierer for kriminelle, muliggør mere realistiske svindelnumre og intensiverer misinformation. I mellemtiden opruster forsvarere - retshåndhævere, cybersikkerhedseksperter og lovgivere. Forvent det:

  • Mere AI i forsvaret: Værktøjer til deepfake-forensik, AI-baserede phishing-filtre og detektering af anomalier i netværk.
  • Udvidet lovgivningsmæssigt tilsyn: Justitsministeriet, SEC og andre vil sandsynligvis slå hårdere ned på misbrug af AI og pålægge enkeltpersoner eller organisationer, der faciliterer AI-relaterede forbrydelser, strengere straffe.
  • Bredere internationalt samarbejde: Cyberkriminalitet er grænseløs, og fælles operationer - som justitsministeriets nedkæmpelse af en russisk botfarm i juli 2024 - vil blive hyppigere.

Konklusion: En kraftmultiplikator for cyberkriminalitet

Det centrale tema, der fremgår af officielle kilder og ekspertanalyser, er, at AI forstærker eksisterende cyberkriminelle metoder. Fra hyperrealistisk phishing til "falske CEO"-stemmeopkald bruger kriminelle generativ AI til at forbedre deres succesrate betydeligt - og til at udnytte ofre, der tidligere stolede på simple "mavefornemmelser" (stavefejl, forkert accent osv.) for at opdage svindel.

Vær på vagt og informeret

Offentlig opmærksomhed og verifikation er afgørende i dette hurtigt voksende miljø. Uanset om du er en topchef, der modtager en anmodning om overførsel i sidste øjeblik, en pensionist, der modtager opkald fra et "barnebarn i krise", eller en bruger af sociale medier, der konfronteres med en opsigtsvækkende video af en politiker, så husk: Hvis noget føles forkert, så bekræft det. AI betyder, at kriminelle kan efterligne rigtige mennesker eller skabe illusioner med forbløffende nøjagtighed.

Metodologi

Vi udførte denne forskning ved at undersøge officielle regeringsressourcer (såsom offentliggjorte dokumenter fra justitsministeriet og den årlige IC3 Internet Crime Annual Report). Vi undersøgte også pålidelige tredjepartskommentarer og dækning af nye cyberkriminalitetstrusler i forbindelse med kunstig intelligens. Vi undersøgte også over 1000 korrespondenter i USA for at forstå deres bekymringer om AI. Endelig har vi faktatjekket denne rapport for at garantere, at alle citerede kilder er nøjagtige og opdaterede.

Fair brug

Du er velkommen og opfordres til at bruge disse data i en historie eller artikel. Sørg for at henvise til Undetectable AI og inkludere et link til denne side, så læserne kan se den fulde rapport.

Referencer

  1. FBI: Forbered dig på et valgår med trusler i fedt tempo, drevet af skurke med AI -. Forsvar 1
  2. FBI advarer om stigende trussel fra cyberkriminelle, der udnytter kunstig intelligens (8. maj 2024)
  3. Internet Crime Complaint Center (IC3) - 2023 Internet Crime Report & Related PSAs
  4. Office of Public Affairs | Justitsministeriet leder indsatsen ... for at afbryde skjult russisk regeringsdrevet botfarm på sociale medier (9. juli 2024)
  5. Internet Crime Complaint Center (IC3) | PSA: Ondsindede aktører, der manipulerer fotos og videoer for at skabe eksplicit indhold og sextortion-ordninger (5. juni 2023)
  6. Mand anholdt for at producere, distribuere og besidde AI-genererede billeder af mindreårige, der er involveret i seksuelt eksplicit adfærd
  7. DOJ og partnere forstyrrer russisk botfarm - håndhævelsesdetaljer (juli 2024)
  8. DHS: "Kunstig intelligens' indvirkning på kriminelle og ulovlige aktiviteter" (27. september 2024) 
  9. 2024-undersøgelse udført af uopdaget AI

Copyright © 2023 Code Blog Pro. Alle rettigheder forbeholdes