Trender för AI-cyberbrottslighet och hur de kan skada dig 2025

"Artificiell intelligens fungerar som en prestationshöjare för cyberbrottslingar. Den höjer effektivt nivån för skurkar på mellannivå." [1]

Under det senaste året har artificiell intelligens (AI) utvecklats snabbt och driver allt från personlig sökning till avancerad medicinsk diagnostik. Men samtidigt som tekniken rusar framåt hotar en mörkare verklighet: cyberbrottslingar använder samma AI-genombrott som vapen för att förfina bedrägerier, utge sig för att vara offer och förstärka olagliga företag. 

Myndigheter - från FBI:s Internet Crime Complaint Center (IC3) till Department of Homeland Security (DHS) - har flaggat för AI-driven cyberbrottslighet som ett snabbt växande problem. [2][8]

Vi undersökte amerikanska myndigheters resultat och trovärdiga analyser från tredje part om hur AI används för cyberbrott 2024. Från skrämmande deepfake-bedrägerier till potent phishing-kampanjerHär är vad uppgifterna - och faktakontrollerna - avslöjar.

Viktiga slutsatser:

  1. AI är en bidragande faktor men inte den enda orsaken till alla cyberattacker. Traditionell hackning kvarstår i stor skala.
  2. Deepfake-imitation är inte längre science fiction; det händer nu.
  3. Sextortion och CSAM-generering med hjälp av AI är en angelägen prioritering för brottsbekämpande myndigheter och organ som arbetar med att skydda barn.
  4. Desinformation är ett hot mot den nationella säkerheten, och AI bidrar till mer trovärdiga falska personer och berättelser.
  5. Hårdare kontroll är på väg, eftersom DOJ och FBI lovar att behandla AI-assisterade brott med ökat allvar.
  6. 56% av de tillfrågade amerikanerna sade sig vara oroade över Deep Fakes, AI som utgör ett hot mot mänskligt liv eller olaglig användning. [9]* 

1. AI-förstärkt nätfiske och social ingenjörskonst

En ny era av övertygande nätfiske

  • Vad är det som händer?
    Brottslingar använder generativ AI för att skapa perfekta, personliga phishingmejl och -texter. Borta är dagarna med skrattretande grammatikfel. Nu verkar dessa e-postmeddelanden polerade och hyperinriktade och lurar även vaksamma mottagare. [2][3]
  • Officiella varningar
    FBI:s San Francisco-division varnar för ett "ökande hot från cyberbrottslingar som använder AI-drivna verktyg för att orkestrera mycket riktade nätfiskekampanjer." [2] År 2024 rapporterade IC3 en fortsatt ökning av nätfiske-relaterade förluster - även om de inte ger en exakt siffra på hur många som är AI-drivna. [3] Kvalitativt ser utredare dock en anmärkningsvärd ökning av mer sofistikerade nätfiskeförsök som kringgår typiska röda flaggor.
  • Faktakontrollens höjdpunkt
    Medan nätfiskeklagomålen skjuter i höjden överlag har FBI inte publicerat en exakt procentsats som enbart tillskrivs AI. Istället betonar de den växande realismen och framgångsgraden för dessa AI-förbättrade bedrägerier. Det är ett utmärkt exempel på ett hot som är verkligt - även om exakta siffror är svårfångade.

Effekter på företag och privatpersoner

  • Kompromittering av företags e-post (BEC):
    AI hjälper bedragare att replikera e-postmeddelanden från chefer eller skräddarsy meddelanden på flera språk, vilket ökar framgången med BEC-bedrägerier. Förlusterna från BEC-bedrägerier översteg $2,9 miljarder 2023, enligt FBI, och 2024 förväntas de överträffa det - även om AI-delen fortfarande övervakas. [3]
  • Personskador:
    Människor möter väl utformade falska bankmeddelanden eller "romansbedrägerier" som verkar hjärtskärande verkliga. Detta har lett till stulna inloggningsuppgifter, tömda bankkonton och identitetsstöld [2]. Äldre människor är särskilt sårbara eftersom brottslingar kan klona röster eller producera meddelanden som ser ut som om de kommer från en vårdare.

2. Deepfake-imitation och bedrägeri

Falska röster, riktiga pengar

Tänk dig att få ett desperat samtal från en älskad persons röst som ber om lösenpengar. I verkligheten.., AI använde samplingar från sociala medier för att generera den exakta röstsignaturen. 

Enligt FBI:s IC3-bulletiner har röstkloning blivit ett nytt verktyg för utpressning och ekonomiska bedrägerier. [2][5] Incidenter med samtal från "falska VD:ar" som lurar anställda att överföra pengar har också rapporterats.

Oroa dig aldrig för att AI upptäcker dina texter igen. Undetectable AI Kan hjälpa dig:

  • Få din AI-assisterade skrivning att synas människoliknande.
  • Bypass alla större AI-detekteringsverktyg med bara ett klick.
  • Användning AI säkert och självsäkert i skolan och på jobbet.
Prova gratis

Ett exempel på det: År 2023 blev en mamma i Arizona nästan lurad när hon trodde att hon hörde sin tonårsdotters snyftande röst i ett falskt "kidnappningssamtal". Lyckligtvis verifierade hon sin dotters säkerhet innan hon överförde pengar.

Deepfake-videor och imitation

Brottslingar producerar också AI-genererade videosamtal med realistiska "VD:ar" eller "affärspartners" som instruerar anställda att godkänna stora överföringar. Department of Justice (DOJ) varnar för att dessa falska videosamtal är oroväckande trovärdiga, särskilt i avlägsna eller hybrida arbetsmiljöer. [4][7]

Faktakontroll Obs:
Polisen har bekräftat flera incidenter men har inte publicerat någon officiell siffra över antalet deepfake-fall. De rapporterade exemplen stämmer dock överens med FBI/DOJ:s varningar om en "kraftig uppgång" i användningen av deepfake-teknik för bedrägerier. [2][4][7]

3. AI-genererad sextortion och missbruk av syntetiska medier

Förändring av oskyldiga bilder till exploatering

  • Vad är det som händer?
    Brottslingar tar oskyldiga foton (från sociala medier eller på annat sätt) och manipulerar dem till explicit material. Denna så kallade "deepfake sextortion" bygger på AI:s förmåga att generera störande övertygande bilder eller videor. [5]
  • Offren är bland annat minderåriga
    FBI noterade i en PSA 2023 en ökning av sextorsionsfall där minderårigas bilder förvandlades till falskt pornografiskt material. Gärningsmännen hotar sedan att dela eller publicera dessa fabricerade bilder om inte offren betalar eller tillhandahåller verkligt sexuellt innehåll. [5]
  • Material om sexuella övergrepp mot barn (CSAM)
    DHS och DOJ bekräftar att AI-verktyg används för att skapa AI-genererat innehåll med sexuella övergrepp mot barn. I augusti 2024 arresterade DOJ en person för att ha använt AI för att producera barnpornografi. [6] Polisen betonar att "CSAM som genereras av AI är fortfarande CSAM." 

Påminnelse om faktakontroll:
Officiella källor behandlar otvetydigt AI-manipulerad CSAM som olaglig. Exakta uppgifter om prevalens är knapphändiga, men flera verkställighetsåtgärder bekräftar att det är ett verkligt och växande hot.

4. AI-driven desinformation och politisk inblandning

  • Valfusk 2.0
    I juli 2024 stoppade justitiedepartementet en hemlig rysk botfarm som använde AI-förstärkta falska personligheter för att sprida desinformation [4][7]. Dessa AI-genererade konton i sociala medier spred splittrande berättelser på ett sofistikerat sätt som automatiserade filter hade svårt att upptäcka.
  • Inhemskt och utländskt inflytande
    FBI-chefen Wray konstaterar att "generativ AI ... sänker inträdesbarriären" [1], vilket gör det lättare för både utländska motståndare och inhemska grupper att skapa trovärdiga "falska nyheter", deepfake-videor eller utge sig för att vara politiker.
  • Inte bara skräppost
    Detta innehåll kan undergräva allmänhetens förtroende, skapa förvirring under val eller uppmuntra skadliga finansiella system. [4][8] DHS klassificerar AI-driven desinformation som ett "cyberaktiverat" brott - och erkänner att även om det kanske inte innebär direkt hackning utnyttjar det digitala plattformar för olagliga eller vilseledande syften.

Faktagranska sammanhanget:
Justitiedepartementet har väl dokumenterat tillslaget mot "botfarmar". [4][7] Oberoende säkerhetsforskare bekräftar att AI-genererat personaskapande är på uppgång. Officiella myndigheter släpper dock sällan exakta mätvärden (t.ex. "30% av desinformationen är nu AI-baserad"). Istället fokuserar de på att offentliggöra hur allvarliga och sofistikerade dessa kampanjer är.

5. Framväxande hot: AI-assisterad skadlig kod och hackning

WormGPT och mer därtill

På underjordiska forum säljer kriminella AI-modeller - som "WormGPT" - som är finjusterade för att skriva skadlig kod. DHS varnar för att dessa verktyg "fyller kunskapsluckor som t.ex. datorkodning", vilket gör det möjligt för relativt okvalificerade hackare att genomföra avancerade attacker [8]. Även om storskalig AI-skriven skadlig kod fortfarande är begränsad, förutspår experter att det kommer att bli ett stort problem framöver.

Adaptiv skadlig kod?

Säkerhetsforskare har visat att AI-driven skadlig kod kan förändra sin kod ("polymorfism") för att undgå antivirusdetektering. DHS har också teoretiserat om "självlärande" skadlig kod som självständigt testar nya exploateringar, men exempel från den verkliga världen är fortfarande sällsynta 2024. [8]

Faktakontroll Obs:
De flesta högprofilerade attacker (som ransomware) förlitar sig fortfarande på konventionella metoder, men FBI, NSA och cybersäkerhetsexperter ser tecken på att AI blir en allt större del av cyberbrottslingarnas arsenal. Förvänta dig mer utveckling - och kanske mer officiell statistik - fram till 2025.

Effekter och viktig statistik (faktagranskat)

  1. Totalt antal anmälningar om cyberbrottslighet
    • FBI:s IC3 tog emot 880 000+ anmälningar om cyberbrott under 2023, med rapporterade förluster på över $12,5 miljarder - en ökning av förlusterna med 22% från 2022. [3]
    • Även om den exakta andelen som involverar AI inte spåras, tror experter att AI:s realism leder till högre framgångar i phishing-, BEC- och personifieringsbedrägerier. [2][3]
  2. Kompromittering av företags e-post (BEC)
    • Förblir en av de dyraste formerna av cyberbrottslighet och kommer att överstiga $2,9 miljarder i rapporterade förluster 2023. [3] AI:s roll? Mer polerade e-postmeddelanden, bättre lokalisering och ibland deepfake-samtal eller videor.
  3. Deepfake Sextortion
    • FBI publicerar inte någon slutgiltig siffra över antalet deepfake-baserade sextortionsincidenter, men "flera nya rapporter varje månad" har dykt upp. [5]
    • Påverkan på offret: Personlig förödmjukelse, ekonomisk utpressning och känslomässigt trauma.
  4. Desinformationsoperationer
    • DOJ störde en AI-driven rysk botfarm i juli 2024 [4][7]. Federala myndigheter betonar hotet från AI-spridd desinformation mot amerikanska val och demokratiska processer.
  5. Faktakoll på myten om "den tredje största ekonomin"
    • Vissa rubriker i media jämför de globala kostnaderna för cyberbrottslighet med stora nationers BNP, men de $10-12 miljarder i årliga rapporterade förluster i USA är uppenbarligen inte i den skalan [3]. Analytiker uppskattar dock att den globala ekonomiska effekten av cyberbrottslighet kan uppgå till biljoner dollar, vilket teoretiskt sett placerar den bland de största ekonomierna om man inkluderar alla indirekta kostnader.
  6. "Ett av fem brott på nätet" Kontext
    • I vissa regioner är nu cirka 20-25% av de anmälda brotten cyberrelaterade. Denna siffra gäller inte nödvändigtvis i hela världen, men visar att en allt större andel av den totala brottsligheten är digital.

Lagtillämpning och politiska åtgärder

  1. DOJ:s tuffare hållning
    • Biträdande justitieminister Lisa Monaco utlovade "strängare straff" för brottslingar som utnyttjar AI för att förstärka brott - AI behandlas som en försvårande faktor vid bedrägeri, utnyttjande av barn med mera. [6]
  2. Arbetsgrupp för AI inom inrikes säkerhet
    • DHS utökar insatserna för att upptäcka AI-drivna bedrägerier, hantera deepfake-detektering och skydda minderåriga från AI-genererad exploatering. [8] Man undersöker också hur man kan använda AI för försvar, genom att skanna nätverk efter avvikelser.
  3. Företagets efterlevnad av lagar och regler
    • Justitiedepartementet ber nu företag att visa hur de hanterar AI-risker i sina efterlevnadsprogram. Om man inte hindrar anställda från att missbruka AI eller ignorerar AI-säkerhetsproblem kan det leda till att företaget blir skadeståndsskyldigt. [6]
  4. Kampanjer för att öka allmänhetens medvetenhet
    • FBI, FCC och FTC har alla lanserat konsumentvarningar om AI-baserade "morföräldra"-bedrägerier och falska kidnappningssamtal. Vad är budskapet? Verifiera alltid misstänkta samtal eller meddelanden - att se (eller höra) är inte längre att tro i AI-eran. [2][5]

56% av amerikanerna säger att de är oroliga för skadlig AI

I november 2024 genomförde Undetectable AI en undersökning bland 1 000 amerikaner i hela USA. [9] De svarande, i åldrarna 18 till 27, angav att 23% trodde att AI utgör ett existentiellt hot mot mänskligheten, 18% uttryckte oro över olaglig användning av data eller datasekretess och 15% oroade sig för att AI-teknik används för att skapa deepfakes.

Framtidsutsikter: 2025 och framåt

Trots att det finns begränsat med data om den exakta förekomsten av AI-drivna attacker är trenden tydlig: AI sänker trösklarna för brottslingar, möjliggör mer realistiska bedrägerier och intensifierar desinformationen. Samtidigt ökar försvararna - brottsbekämpande myndigheter, cybersäkerhetsexperter och tillsynsmyndigheter - sina insatser. Förvänta dig:

  • Mer AI i försvaret: Verktyg för deepfake-forensik, AI-baserade phishing-filter och anomalidetektering i nätverk.
  • Utökad tillsyn av tillsynsmyndigheter: DOJ, SEC och andra kommer sannolikt att slå ner ytterligare på missbruk av AI och införa strängare straff för individer eller organisationer som underlättar AI-relaterade brott.
  • Bredare internationellt samarbete: Cyberbrottslighet är gränslös, och gemensamma operationer - som justitiedepartementets tillslag mot en rysk botfarm i juli 2024 - kommer att bli vanligare.

Slutsats: En kraftmultiplikator för cyberbrottslighet

Det centrala temat som framkommer från officiella källor och expertanalyser är att AI förstärker befintliga cyberkriminella metoder. Från hyperrealistiskt nätfiske till röstsamtal från "falska VD:ar" använder brottslingar generativ AI för att avsevärt förbättra sina framgångar - och för att utnyttja offer som tidigare förlitade sig på enkla "magkänslor" (felstavningar, felaktiga accenter etc.) för att upptäcka bedrägerier.

Håll dig vaksam och informerad

Allmänhetens medvetenhet och verifiering är avgörande i denna snabbt växande miljö. Oavsett om du är en hög chef som får en begäran om telegram i sista minuten, en pensionär som får samtal från ett "barnbarn i kris" eller en användare av sociala medier som konfronteras med en sensationell video av en politiker, kom ihåg: om något känns fel, verifiera det. AI innebär att brottslingar kan efterlikna verkliga personer eller skapa illusioner med häpnadsväckande precision.

Metodik

Vi genomförde denna forskning genom att undersöka officiella statliga resurser, (såsom publicerade dokument från justitiedepartementet och den årliga IC3 Internet Crime Annual Report). Vi undersökte också pålitliga tredjepartskommentarer och täckning av framväxande cyberbrottshot relaterade till artificiell intelligens. Vi undersökte också över 1000 korrespondenter i USA för att förstå deras oro för AI. Slutligen har vi faktagranskat rapporten för att garantera att alla citerade källor är korrekta och uppdaterade.

Rättvis användning

Du är välkommen och uppmuntras att presentera dessa data i en berättelse eller artikel. Var noga med att hänvisa till Undetectable AI och inkludera en länk till den här sidan så att läsarna kan se hela rapporten.

Referenser

  1. FBI: Förbered dig för ett valår med hot i fett tempo, drivna av skurkar med AI - Försvar Ett
  2. FBI varnar för ökat hot från cyberbrottslingar som använder artificiell intelligens (8 maj 2024)
  3. Internet Crime Complaint Center (IC3) - 2023 Internet Crime Report & Related PSAs
  4. Office of Public Affairs | Justitiedepartementet leder insatser ... för att störa hemlig rysk regeringsstyrd botfarm för sociala medier (9 juli 2024)
  5. Internet Crime Complaint Center (IC3) | PSA: Skadliga aktörer som manipulerar foton och videor för att skapa explicit innehåll och sextortionsscheman (5 juni 2023)
  6. Man gripen för att ha producerat, distribuerat och innehaft AI-genererade bilder av minderåriga som ägnar sig åt sexuellt explicita beteenden
  7. DOJ & Partners stör ryska botfarm - verkställighetsdetaljer (juli 2024)
  8. DHS: "Artificiell intelligens inverkan på kriminell och olaglig verksamhet" (27 september 2024) 
  9. 2024 Undersökning utförd av odetekterbar AI

Upphovsrätt © 2023 Code Blog Pro. Alla rättigheter reserverade