Tendințele criminalității informatice bazate pe IA și modul în care vă pot afecta în 2025

"Inteligența artificială acționează ca un amplificator de performanță pentru infractorii cibernetici. Ea ridică efectiv nivelul răufăcătorilor de nivel mediu." [1]

În ultimul an, inteligența artificială (AI) a evoluat rapid, alimentând totul, de la căutarea personalizată la diagnosticarea medicală avansată. Dar, în timp ce tehnologia avansează, o realitate mai întunecată se profilează: infractorii cibernetici folosesc ca armă aceleași descoperiri în domeniul inteligenței artificiale pentru a perfecționa escrocheriile, a se da drept victime și a amplifica întreprinderile ilegale. 

Agențiile guvernamentale - de la Internet Crime Complaint Center (IC3) al FBI la Departamentul pentru Securitate Internă (DHS) - au semnalat criminalitatea informatică generată de inteligența artificială drept o problemă în creștere rapidă. [2][8]

Am cercetat constatările guvernului SUA și analizele credibile ale părților terțe cu privire la modul în care IA este utilizată pentru criminalitatea informatică în 2024. De la înșelătorii înfricoșătoare deepfake la puternic campanii de phishing, iată ce dezvăluie datele și verificările.

Principalele concluzii:

  1. Inteligența artificială este un factor care contribuie, dar nu este singura cauză a fiecărui atac cibernetic. Pirateria tradițională persistă la scară largă.
  2. Imitația Deepfake nu mai este science fiction; se întâmplă acum.
  3. Generația de sextortion și CSAM cu ajutorul IA este o prioritate urgentă pentru agențiile de aplicare a legii și de protecție a copilului.
  4. Dezinformarea reprezintă o amenințare la adresa securității naționale, inteligența artificială alimentând personaje și relatări false mai credibile.
  5. O aplicare mai strictă a legii se întrevede la orizont, DOJ și FBI promițând să trateze infracțiunile asistate de IA cu o seriozitate sporită.
  6. 56% dintre americanii intervievați s-au declarat îngrijorați de Deep Fakes, de IA care reprezintă o amenințare pentru viața umană sau de utilizarea ilegală. [9]* 

1. Phishing și inginerie socială îmbunătățite prin inteligență artificială

O nouă eră a phishing-ului convingător

  • Ce se întâmplă?
    Infractorii folosesc inteligența artificială generativă pentru a crea e-mailuri și texte de phishing perfecte și personalizate. Au dispărut zilele în care erorile gramaticale erau ridicole. Acum, aceste e-mailuri par elaborate și hiper-țintă, păcălind chiar și destinatarii vigilenți. [2][3]
  • Avertismente oficiale
    Divizia FBI din San Francisco avertizează cu privire la o "amenințare din ce în ce mai mare a infractorilor cibernetici care utilizează instrumente bazate pe inteligență artificială pentru a orchestra campanii de phishing foarte bine direcționate". [2] În 2024, IC3 a raportat o creștere continuă a pierderilor legate de phishing, deși nu oferă o estimare exactă a numărului de pierderi cauzate de AI. [Cu toate acestea, din punct de vedere calitativ, anchetatorii observă o creștere notabilă a tentativelor de phishing mai sofisticate care ocolesc semnalele de alarmă tipice.
  • Fact-Check Highlight
    În timp ce plângerile de phishing cresc vertiginos în general, FBI nu a publicat un procent exact atribuit exclusiv IA. În schimb, ei subliniază realismul în creștere și ratele de succes ale acestor înșelătorii îmbunătățite de inteligența artificială. Acesta este un prim exemplu de amenințare reală, chiar dacă cifrele exacte sunt evazive.

Impactul asupra întreprinderilor și persoanelor fizice

  • Compromiterea e-mailurilor de afaceri (BEC):
    Inteligența artificială îi ajută pe escroci să reproducă e-mailuri executive sau să adapteze mesajele în mai multe limbi, sporind succesul în frauda BEC. Pierderile cauzate de escrocheriile BEC au depășit $2,9 miliarde în 2023, potrivit FBI, iar în 2024 se preconizează că vor depăși această cifră - deși partea de inteligență artificială este încă monitorizată. [3]
  • Pierderi personale:
    Oamenii se confruntă cu alerte bancare false bine concepute sau cu scrisori de "înșelătorie romantică" care par extrem de reale. Acest lucru a dus la furtul acreditărilor, la golirea conturilor bancare și la furtul identității [2]. Persoanele în vârstă rămân deosebit de vulnerabile, deoarece infractorii pot să cloneze vocile sau să producă mesaje asemănătoare cu cele ale îngrijitorilor.

2. Imitația și frauda Deepfake

Voci false, bani reali

Imaginați-vă că primiți un apel frenetic de la vocea unei persoane dragi care cere bani pentru răscumpărare. În realitate, AI a folosit mostre din social media pentru a genera acea semnătură vocală exactă. 

Conform buletinelor IC3 ale FBI, clonarea vocii a apărut ca un nou instrument pentru extorcare și escrocherii financiare. [2][5] Au fost raportate, de asemenea, cazuri de apeluri ale "directorului general fals" prin care angajații sunt păcăliți să trimită fonduri.

Nu vă mai îngrijorați niciodată că AI vă detectează textele. Undetectable AI Vă poate ajuta:

  • Faceți să apară scrisul dvs. asistat de AI asemănătoare omului.
  • Bypass toate instrumentele majore de detectare AI cu un singur clic.
  • Utilizați AI în siguranță și cu încredere în școală și la locul de muncă.
Încercați GRATUIT

Exemplu concret: În 2023, o mamă din Arizona a fost aproape înșelată când a crezut că a auzit vocea fiicei sale adolescente plângând într-un apel fals de "răpire". Din fericire, ea a verificat siguranța fiicei sale înainte de a trimite banii.

Videoclipuri Deepfake și impostură

Infractorii produc, de asemenea, apeluri video generate de inteligența artificială în care apar "directori executivi" sau "parteneri de afaceri" realiști, care instruiesc angajații să autorizeze transferuri mari. Departamentul de Justiție (DOJ) avertizează că aceste apeluri video "deepfake" sunt îngrijorător de credibile, în special în mediile de lucru îndepărtate sau hibride. [4][7]

Fact-Check Notă:
Organele de aplicare a legii au confirmat mai multe incidente, dar nu au publicat un număr oficial de cazuri de falsificare profundă. Cu toate acestea, exemplele raportate se aliniază avertismentelor constante ale FBI/DOJ cu privire la o "creștere accentuată" a utilizării tehnologiei deepfake pentru escrocherii. [2][4][7]

3. Sextorționarea generată de inteligența artificială și abuzul de media sintetică

Modificarea imaginilor nevinovate în vederea exploatării

  • Ce se întâmplă?
    Infractorii iau fotografii nevinovate (de pe rețelele de socializare sau din alte surse) și le manipulează pentru a le transforma în materiale explicite. Acest așa-numit "deepfake sextortion" se bazează pe capacitatea inteligenței artificiale de a genera imagini sau videoclipuri deranjante și convingătoare. [5]
  • Victimele includ minori
    FBI, într-un comunicat de presă din 2023, a remarcat o creștere a cazurilor de sextortion, în care imaginile minorilor erau transformate în materiale pornografice false. Infractorii amenință apoi că vor partaja sau publica aceste imagini fabricate, cu excepția cazului în care victimele plătesc sau furnizează conținut sexual real. [5]
  • Materiale privind abuzul sexual asupra copiilor (CSAM)
    DHS și DOJ confirmă că instrumentele AI sunt utilizate pentru a crea conținut generat de AI privind abuzurile sexuale asupra copiilor. În august 2024, DOJ a arestat un individ pentru utilizarea IA în vederea producerii de pornografie infantilă. [6] Organele de aplicare a legii subliniază că "CSAM generat de AI este tot CSAM". 

Fact-Check Reminder:
Sursele oficiale tratează fără echivoc CSAM manipulate de AI ca fiind ilegale. Datele precise privind prevalența sunt rare, dar multiplele acțiuni de punere în aplicare confirmă amenințarea reală și în creștere.

4. Dezinformarea și interferența politică generate de inteligența artificială

  • Implicarea în alegeri 2.0
    În iulie 2024, Departamentul de Justiție a destructurat o fermă secretă de roboți ruși care folosea persoane false îmbunătățite prin inteligență artificială pentru a răspândi dezinformarea [4][7]. Aceste conturi de social media generate de inteligența artificială au promovat narațiuni de dezbinare cu o sofisticare pe care filtrele automate s-au străduit să o detecteze.
  • Influența internă și externă
    Directorul FBI, Wray, remarcă faptul că "inteligența artificială generativă... reduce bariera de intrare" [1], făcând mai ușor atât pentru adversarii străini, cât și pentru grupurile interne să creeze "știri false" plauzibile, să falsifice videoclipuri sau să se dea drept politicieni.
  • Nu doar spam
    Acest conținut poate submina încrederea publică, semăna confuzie în timpul alegerilor sau încuraja scheme financiare malițioase. [4][8] DHS clasifică dezinformarea condusă de inteligența artificială drept o infracțiune "cibernetică", recunoscând că, deși nu implică hacking direct, aceasta exploatează platformele digitale în scopuri ilegale sau înșelătoare.

Fact-Check Context:
Departamentul de Justiție a documentat bine capturarea "fermei de roboți". [4][7] Cercetătorii independenți în domeniul securității confirmă faptul că crearea de personae generată de AI este în creștere. Cu toate acestea, agențiile oficiale publică rareori măsurători exacte (de exemplu, "30% din dezinformare se bazează acum pe AI"). În schimb, acestea se concentrează pe publicarea seriozității și sofisticării acestor campanii.

5. Amenințări emergente: Malware și hacking asistate de IA

WormGPT și nu numai

Pe forumurile subterane, infractorii promovează modele AI - precum "WormGPT" - perfecționate pentru scrierea de programe malware. DHS avertizează că aceste instrumente "completează lacunele de cunoștințe, cum ar fi codarea computerizată", permițând hackerilor relativ necalificați să lanseze atacuri avansate [8]. Deși malware-ul scris de AI la scară largă este încă limitat, experții prevăd că acesta va fi o preocupare majoră în viitor.

Malware adaptiv?

Cercetătorii în domeniul securității au demonstrat că programele malware bazate pe inteligența artificială își pot modifica codul ("polimorfism") pentru a evita detectarea antivirus. DHS a teoretizat, de asemenea, cu privire la programele malware de "autoînvățare" care testează în mod autonom noi exploatări, dar exemplele reale rămân rare în 2024. [8]

Fact-Check Notă:
Majoritatea atacurilor de profil (precum ransomware) se bazează încă pe metode convenționale, însă FBI, NSA și experții în securitate cibernetică văd semne că inteligența artificială face din ce în ce mai mult parte din arsenalul infractorilor cibernetici. Așteptați-vă la mai multe evoluții și, posibil, la mai multe statistici oficiale până în 2025.

Impactul și statisticile-cheie (verificate)

  1. Reclamații generale privind criminalitatea informatică
    • IC3 al FBI a primit peste 880 000 de plângeri privind criminalitatea informatică în 2023, pierderile raportate depășind $12,5 miliarde - o creștere de 22% a pierderilor față de 2022. [3]
    • În timp ce partea exactă care implică inteligența artificială nu este urmărită, experții consideră că realismul inteligenței artificiale determină rate mai mari de succes în phishing, BEC și înșelăciuni prin impostură. [2][3]
  2. Compromiterea e-mailurilor de afaceri (BEC)
    • Rămâne una dintre cele mai costisitoare forme de criminalitate informatică, depășind $2,9 miliarde în pierderi raportate în 2023. [3] Rolul inteligenței artificiale? E-mailuri mai îngrijite, localizare mai bună și, ocazional, apeluri sau videoclipuri deepfake.
  3. Deepfake Sextortion
    • FBI nu publică un număr definitiv al incidentelor de sextortion bazate pe deepfake, dar au apărut "mai multe rapoarte noi în fiecare lună". [5]
    • Impactul asupra victimelor: Umilire personală, extorcare financiară și traumă emoțională.
  4. Operațiuni de dezinformare
    • În iulie 2024, DOJ a dezactivat o fermă de roboți ruși alimentată cu IA [4][7]. Agențiile federale subliniază amenințarea dezinformării propagate de IA la adresa alegerilor și proceselor democratice din SUA.
  5. Fact-Check privind mitul "a treia economie ca mărime"
    • Unele titluri din mass-media compară costurile globale ale criminalității informatice cu PIB-ul unor națiuni importante, însă pierderile anuale de $10-12 miliarde raportate de SUA nu sunt, în mod evident, la această scară [3]. Analiștii estimează totuși că impactul economic global al criminalității informatice ar putea ajunge la trilioane, situându-se teoretic printre primele economii, dacă se includ toate costurile indirecte.
  6. "Una din cinci infracțiuni online" Context
    • În anumite regiuni, aproximativ 20-25% din infracțiunile raportate sunt acum legate de cibernetică. Această cifră nu este neapărat valabilă la nivel mondial, dar evidențiază o pondere tot mai mare a criminalității digitale în totalul infracțiunilor.

Aplicarea legii și răspunsurile politice

  1. Poziția mai dură a DOJ
    • Procurorul general adjunct Lisa Monaco a promis "pedepse mai aspre" pentru infractorii care exploatează inteligența artificială pentru a amplifica infracțiunile - tratând inteligența artificială ca un factor agravant în fraudă, exploatarea copiilor și altele. [6]
  2. Grupul operativ pentru IA din cadrul Securității interne
    • DHS își extinde eforturile pentru a detecta înșelăciunile bazate pe inteligența artificială, pentru a gestiona detectarea deepfake și pentru a proteja minorii de exploatarea generată de inteligența artificială. [8] De asemenea, se explorează modul de utilizare a AI pentru apărare, scanând rețelele pentru anomalii.
  3. Conformitatea corporativă
    • DOJ solicită acum companiilor să prezinte modul în care abordează riscurile legate de IA în cadrul programelor lor de conformitate. Eșecul de a împiedica angajații să utilizeze IA în mod abuziv sau ignorarea vulnerabilităților de securitate ale IA poate atrage răspunderea întreprinderilor. [6]
  4. Campanii de sensibilizare a publicului
    • FBI, FCC și FTC au lansat alerte pentru consumatori cu privire la înșelăciunile cu "bunici" bazate pe inteligență artificială și la apelurile false de răpire. Mesajul? Verificați întotdeauna apelurile sau mesajele suspecte - a vedea (sau a auzi) nu mai înseamnă a crede în era inteligenței artificiale. [2][5]

56% dintre americani spun că sunt îngrijorați de AI dăunătoare

În noiembrie 2024, Undetectable AI a chestionat 1.000 de americani din Statele Unite. [9] Respondenții, cu vârste cuprinse între 18 și 27 de ani, au indicat că 23% cred că AI reprezintă o amenințare existențială pentru umanitate, 18% și-au exprimat îngrijorarea cu privire la utilizarea ilegală a datelor sau la confidențialitatea datelor și 15% și-au exprimat îngrijorarea cu privire la utilizarea tehnologiei AI pentru a crea deepfakes.

Privind în perspectivă: 2025 și mai departe

În ciuda datelor concrete limitate privind prevalența exactă a atacurilor bazate pe inteligența artificială, tendința este clară: inteligența artificială reduce barierele pentru infractori, permițând înșelăciuni mai realiste și intensificând dezinformarea. Între timp, apărătorii - autoritățile de aplicare a legii, experții în securitate cibernetică și autoritățile de reglementare - își intensifică eforturile. Așteptați:

  • Mai multă inteligență artificială în apărare: Instrumente pentru criminalistica deepfake, filtre de phishing bazate pe AI și detectarea anomaliilor în rețele.
  • Supravegherea extinsă a reglementărilor: DOJ, SEC și alții vor lua probabil măsuri mai drastice împotriva utilizării abuzive a IA, impunând sancțiuni mai severe persoanelor sau organizațiilor care facilitează infracțiunile legate de IA.
  • O cooperare internațională mai largă: Criminalitatea informatică nu cunoaște frontiere, iar operațiunile comune - cum ar fi arestarea de către DOJ, în iulie 2024, a unei ferme rusești de roboți - vor deveni mai frecvente.

Concluzii: Un multiplicator de forță pentru criminalitatea informatică

Tema centrală care reiese din sursele oficiale și din analizele experților este că inteligența artificială îmbunătățește metodele existente ale infractorilor cibernetici. De la phishing-ul hiperrealist la apelurile vocale ale "directorilor executivi falși", infractorii utilizează inteligența artificială generativă pentru a-și îmbunătăți considerabil ratele de succes și pentru a exploata victimele care se bazau odinioară pe simple "verificări instinctive" (greșeli de ortografie, accente greșite etc.) pentru a detecta escrocheriile.

Rămâneți vigilenți și informați

Sensibilizarea și verificarea publicului sunt esențiale în acest mediu în creștere rapidă. Fie că sunteți un director executiv care primește o solicitare de ultim moment, un pensionar care primește apeluri de la un "nepot în criză" sau un utilizator de social media confruntat cu un videoclip senzațional al unui politician, rețineți: dacă ceva vi se pare ciudat, verificați. IA înseamnă că infractorii pot imita persoane reale sau crea iluzii cu o acuratețe uimitoare.

Metodologie

Am efectuat această cercetare prin examinarea resurselor guvernamentale oficiale (cum ar fi documentele publicate de Departamentul de Justiție și Raportul anual al IC3 privind criminalitatea pe internet). De asemenea, am examinat comentariile și acoperirea de încredere ale terților cu privire la amenințările emergente ale criminalității informatice legate de inteligența artificială. De asemenea, am intervievat peste 1 000 de corespondenți din Statele Unite pentru a înțelege preocupările acestora cu privire la inteligența artificială. În cele din urmă, am verificat faptele din acest raport pentru a garanta că toate sursele citate sunt exacte și actualizate.

Utilizare corectă

Sunteți bineveniți și încurajați să prezentați aceste date într-o poveste sau într-un articol. Vă rugăm să nu uitați să menționați Undetectable AI și să includeți un link către această pagină, astfel încât cititorii să poată vizualiza raportul complet.

Referințe

  1. FBI: Pregătiți-vă pentru un an electoral cu amenințări în ritm alert, alimentate de răufăcători cu AI - Apărarea unu
  2. FBI avertizează cu privire la amenințarea tot mai mare a infractorilor cibernetici care utilizează inteligența artificială (8 mai 2024)
  3. Internet Crime Complaint Center (IC3) - 2023 Internet Crime Report & Related PSAs
  4. Biroul pentru afaceri publice | Departamentul de Justiție conduce eforturile... de a întrerupe o fermă de roboți de social media operată sub acoperire de guvernul rus (9 iulie 2024)
  5. Internet Crime Complaint Center (IC3) | PSA: Actori rău intenționați care manipulează fotografii și videoclipuri pentru a crea conținut explicit și scheme de sextortion (5 iunie 2023)
  6. Bărbat arestat pentru producerea, distribuirea și deținerea de imagini generate de inteligență artificială cu minori implicați în comportamente sexuale explicite
  7. DOJ și partenerii săi desființează ferma rusească de roboți - Detalii privind aplicarea legii (iulie 2024)
  8. DHS: "Impactul inteligenței artificiale asupra activităților criminale și ilicite" (27 septembrie 2024) 
  9. 2024 Sondaj realizat de inteligența artificială nedetectabilă

Copyright © 2023 Code Blog Pro. Toate drepturile rezervate