"L'intelligenza artificiale agisce come un potenziatore di prestazioni per i criminali informatici. Di fatto fa salire di livello i cattivi di medio livello". [1]
Nell'ultimo anno, l'intelligenza artificiale (AI) si è rapidamente evoluta, alimentando qualsiasi cosa, dalla ricerca personalizzata alla diagnostica medica avanzata. Ma mentre la tecnologia corre in avanti, si profila una realtà più oscura: i criminali informatici stanno usando come arma le stesse scoperte dell'intelligenza artificiale. per perfezionare le truffe, impersonare le vittime e amplificare le imprese illegali.
Le agenzie governative, dall'Internet Crime Complaint Center (IC3) dell'FBI al Department of Homeland Security (DHS), hanno segnalato la criminalità informatica guidata dall'intelligenza artificiale come un problema in rapida crescita. [2][8]
Abbiamo ricercato i risultati del governo statunitense e analisi credibili di terze parti su come l'IA verrà utilizzata per la criminalità informatica nel 2024. Da terrificanti truffe deepfake a potente campagne di phishingEcco cosa rivelano i dati e le verifiche dei fatti.
Punti di forza:
- L'intelligenza artificiale è un fattore che contribuisce ma non l'unica causa di ogni attacco informatico. L'hacking tradizionale persiste su larga scala.
- L'impersonificazione di Deepfake non è più fantascienza: sta accadendo ora.
- La generazione di sextortion e CSAM tramite l'AI è una priorità urgente per le forze dell'ordine e le agenzie di protezione dei minori.
- La disinformazione è una minaccia per la sicurezza nazionale, con l'IA che alimenta personaggi e narrazioni false più credibili.
- All'orizzonte si profila un'applicazione più severa, poiché il Dipartimento di Giustizia e l'FBI hanno promesso di trattare con maggiore serietà i crimini commessi con l'AI.
- 56% degli americani intervistati hanno dichiarato di essere preoccupati per i Deep Fakes, per l'IA che rappresenta una minaccia per la vita umana o per l'uso illegale. [9]*
1. Phishing e ingegneria sociale potenziati dall'intelligenza artificiale
Una nuova era di phishing convincente
- Cosa sta succedendo?
I criminali usano l'intelligenza artificiale generativa per creare e-mail e testi di phishing perfetti e personalizzati. Sono finiti i tempi dei ridicoli errori grammaticali. Ora queste e-mail appaiono curate e mirate, in grado di ingannare anche i destinatari più attenti. [2][3] - Avvertenze ufficiali
La divisione dell'FBI di San Francisco avverte di una "crescente minaccia di criminali informatici che utilizzano strumenti basati sull'intelligenza artificiale per orchestrare campagne di phishing altamente mirate". [2] Nel 2024, l'IC3 ha segnalato un continuo aumento delle perdite legate al phishing, anche se non fornisce un conteggio esatto di quante siano guidate dall'intelligenza artificiale. [3] Dal punto di vista qualitativo, tuttavia, gli investigatori notano un notevole aumento dei tentativi di phishing più sofisticati che eludono i tipici segnali di allarme. - Evidenziazione del Fact-Check
Sebbene le denunce di phishing siano complessivamente in aumento, l'FBI non ha pubblicato una percentuale esatta attribuita esclusivamente all'intelligenza artificiale. Al contrario, sottolinea il crescente realismo e le percentuali di successo di queste truffe potenziate dall'intelligenza artificiale. È un ottimo esempio di minaccia reale, anche se i numeri precisi sono sfuggenti.
Impatto su imprese e individui
- Compromissione della posta elettronica aziendale (BEC):
L'intelligenza artificiale aiuta i truffatori a replicare le e-mail dei dirigenti o ad adattare i messaggi in più lingue, aumentando il successo delle frodi BEC. Secondo l'FBI, le perdite derivanti dalle truffe BEC hanno superato $2,9 miliardi nel 2023 e si prevede che nel 2024 supereranno tale cifra, sebbene la fetta di AI sia ancora in fase di monitoraggio. [3] - Perdite personali:
Le persone si trovano di fronte ad avvisi bancari falsi e ben confezionati o a lettere di "truffa romantica" che appaiono strazianti e reali. Ciò ha portato al furto di credenziali, al prosciugamento di conti bancari e al furto di identità [2]. Le persone anziane rimangono particolarmente vulnerabili, in quanto i criminali possono clonare le voci o produrre messaggi simili a quelli di un custode.
2. Impersonificazione e frode di Deepfake
Voci false, soldi veri
Immaginate di ricevere una telefonata concitata dalla voce di una persona cara che implora il pagamento di un riscatto. In realtà, L'intelligenza artificiale ha utilizzato campioni provenienti dai social media per generare l'esatta firma vocale.
Secondo i bollettini IC3 dell'FBI, la clonazione vocale è emersa come nuovo strumento di estorsione e di truffa finanziaria. [2][5] Sono stati segnalati anche casi di chiamate di "falsi amministratori delegati" che hanno ingannato i dipendenti per indurli a trasferire fondi.
Non preoccupatevi più che l'intelligenza artificiale rilevi i vostri messaggi. Undetectable AI Può aiutarvi:
- Fate apparire la vostra scrittura assistita dall'intelligenza artificiale simile all'uomo.
- Bypass tutti i principali strumenti di rilevamento dell'intelligenza artificiale con un solo clic.
- Utilizzo AI in modo sicuro e con fiducia a scuola e al lavoro.
Un esempio su tutti: Nel 2023, una madre dell'Arizona è stata quasi truffata quando ha creduto di sentire la voce singhiozzante della figlia adolescente in una finta telefonata di "rapimento". Fortunatamente ha verificato l'incolumità della figlia prima di inviare il denaro.
Video deepfake e impersonificazione
I criminali producono anche videochiamate generate dall'intelligenza artificiale con "amministratori delegati" o "partner commerciali" realistici, che istruiscono i dipendenti ad autorizzare grandi trasferimenti. Il Dipartimento di Giustizia (DOJ) avverte che queste videochiamate fittizie sono inquietantemente credibili, soprattutto in ambienti di lavoro remoti o ibridi. [4][7]
Nota di verifica dei fatti:
Le forze dell'ordine hanno confermato diversi episodi, ma non hanno pubblicato un conteggio ufficiale dei casi di deepfake. Gli esempi riportati, tuttavia, sono in linea con gli avvertimenti coerenti dell'FBI/DOJ circa una "forte impennata" nell'uso della tecnologia deepfake per le truffe. [2][4][7]
3. Sextortion generata dall'intelligenza artificiale e abuso di media sintetici
Alterare immagini innocenti per trasformarle in sfruttamento
- Cosa sta succedendo?
I criminali prendono foto benigne (dai social media o altro) e le manipolano per trasformarle in materiale esplicito. Questa cosiddetta "deepfake sextortion" si basa sulla capacità dell'intelligenza artificiale di generare immagini o video inquietanti e convincenti. [5] - Le vittime includono i minori
L'FBI, in un PSA del 2023, ha rilevato un aumento dei casi di sextortion in cui le immagini di minori vengono trasformate in falso materiale pornografico. Gli autori minacciano poi di condividere o pubblicare queste immagini falsificate a meno che le vittime non paghino o forniscano contenuti sessuali reali. [5] - Materiale sugli abusi sessuali sui minori (CSAM)
Il DHS e il DOJ confermano che gli strumenti dell'IA vengono utilizzati per creare contenuti pedopornografici generati dall'IA. Nell'agosto 2024, il DOJ ha arrestato un individuo per aver utilizzato l'IA per produrre pornografia infantile. [6] Le forze dell'ordine sottolineano che "il CSAM generato dall'IA è comunque CSAM".
Promemoria per la verifica dei fatti:
Le fonti ufficiali considerano inequivocabilmente illegale il CSAM manipolato dall'IA. I dati precisi sulla diffusione sono scarsi, ma le molteplici azioni di contrasto confermano una minaccia reale e crescente.
4. Disinformazione e interferenze politiche guidate dall'intelligenza artificiale
- Ingerenze elettorali 2.0
Nel luglio 2024, il Dipartimento di Giustizia ha smantellato una bot farm russa segreta che utilizzava personaggi falsi potenziati dall'intelligenza artificiale per diffondere disinformazione [4][7]. Questi account di social media generati dall'intelligenza artificiale spingevano narrazioni divisive con una sofisticazione che i filtri automatici faticavano a rilevare. - Influenza interna ed estera
Il direttore dell'FBI Wray osserva che "l'IA generativa... abbassa la barriera all'ingresso" [1], rendendo più facile sia per gli avversari stranieri che per i gruppi nazionali creare "fake news" plausibili, video deepfake o impersonare politici. - Non solo spam
Questi contenuti possono minare la fiducia del pubblico, seminare confusione durante le elezioni o incoraggiare schemi finanziari dannosi. [4][8] Il DHS classifica la disinformazione guidata dall'IA come un crimine "cyber-abilitato", riconoscendo che, pur non comportando un hackeraggio diretto, sfrutta le piattaforme digitali per fini illegali o ingannevoli.
Fact-Check Context:
Il DOJ ha ben documentato l'eliminazione delle "bot farm". [4][7] Ricercatori di sicurezza indipendenti confermano che la creazione di personaggi generati dall'intelligenza artificiale è in aumento. Tuttavia, le agenzie ufficiali raramente rilasciano dati precisi (ad esempio, "30% della disinformazione è ora basata sull'IA"). Si concentrano invece sulla pubblicizzazione della serietà e della sofisticazione di queste campagne.
5. Minacce emergenti: Malware e hacking assistiti dall'IA
WormGPT e oltre
Sui forum clandestini, i criminali pubblicizzano modelli di intelligenza artificiale come "WormGPT", perfezionati per la scrittura di malware. Il DHS avverte che questi strumenti "colmano le lacune di conoscenza come la codifica dei computer", consentendo agli hacker relativamente poco esperti di lanciare attacchi avanzati [8]. Sebbene il malware scritto dall'intelligenza artificiale su larga scala sia ancora limitato, gli esperti prevedono che in futuro sarà una delle principali preoccupazioni.
Malware adattivo?
I ricercatori di sicurezza hanno dimostrato che il malware guidato dall'intelligenza artificiale può modificare il proprio codice ("polimorfismo") per eludere il rilevamento antivirus. Il DHS ha anche teorizzato l'esistenza di malware "autoapprendenti" che testano autonomamente nuovi exploit, ma gli esempi reali rimangono rari nel 2024. [8]
Nota di verifica dei fatti:
La maggior parte degli attacchi di alto profilo (come il ransomware) si basa ancora su metodi convenzionali, ma l'FBI, l'NSA e gli esperti di sicurezza informatica vedono segnali che l'intelligenza artificiale fa sempre più parte dell'arsenale dei criminali informatici. Aspettiamoci ulteriori sviluppi - e forse anche statistiche ufficiali - entro il 2025.
Impatti e statistiche chiave (verificate)
- Denunce complessive di crimini informatici
- L'IC3 dell'FBI ha ricevuto oltre 880.000 denunce di crimini informatici nel 2023, con perdite riportate superiori a $12,5 miliardi, con un aumento delle perdite di 22% rispetto al 2022. [3]
- Sebbene la quota esatta che coinvolge l'IA non sia stata tracciata, gli esperti ritengono che il realismo dell'IA determini tassi di successo più elevati nelle truffe di phishing, BEC e impersonificazione. [2][3]
- Compromissione delle e-mail aziendali (BEC)
- Rimane una delle forme più costose di criminalità informatica, superando $2,9 miliardi di perdite segnalate nel 2023. [3] Il ruolo dell'intelligenza artificiale? Email più curate, migliore localizzazione e, occasionalmente, deepfake di chiamate o video.
- Sextortion Deepfake
- L'FBI non pubblica un conteggio definitivo degli episodi di sextortion basati su deepfake, ma sono emerse "numerose nuove segnalazioni ogni mese". [5]
- Impatto sulle vittime: Umiliazione personale, estorsione finanziaria e trauma emotivo.
- Operazioni di disinformazione
- Il DOJ ha interrotto una bot farm russa alimentata dall'IA nel luglio 2024 [4][7]. Le agenzie federali sottolineano la minaccia della disinformazione diffusa dall'IA alle elezioni statunitensi e ai processi democratici.
- Verifica dei fatti sul mito della "terza economia".
- Alcuni titoli dei media paragonano i costi globali della criminalità informatica al PIL delle principali nazioni, ma i $10-12 miliardi di perdite annuali segnalate dagli Stati Uniti non sono ovviamente di quella portata [3]. Gli analisti stimano che l'impatto economico globale della criminalità informatica potrebbe raggiungere i trilioni, collocandosi teoricamente tra le prime economie se si includono tutti i costi indiretti.
- Contesto "Un crimine su cinque online"
- In alcune regioni, circa il 20-25% dei crimini denunciati sono ora legati al cyber. Questo dato non si applica necessariamente a livello mondiale, ma evidenzia una quota crescente di crimini digitali sul totale.
Applicazione della legge e risposte politiche
- La posizione più dura del Dipartimento di Giustizia
- La vice procuratrice generale Lisa Monaco ha promesso "pene più severe" per i criminali che sfruttano l'IA per amplificare i reati, trattando l'IA come un fattore aggravante in caso di frode, sfruttamento dei minori e altro. [6]
- Task Force AI della Sicurezza Nazionale
- Il DHS sta ampliando gli sforzi per individuare le truffe guidate dall'IA, gestire il rilevamento di deepfake e proteggere i minori dallo sfruttamento generato dall'IA. [8] Sta anche esplorando come utilizzare l'IA per la difesa, scansionando le reti alla ricerca di anomalie.
- Conformità aziendale
- Il DOJ chiede ora alle aziende di dimostrare come gestiscono i rischi legati all'IA nei loro programmi di conformità. Non riuscire a impedire ai dipendenti di utilizzare l'IA in modo improprio o ignorare le vulnerabilità della sicurezza dell'IA può aumentare la responsabilità aziendale. [6]
- Campagne di sensibilizzazione
- L'FBI, la FCC e la FTC hanno lanciato un allarme per i consumatori sulle truffe dei "nonni" basate sull'intelligenza artificiale e sulle finte chiamate di rapimento. Il messaggio? Verificare sempre le chiamate o i messaggi sospetti: nell'era dell'intelligenza artificiale, vedere (o sentire) non significa più credere. [2][5]
56% degli americani dicono di essere preoccupati per l'IA dannosa
Nel novembre 2024, Undetectable AI ha intervistato 1.000 americani in tutti gli Stati Uniti. [9] Gli intervistati, di età compresa tra i 18 e i 27 anni, hanno indicato che 23% ritengono che l'IA rappresenti una minaccia esistenziale per l'umanità, 18% hanno espresso preoccupazione per l'uso illegale dei dati o per la privacy dei dati e 15% temono che la tecnologia dell'IA venga utilizzata per creare deepfakes.
Guardare avanti: 2025 e oltre
Nonostante la scarsità di dati concreti sull'esatta prevalenza degli attacchi guidati dall'intelligenza artificiale, la tendenza è chiara: l'intelligenza artificiale sta abbassando le barriere per i criminali, consentendo truffe più realistiche e intensificando la disinformazione. Nel frattempo, i difensori, le forze dell'ordine, gli esperti di cybersicurezza e le autorità di regolamentazione stanno aumentando. Aspettatevi:
- Più intelligenza artificiale nella difesa: Strumenti per la deepfake forensics, filtri per il phishing basati sull'AI e rilevamento delle anomalie nelle reti.
- Ampliamento della supervisione normativa: Il DOJ, la SEC e altri soggetti probabilmente daranno un ulteriore giro di vite all'uso improprio dell'IA, imponendo sanzioni più pesanti a individui o organizzazioni che facilitano i crimini legati all'IA.
- Cooperazione internazionale più ampia: La criminalità informatica non ha confini e le operazioni congiunte, come l'eliminazione di una bot farm russa da parte del Dipartimento di Giustizia nel luglio 2024, saranno sempre più frequenti.
Conclusioni: Un moltiplicatore di forze per la criminalità informatica
Il tema centrale che emerge dalle fonti ufficiali e dalle analisi degli esperti è che l'intelligenza artificiale potenzia i metodi esistenti dei criminali informatici. Dal phishing iperrealistico alle chiamate vocali di "falsi CEO", i criminali utilizzano l'IA generativa per migliorare notevolmente le loro percentuali di successo e per sfruttare le vittime che un tempo si affidavano a semplici "controlli istintivi" (errori ortografici, accenti sbagliati, ecc.) per individuare le truffe.
Rimanete vigili e informati
La consapevolezza e la verifica del pubblico sono fondamentali in questo ambiente in rapida crescita. Che si tratti di un dirigente che riceve una richiesta di intercettazione dell'ultimo minuto, di un pensionato che riceve le chiamate di un "nipote in crisi" o di un utente dei social media che si trova di fronte a un video sensazionale di un politico, ricordate: se qualcosa non quadra, verificatelo. L'intelligenza artificiale consente ai criminali di imitare persone reali o di creare illusioni con una precisione sorprendente.
Metodologia
Abbiamo condotto questa ricerca esaminando le risorse governative ufficiali (come i documenti pubblicati dal Dipartimento di Giustizia e il rapporto annuale IC3 sulla criminalità su Internet). Abbiamo anche esaminato i commenti e la copertura di terze parti attendibili sulle minacce emergenti alla criminalità informatica legate all'intelligenza artificiale. Abbiamo anche intervistato oltre 1.000 corrispondenti negli Stati Uniti per capire le loro preoccupazioni sull'intelligenza artificiale. Infine, abbiamo effettuato un fact-checking di questo rapporto per garantire che tutte le fonti citate siano accurate e aggiornate.
Uso corretto
Siete invitati a inserire questi dati in una storia o in un articolo. Assicuratevi di fornire l'attribuzione a Undetectable AI e di includere un link a questa pagina per consentire ai lettori di visualizzare il rapporto completo.
Riferimenti
- FBI: Prepararsi a un anno elettorale con minacce a ritmo sostenuto, alimentate dai cattivi con l'intelligenza artificiale -. Difesa Uno
- L'FBI avverte della crescente minaccia di criminali informatici che utilizzano l'intelligenza artificiale (8 maggio 2024)
- Internet Crime Complaint Center (IC3) - Rapporto sulla criminalità su Internet 2023 e PSA correlati
- Ufficio degli Affari Pubblici | Il Dipartimento di Giustizia guida gli sforzi... per interrompere la fattoria di bot sui social media gestita dal governo russo (9 luglio 2024)
- Internet Crime Complaint Center (IC3) | PSA: Attori malintenzionati che manipolano foto e video per creare contenuti espliciti e schemi di sextortion (5 giugno 2023)
- Uomo arrestato per aver prodotto, distribuito e posseduto immagini generate dall'intelligenza artificiale di minori impegnati in comportamenti sessualmente espliciti
- Il DOJ e i suoi partner distruggono la bot farm russa - Dettagli sull'applicazione (luglio 2024)
- DHS: "Impatto dell'intelligenza artificiale sulle attività criminali e illecite" (27 settembre 2024)
- Sondaggio 2024 condotto da Undetectable AI