"Künstliche Intelligenz wirkt wie ein Leistungsverstärker für Cyberkriminelle. Sie hebt mittlere Bösewichte effektiv auf ein höheres Niveau." [1]
Im letzten Jahr hat sich die künstliche Intelligenz (KI) rasant weiterentwickelt und ermöglicht nun alles, von der personalisierten Suche bis hin zu fortschrittlichen medizinischen Diagnosen. Doch während die Technologie voranschreitet, zeichnet sich eine dunklere Realität ab: Cyber-Kriminelle dieselben KI-Durchbrüche als Waffe einsetzen um Betrügereien zu verfeinern, sich als Opfer auszugeben und illegale Unternehmungen zu verstärken.
Regierungsbehörden - vom Internet Crime Complaint Center (IC3) des FBI bis hin zum Department of Homeland Security (DHS) - haben die KI-gesteuerte Cyberkriminalität als schnell wachsendes Problem bezeichnet. [2][8]
Wir haben Erkenntnisse der US-Regierung und glaubwürdige Analysen Dritter darüber untersucht, wie KI im Jahr 2024 für Cyberkriminalität eingesetzt wird. Von Erschreckende Deepfake-Betrügereien zu stark Phishing-KampagnenDie Daten - und die Faktenchecks - zeigen Folgendes.
Wichtigste Erkenntnisse:
- KI ist ein Faktor, der dazu beiträgt, aber nicht die alleinige Ursache für jeden Cyberangriff. Traditionelles Hacking findet nach wie vor in großem Umfang statt.
- Deepfake-Imitation ist keine Science-Fiction mehr, sondern passiert jetzt.
- Die Erzeugung von Sextortion und CSAM mithilfe von KI ist eine dringende Priorität für Strafverfolgungs- und Kinderschutzbehörden.
- Desinformation ist eine Bedrohung für die nationale Sicherheit, denn KI sorgt für glaubwürdigere gefälschte Persönlichkeiten und Erzählungen.
- Eine strengere Strafverfolgung ist in Sicht, da das DOJ und das FBI versprechen, KI-gestützte Verbrechen mit größerer Ernsthaftigkeit zu behandeln.
- 56% der befragten Amerikaner gaben an, sie seien besorgt über Deep Fakes, KI, die eine Bedrohung für das menschliche Leben darstellt, oder über die unrechtmäßige Nutzung. [9]*
1. KI-gestütztes Phishing und Social Engineering
Eine neue Ära des überzeugenden Phishings
- Was ist passiert?
Kriminelle nutzen generative KI, um perfekte, personalisierte Phishing-E-Mails und -Texte zu erstellen. Vorbei sind die Zeiten der lächerlichen Grammatikfehler. Heute erscheinen diese E-Mails ausgefeilt und zielgerichtet und täuschen selbst aufmerksame Empfänger. [2][3] - Offizielle Warnungen
Die FBI-Abteilung in San Francisco warnt vor einer "zunehmenden Bedrohung durch Cyberkriminelle, die KI-gestützte Tools einsetzen, um sehr gezielte Phishing-Kampagnen durchzuführen." [2] Im Jahr 2024 meldete das IC3 einen kontinuierlichen Anstieg der Verluste im Zusammenhang mit Phishing - auch wenn es keine genauen Angaben darüber macht, wie viele davon KI-gesteuert sind. [3] Qualitativ gesehen sehen die Ermittler jedoch einen bemerkenswerten Anstieg bei raffinierteren Phishing-Versuchen, die typische Warnsignale umgehen. - Fakten-Check Highlight
Obwohl die Zahl der Phishing-Beschwerden insgesamt sprunghaft ansteigt, hat das FBI keinen genauen Prozentsatz veröffentlicht, der ausschließlich auf KI zurückzuführen ist. Stattdessen betont es den zunehmenden Realismus und die Erfolgsquoten dieser KI-gestützten Betrügereien. Dies ist ein Paradebeispiel für eine reale Bedrohung - auch wenn genaue Zahlen schwer zu ermitteln sind.
Auswirkungen auf Unternehmen und Privatpersonen
- Business Email Compromise (BEC):
KI hilft Betrügern, E-Mails von Führungskräften zu replizieren oder Nachrichten in mehreren Sprachen zu verfassen, was den Erfolg von BEC-Betrug erhöht. Nach Angaben des FBI überstiegen die Verluste durch BEC-Betrug im Jahr 2023 $2,9 Milliarden, und für 2024 wird erwartet, dass sie diesen Wert noch übertreffen werden - obwohl der KI-Anteil noch überwacht wird. [3] - Persönliche Verluste:
Die Menschen werden mit gut gemachten gefälschten Bankmitteilungen oder "Romance Scam"-Briefen konfrontiert, die erschreckend echt wirken. Dies hat zu gestohlenen Anmeldedaten, geleerten Bankkonten und Identitätsdiebstahl geführt [2]. Ältere Menschen sind besonders gefährdet, da die Kriminellen Stimmen nachahmen oder hausmeisterähnliche Nachrichten verfassen können.
2. Deepfake-Imitation und Betrug
Falsche Stimmen, echtes Geld
Stellen Sie sich vor, Sie erhalten einen verzweifelten Anruf von der Stimme eines geliebten Menschen, der um Lösegeld bittet. In der Realität, Die KI verwendete Samples aus sozialen Medien, um genau diese stimmliche Signatur zu erzeugen.
Laut den IC3-Bulletins des FBI hat sich das Klonen von Stimmen als neues Instrument für Erpressung und Finanzbetrug entwickelt. [2][5] Es wurden auch Fälle von "falschen CEO"-Anrufen gemeldet, bei denen Angestellte dazu gebracht wurden, Geld zu überweisen.
Machen Sie sich nie wieder Sorgen, dass KI Ihre Texte erkennt. Undetectable AI Kann Ihnen helfen:
- Lassen Sie Ihr AI-unterstütztes Schreiben erscheinen menschenähnlich.
- Bypass alle wichtigen KI-Erkennungstools mit nur einem Klick.
- Verwenden Sie AI sicher und zuversichtlich in Schule und Beruf.
Ein typisches Beispiel: Im Jahr 2023 wurde eine Mutter aus Arizona beinahe betrogen, als sie glaubte, die schluchzende Stimme ihrer Teenager-Tochter in einem fingierten "Entführungs"-Anruf zu hören. Glücklicherweise konnte sie sich von der Sicherheit ihrer Tochter überzeugen, bevor sie das Geld überwies.
Deepfake-Videos und Impersonation
Kriminelle produzieren auch KI-generierte Videoanrufe mit realistischen "CEOs" oder "Geschäftspartnern", die Mitarbeiter anweisen, große Überweisungen zu genehmigen. Das Department of Justice (DOJ) warnt, dass diese gefälschten Videoanrufe beunruhigend glaubwürdig sind, insbesondere in abgelegenen oder hybriden Arbeitsumgebungen. [4][7]
Anmerkung zum Faktencheck:
Die Strafverfolgungsbehörden haben mehrere Vorfälle bestätigt, aber keine offizielle Zahl von Deepfake-Fällen veröffentlicht. Die gemeldeten Beispiele decken sich jedoch mit den ständigen Warnungen des FBI/DOJ vor einem "starken Anstieg" bei der Verwendung der Deepfake-Technologie für Betrügereien. [2][4][7]
3. KI-generierte Sextortion und synthetischer Medienmissbrauch
Verfremdung unschuldiger Bilder zur Ausbeutung
- Was ist passiert?
Kriminelle nehmen harmlose Fotos (aus sozialen Medien oder anderweitig) und manipulieren sie zu explizitem Material. Diese sogenannte "Deepfake-Sextortion" lebt von der Fähigkeit der KI, beunruhigend überzeugende Bilder oder Videos zu erzeugen. [5] - Zu den Opfern gehören auch Minderjährige
Das FBI stellte in einer PSA aus dem Jahr 2023 eine Zunahme von Sextortionsfällen fest, bei denen Bilder von Minderjährigen in gefälschtes pornografisches Material verwandelt werden. Die Täter drohen dann damit, diese gefälschten Bilder weiterzugeben oder zu veröffentlichen, wenn die Opfer nicht zahlen oder echte sexuelle Inhalte liefern. [5] - Material über sexuellen Kindesmissbrauch (CSAM)
DHS und DOJ bestätigen, dass KI-Tools verwendet werden, um KI-generierte Inhalte zum sexuellen Missbrauch von Kindern zu erstellen. Im August 2024 verhaftete das DOJ eine Person wegen der Verwendung von KI zur Herstellung von Kinderpornografie. [6] Die Strafverfolgungsbehörden betonen, dass "durch KI erzeugter CSAM immer noch CSAM ist".
Fakten-Check-Erinnerung:
Offizielle Quellen behandeln KI-manipuliertes CSAM eindeutig als illegal. Genaue Daten über die Verbreitung sind rar, aber mehrere Durchsetzungsmaßnahmen bestätigen die reale und wachsende Bedrohung.
4. KI-gesteuerte Desinformation und politische Einmischung
- Wahlmanipulation 2.0
Im Juli 2024 zerschlug das Justizministerium eine verdeckte russische Bot-Farm, die mit KI-gestützten gefälschten Persönlichkeiten Desinformationen verbreitete [4][7]. Diese KI-generierten Social-Media-Konten verbreiteten spaltende Narrative mit einer Raffinesse, die automatische Filter nur schwer erkennen konnten. - Innerer und äußerer Einfluss
FBI-Direktor Wray stellt fest, dass "generative KI ... die Eintrittsbarriere senkt" [1], was es sowohl ausländischen Gegnern als auch inländischen Gruppen erleichtert, glaubhafte "Fake News" zu erstellen, Videos zu fälschen oder sich als Politiker auszugeben. - Nicht nur Spam
Diese Inhalte können das Vertrauen der Öffentlichkeit untergraben, Verwirrung bei Wahlen stiften oder bösartige Finanzpläne fördern. [4][8] Das DHS stuft die KI-gesteuerte Desinformation als "cyber-gestützte" Kriminalität ein und erkennt damit an, dass sie zwar kein direktes Hacken beinhaltet, aber digitale Plattformen für illegale oder betrügerische Zwecke ausnutzt.
Fakten-Check Kontext:
Das DOJ hat die Zerschlagung der "Bot-Farm" gut dokumentiert. [4][7] Unabhängige Sicherheitsforscher bestätigen, dass die KI-generierte Erstellung von Personas auf dem Vormarsch ist. Offizielle Stellen geben jedoch nur selten genaue Zahlen bekannt (z. B. "30% der Desinformationen sind jetzt KI-basiert"). Stattdessen konzentrieren sie sich darauf, die Ernsthaftigkeit und Raffinesse dieser Kampagnen zu verkünden.
5. Aufkommende Bedrohungen: KI-gestützte Malware und Hacking
WormGPT und darüber hinaus
In Untergrundforen werben Kriminelle für KI-Modelle wie "WormGPT", die auf das Schreiben von Malware abgestimmt sind. Das DHS warnt, dass diese Tools "Wissenslücken, wie z. B. bei der Computerprogrammierung, schließen" und es relativ unerfahrenen Hackern ermöglichen, fortgeschrittene Angriffe zu starten [8]. Auch wenn die Zahl der von KI geschriebenen Malware in großem Maßstab noch begrenzt ist, sagen Experten voraus, dass sie in Zukunft ein großes Problem darstellen wird.
Adaptive Malware?
Sicherheitsforscher haben gezeigt, dass KI-gesteuerte Malware ihren Code verändern kann ("Polymorphismus"), um die Erkennung durch Antivirenprogramme zu umgehen. Das DHS hat auch über "selbstlernende" Malware theoretisiert, die selbstständig neue Exploits testet, aber reale Beispiele sind auch im Jahr 2024 noch selten. [8]
Anmerkung zum Faktencheck:
Die meisten aufsehenerregenden Angriffe (z. B. Ransomware) beruhen immer noch auf konventionellen Methoden, aber das FBI, die NSA und Cybersecurity-Experten sehen Anzeichen dafür, dass KI zunehmend Teil des Arsenals von Cyberkriminellen wird. Erwarten Sie bis 2025 weitere Entwicklungen - und möglicherweise mehr offizielle Statistiken.
Auswirkungen und wichtige Statistiken (faktengeprüft)
- Beschwerden über Cyberkriminalität insgesamt
- Bei der IC3 des FBI gingen im Jahr 2023 mehr als 880.000 Beschwerden über Cyberkriminalität ein, mit gemeldeten Schäden von mehr als $12,5 Milliarden - ein Anstieg der Schäden um 22% gegenüber 2022. [3]
- Auch wenn der genaue Anteil der KI nicht erfasst wird, gehen Experten davon aus, dass der Realismus der KI zu höheren Erfolgsquoten bei Phishing-, BEC- und Imitationsbetrug führt. [2][3]
- Business Email Compromise (BEC)
- Bleibt eine der kostspieligsten Formen der Cyberkriminalität, die im Jahr 2023 $2,9 Milliarden an gemeldeten Verlusten übersteigen wird. [3] Die Rolle der KI? Besser gestaltete E-Mails, bessere Lokalisierung und gelegentlich gefälschte Anrufe oder Videos.
- Deepfake Sextortion
- Das FBI veröffentlicht keine endgültige Zählung der auf Deepfake basierenden Sextortionsvorfälle, aber es sind "jeden Monat mehrere neue Berichte" aufgetaucht. [5]
- Auswirkungen auf die Opfer: Persönliche Demütigung, finanzielle Erpressung und emotionales Trauma.
- Desinformationsoperationen
- Das DOJ hat im Juli 2024 eine KI-gestützte russische Bot-Farm gestoppt [4][7]. Bundesbehörden betonen die Bedrohung von durch KI verbreiteten Desinformationen für die Wahlen und demokratischen Prozesse in den USA.
- Fakten-Check zum Mythos der "drittgrößten Volkswirtschaft
- Einige Schlagzeilen in den Medien vergleichen die weltweiten Kosten der Cyberkriminalität mit dem BIP großer Nationen, aber die $10-12 Mrd. an jährlich gemeldeten Verlusten in den USA sind offensichtlich nicht in dieser Größenordnung [3]. Analysten schätzen jedoch, dass die globalen wirtschaftlichen Auswirkungen der Cyberkriminalität Billionen erreichen könnten, womit sie theoretisch zu den größten Volkswirtschaften gehören, wenn man alle indirekten Kosten einbezieht.
- "Jedes fünfte Verbrechen online" Kontext
- In bestimmten Regionen sind etwa 20-25% der gemeldeten Straftaten inzwischen cyber-bezogen. Diese Zahl gilt nicht unbedingt für die ganze Welt, macht aber deutlich, dass der Anteil der digitalen Kriminalität an der Gesamtkriminalität steigt.
Strafverfolgung und politische Reaktionen
- Die härtere Gangart des DOJ
- Die stellvertretende Generalstaatsanwältin Lisa Monaco versprach "härtere Strafen" für Kriminelle, die KI zur Verschlimmerung von Straftaten ausnutzen - und behandelte KI als erschwerenden Faktor bei Betrug, Kinderausbeutung und mehr. [6]
- KI-Taskforce des Heimatschutzes
- Das DHS baut seine Bemühungen zur Erkennung von KI-gesteuertem Betrug aus, verwaltet die Deepfake-Erkennung und schützt Minderjährige vor KI-generierter Ausbeutung. [8] Es erforscht auch, wie KI zur Verteidigung eingesetzt werden kann, indem Netzwerke auf Anomalien gescannt werden.
- Unternehmens-Compliance
- Das DOJ verlangt nun von Unternehmen, dass sie in ihren Compliance-Programmen darlegen, wie sie mit KI-Risiken umgehen. Das Versäumnis, Mitarbeiter am Missbrauch von KI zu hindern oder KI-Sicherheitsschwachstellen zu ignorieren, kann die Haftung des Unternehmens erhöhen. [6]
- Kampagnen zur Sensibilisierung der Öffentlichkeit
- Das FBI, die FCC und die FTC haben Verbraucherwarnungen zu KI-basierten "Großeltern"-Betrügereien und gefälschten Entführungsanrufen veröffentlicht. Die Botschaft? Überprüfen Sie verdächtige Anrufe oder Nachrichten immer - Sehen (oder Hören) ist in der KI-Ära nicht mehr glaubwürdig. [2][5]
56% der Amerikaner sagen, dass sie sich Sorgen über schädliche KI machen
Im November 2024 befragte Undetectable AI 1.000 Amerikaner in den Vereinigten Staaten. [9] Die Befragten im Alter von 18 bis 27 Jahren gaben an, dass 23% glauben, dass KI eine existenzielle Bedrohung für die Menschheit darstellt, 18% äußerten sich besorgt über die unrechtmäßige Nutzung von Daten oder den Datenschutz und 15% waren besorgt darüber, dass KI-Technologie zur Erstellung von Deepfakes verwendet wird.
Blick in die Zukunft: 2025 und darüber hinaus
Trotz begrenzter Daten über die genaue Verbreitung von KI-gesteuerten Angriffen ist der Trend eindeutig: KI senkt die Hürden für Kriminelle, ermöglicht realistischere Betrügereien und verstärkt die Desinformation. In der Zwischenzeit werden die Verteidiger - Strafverfolgungsbehörden, Cybersicherheitsexperten und Regulierungsbehörden - immer stärker. Erwarten:
- Mehr KI in der Verteidigung: Tools für Deepfake-Forensik, KI-basierte Phishing-Filter und Anomalie-Erkennung in Netzwerken.
- Erweiterte regulatorische Aufsicht: Das DOJ, die SEC und andere werden wahrscheinlich noch härter gegen den KI-Missbrauch vorgehen und Einzelpersonen oder Organisationen, die KI-bezogene Straftaten begünstigen, mit höheren Strafen belegen.
- Breitere internationale Zusammenarbeit: Cyberkriminalität ist grenzüberschreitend, und gemeinsame Operationen - wie die Zerschlagung einer russischen Bot-Farm durch das Justizministerium im Juli 2024 - werden häufiger werden.
Schlussfolgerung: Ein Machtmultiplikator für Cyberkriminalität
Das Hauptthema, das sich aus offiziellen Quellen und Expertenanalysen ergibt, ist, dass KI die bestehenden Methoden der Cyberkriminellen verbessert. Von hyperrealistischem Phishing bis hin zu "gefälschten CEO"-Stimmenanrufen nutzen Kriminelle generative KI, um ihre Erfolgsquoten erheblich zu verbessern - und um Opfer auszunutzen, die sich früher auf einfache "Bauchentscheidungen" (Rechtschreibfehler, falsche Akzente usw.) verließen, um Betrug zu erkennen.
Wachsam und informiert bleiben
Öffentliche Aufmerksamkeit und Überprüfung sind in diesem schnell wachsenden Umfeld von entscheidender Bedeutung. Ganz gleich, ob Sie als leitender Angestellter eine Überweisungsanfrage in letzter Minute erhalten, als Rentner Anrufe von einem "Enkelkind in Not" entgegennehmen oder als Social-Media-Nutzer mit einem sensationellen Video eines Politikers konfrontiert werden - denken Sie daran: Wenn Ihnen etwas komisch vorkommt, verifizieren Sie es. KI bedeutet, dass Kriminelle mit verblüffender Genauigkeit echte Menschen imitieren oder Illusionen schaffen können.
Methodik
Wir haben diese Untersuchung anhand offizieller Regierungsquellen durchgeführt (z. B. veröffentlichte Dokumente des Justizministeriums und den jährlichen IC3-Jahresbericht zur Internetkriminalität). Wir haben auch vertrauenswürdige Kommentare von Dritten und die Berichterstattung über aufkommende Bedrohungen der Internetkriminalität im Zusammenhang mit künstlicher Intelligenz untersucht. Außerdem haben wir über 1000 Korrespondenten in den Vereinigten Staaten befragt, um ihre Sorgen über KI zu verstehen. Schließlich haben wir diesen Bericht auf Fakten geprüft, um sicherzustellen, dass alle zitierten Quellen korrekt und auf dem neuesten Stand sind.
Fairer Gebrauch
Sie sind herzlich eingeladen, diese Daten in einem Artikel oder einer Reportage zu verwenden. Bitte achten Sie darauf, dass Sie als Quelle "Undetectable AI" angeben und einen Link zu dieser Seite einfügen, damit die Leser den vollständigen Bericht lesen können.
Referenzen
- FBI: Bereiten Sie sich auf ein Wahljahr mit fetten Bedrohungen vor, angetrieben von Bösewichten mit KI - Verteidigung Eins
- FBI warnt vor zunehmender Bedrohung durch Cyber-Kriminelle, die künstliche Intelligenz nutzen (8. Mai 2024)
- Internet Crime Complaint Center (IC3) - Bericht über Internetkriminalität 2023 und zugehörige PSAs
- Office of Public Affairs | Justizministerium leitet Bemühungen ... zur Unterbrechung einer von der russischen Regierung betriebenen Social Media Bot Farm (9. Juli 2024)
- Internet Crime Complaint Center (IC3) | PSA: Böswillige Akteure, die Fotos und Videos manipulieren, um explizite Inhalte und Sextortion Schemes zu erstellen (5. Juni 2023)
- Mann verhaftet wegen Herstellung, Verbreitung und Besitz von KI-generierten Bildern von Minderjährigen bei sexuell expliziten Handlungen
- DOJ & Partner stören russische Bot-Farm - Details zur Durchsetzung (Juli 2024)
- DHS: "Auswirkungen von künstlicher Intelligenz auf kriminelle und illegale Aktivitäten" (27. September 2024)
- 2024 Umfrage von Undetectable AI durchgeführt