Trendy w cyberprzestępczości AI i ich wpływ na użytkownika w 2025 r.

"Sztuczna inteligencja działa jak wzmacniacz wydajności dla cyberprzestępców. Skutecznie podnosi poziom złoczyńców średniego szczebla". [1]

W ciągu ostatniego roku sztuczna inteligencja (AI) szybko ewoluowała, napędzając wszystko, od spersonalizowanego wyszukiwania po zaawansowaną diagnostykę medyczną. Jednak podczas gdy technologia pędzi naprzód, pojawia się mroczna rzeczywistość: cyberprzestępcy wykorzystują te same przełomowe odkrycia w dziedzinie sztucznej inteligencji do udoskonalania oszustw, podszywania się pod ofiary i wzmacniania nielegalnych przedsięwzięć. 

Agencje rządowe - od Centrum Zgłaszania Przestępstw Internetowych (IC3) FBI po Departament Bezpieczeństwa Wewnętrznego (DHS) - uznały cyberprzestępczość opartą na sztucznej inteligencji za szybko rosnący problem. [2][8]

Zbadaliśmy ustalenia rządu USA i wiarygodne analizy stron trzecich dotyczące tego, w jaki sposób sztuczna inteligencja jest wykorzystywana do cyberprzestępczości w 2024 roku. Od przerażające oszustwa deepfake do silnego kampanie phishingoweOto, co ujawniają dane - i weryfikacja faktów.

Kluczowe wnioski:

  1. Sztuczna inteligencja jest czynnikiem przyczyniającym się, ale nie jedyną przyczyną każdego cyberataku. Tradycyjne hakowanie utrzymuje się na dużą skalę.
  2. Głębokie podszywanie się nie jest już science fiction; to dzieje się teraz.
  3. Sekstorcja i generowanie CSAM przy użyciu sztucznej inteligencji jest pilnym priorytetem dla organów ścigania i agencji ochrony dzieci.
  4. Dezinformacja stanowi zagrożenie dla bezpieczeństwa narodowego, a sztuczna inteligencja napędza bardziej wiarygodne fałszywe wizerunki i narracje.
  5. Na horyzoncie widać zaostrzone egzekwowanie prawa, ponieważ Departament Sprawiedliwości i FBI obiecują traktować przestępstwa wspomagane przez sztuczną inteligencję z większą powagą.
  6. 56% ankietowanych Amerykanów stwierdziło, że są zaniepokojeni Deep Fakes, sztuczną inteligencją stanowiącą zagrożenie dla ludzkiego życia lub nielegalnym wykorzystaniem. [9]* 

1. Phishing i inżynieria społeczna z wykorzystaniem sztucznej inteligencji

Nowa era przekonującego phishingu

  • Co się dzieje?
    Przestępcy wykorzystują generatywną sztuczną inteligencję do tworzenia doskonałych, spersonalizowanych wiadomości phishingowych i SMS-ów. Dawno minęły czasy śmiesznych błędów gramatycznych. Teraz te e-maile wyglądają na dopracowane i hiper-targetowane, oszukując nawet czujnych odbiorców. [2][3]
  • Oficjalne ostrzeżenia
    Oddział FBI w San Francisco ostrzega przed "rosnącym zagrożeniem ze strony cyberprzestępców wykorzystujących narzędzia oparte na sztucznej inteligencji do organizowania wysoce ukierunkowanych kampanii phishingowych"[2]. W 2024 r. IC3 zgłosiła ciągły wzrost strat związanych z phishingiem - chociaż nie podano dokładnej liczby przypadków napędzanych przez sztuczną inteligencję[3]. [Jakościowo jednak śledczy dostrzegają znaczny wzrost liczby bardziej wyrafinowanych prób phishingu, które omijają typowe czerwone flagi.
  • Najważniejsze fakty
    Podczas gdy skargi dotyczące phishingu gwałtownie rosną, FBI nie opublikowało dokładnego odsetka przypisywanego wyłącznie sztucznej inteligencji. Zamiast tego podkreślają rosnący realizm i wskaźniki powodzenia tych oszustw z wykorzystaniem sztucznej inteligencji. Jest to doskonały przykład zagrożenia, które jest realne - nawet jeśli dokładne liczby są nieuchwytne.

Wpływ na przedsiębiorstwa i osoby fizyczne

  • Business Email Compromise (BEC):
    Sztuczna inteligencja pomaga oszustom replikować e-maile wykonawcze lub dostosowywać wiadomości w wielu językach, zwiększając skuteczność oszustw BEC. Według FBI straty spowodowane oszustwami BEC przekroczyły $2,9 miliarda w 2023 roku, a oczekuje się, że w 2024 roku przekroczą ten poziom - chociaż część AI jest nadal monitorowana. [3]
  • Straty osobiste:
    Ludzie napotykają dobrze spreparowane fałszywe alerty bankowe lub listy "oszustw romansowych", które wydają się przejmująco prawdziwe. Doprowadziło to do kradzieży danych uwierzytelniających, opróżnienia kont bankowych i kradzieży tożsamości [2]. Osoby starsze pozostają szczególnie narażone, ponieważ przestępcy mogą klonować głosy lub tworzyć wiadomości przypominające opiekunów.

2. Podszywanie się pod Deepfake i oszustwa

Fałszywe głosy, prawdziwe pieniądze

Wyobraź sobie gorączkowy telefon od ukochanej osoby błagającej o okup. W rzeczywistości, Sztuczna inteligencja wykorzystała próbki z mediów społecznościowych, aby wygenerować dokładną sygnaturę wokalną. 

Według biuletynów IC3 FBI, klonowanie głosu stało się nowym narzędziem wymuszeń i oszustw finansowych[2][5]. [2][5] Zgłaszano również incydenty połączeń z "fałszywymi prezesami", którzy nakłaniali pracowników do przelewania środków.

Nigdy więcej nie martw się, że sztuczna inteligencja wykryje twoje teksty. Undetectable AI Może ci pomóc:

  • Spraw, by pisanie wspomagane przez sztuczną inteligencję wyglądało podobny do człowieka.
  • Obejście wszystkie główne narzędzia do wykrywania AI za pomocą jednego kliknięcia.
  • Użycie AI bezpiecznie i pewnie w szkole i pracy.
Wypróbuj ZA DARMO

Przykład w punkt: W 2023 roku matka z Arizony została niemal oszukana, gdy uwierzyła, że słyszy szloch swojej nastoletniej córki w fałszywym telefonie o "porwaniu". Na szczęście zweryfikowała bezpieczeństwo córki przed przelaniem pieniędzy.

Filmy Deepfake i podszywanie się pod inne osoby

Przestępcy tworzą również generowane przez sztuczną inteligencję rozmowy wideo z realistycznymi "dyrektorami generalnymi" lub "partnerami biznesowymi", instruując pracowników, aby autoryzowali duże przelewy. Departament Sprawiedliwości (DOJ) ostrzega, że te fałszywe rozmowy wideo są niepokojąco wiarygodne, zwłaszcza w zdalnych lub hybrydowych środowiskach pracy. [4][7]

Uwaga dotycząca weryfikacji faktów:
Organy ścigania potwierdziły wiele incydentów, ale nie opublikowały oficjalnej liczby przypadków deepfake. Zgłoszone przykłady są jednak zgodne z konsekwentnymi ostrzeżeniami FBI/DOJ o "gwałtownym wzroście" wykorzystania technologii deepfake do oszustw. [2][4][7]

3. Sekstorcja generowana przez SI i nadużycia w mediach syntetycznych

Zmienianie niewinnych obrazów w exploity

  • Co się dzieje?
    Przestępcy robią nieszkodliwe zdjęcia (z mediów społecznościowych lub w inny sposób) i przekształcają je w materiały o charakterze jednoznacznie seksualnym. Ta tak zwana "deepfake sextortion" rozwija się dzięki zdolności sztucznej inteligencji do generowania niepokojąco przekonujących obrazów lub filmów. [5]
  • Ofiarami są również nieletni
    FBI, w PSA z 2023 r., odnotowało wzrost liczby przypadków sekstorcji, w których zdjęcia nieletnich były przekształcane w fałszywe materiały pornograficzne. Przestępcy grozili następnie udostępnieniem lub opublikowaniem tych sfabrykowanych obrazów, chyba że ofiary zapłacą lub dostarczą prawdziwe treści seksualne. [5]
  • Materiały przedstawiające seksualne wykorzystywanie dzieci (CSAM)
    DHS i Departament Sprawiedliwości potwierdzają, że narzędzia sztucznej inteligencji są wykorzystywane do tworzenia treści generowanych przez sztuczną inteligencję w celu seksualnego wykorzystywania dzieci. W sierpniu 2024 r. Departament Sprawiedliwości aresztował osobę fizyczną za używanie sztucznej inteligencji do produkcji pornografii dziecięcej[6]. [Organy ścigania podkreślają, że "CSAM generowane przez AI to nadal CSAM". 

Przypomnienie o weryfikacji faktów:
Oficjalne źródła jednoznacznie traktują CSAM manipulowane przez sztuczną inteligencję jako nielegalne. Dokładne dane dotyczące rozpowszechnienia są skąpe, ale liczne działania egzekucyjne potwierdzają realne i rosnące zagrożenie.

4. Dezinformacja oparta na sztucznej inteligencji i ingerencja polityczna

  • Wtrącanie się do wyborów 2.0
    W lipcu 2024 r. Departament Sprawiedliwości zlikwidował tajną rosyjską farmę botów, która wykorzystywała sztuczną inteligencję do rozpowszechniania dezinformacji [4][7]. Te generowane przez sztuczną inteligencję konta w mediach społecznościowych rozpowszechniały dzielące narracje z wyrafinowaniem, które zautomatyzowane filtry z trudem wykrywały.
  • Wpływy krajowe i zagraniczne
    Dyrektor FBI Wray zauważa, że "generatywna sztuczna inteligencja (...) obniża barierę wejścia" [1], ułatwiając zarówno zagranicznym przeciwnikom, jak i grupom krajowym tworzenie wiarygodnych "fałszywych wiadomości", deepfake'owych filmów lub podszywanie się pod polityków.
  • Nie tylko spam
    Treści te mogą podważać zaufanie publiczne, siać zamęt podczas wyborów lub zachęcać do złośliwych planów finansowych[4][8]. [DHS klasyfikuje dezinformację opartą na sztucznej inteligencji jako przestępstwo "cybernetyczne" - uznając, że chociaż może nie obejmować bezpośredniego hakowania, wykorzystuje platformy cyfrowe do nielegalnych lub zwodniczych celów.

Kontekst weryfikacji faktów:
Departament Sprawiedliwości dobrze udokumentował likwidację "farm botów"[4][7]. [Niezależni badacze bezpieczeństwa potwierdzają, że tworzenie person generowanych przez sztuczną inteligencję rośnie. Jednak oficjalne agencje rzadko publikują dokładne wskaźniki (np. "30% dezinformacji jest obecnie opartych na sztucznej inteligencji"). Zamiast tego skupiają się na nagłaśnianiu powagi i wyrafinowania tych kampanii.

5. Pojawiające się zagrożenia: Złośliwe oprogramowanie i hakowanie wspomagane przez sztuczną inteligencję

WormGPT i nie tylko

Na podziemnych forach przestępcy reklamują modele sztucznej inteligencji, takie jak "WormGPT", precyzyjnie dostrojone do pisania złośliwego oprogramowania. DHS ostrzega, że narzędzia te "wypełniają luki w wiedzy, takie jak kodowanie komputerowe", umożliwiając stosunkowo niewykwalifikowanym hakerom przeprowadzanie zaawansowanych ataków [8]. Chociaż złośliwe oprogramowanie pisane przez sztuczną inteligencję na dużą skalę jest nadal ograniczone, eksperci przewidują, że będzie to poważny problem w przyszłości.

Adaptacyjne złośliwe oprogramowanie?

Badacze bezpieczeństwa wykazali, że złośliwe oprogramowanie oparte na sztucznej inteligencji może modyfikować swój kod ("polimorfizm") w celu uniknięcia wykrycia przez programy antywirusowe. DHS teoretyzował również na temat "samouczącego się" złośliwego oprogramowania, które autonomicznie testuje nowe exploity, ale rzeczywiste przykłady pozostają rzadkie w 2024 roku. [8]

Uwaga dotycząca weryfikacji faktów:
Większość głośnych ataków (takich jak ransomware) nadal opiera się na konwencjonalnych metodach, ale FBI, NSA i eksperci ds. cyberbezpieczeństwa dostrzegają oznaki, że sztuczna inteligencja jest coraz częściej częścią arsenału cyberprzestępców. Spodziewajmy się dalszych zmian - i być może bardziej oficjalnych statystyk - do 2025 roku.

Skutki i kluczowe statystyki (sprawdzone)

  1. Ogólna liczba skarg dotyczących cyberprzestępczości
    • W 2023 r. IC3 FBI otrzymało ponad 880 000 skarg dotyczących cyberprzestępczości, a zgłoszone straty przekroczyły $12,5 miliarda, co stanowi wzrost strat o 22% w stosunku do 2022 roku. [3]
    • Podczas gdy dokładna część związana ze sztuczną inteligencją nie jest śledzona, eksperci uważają, że realizm sztucznej inteligencji prowadzi do wyższych wskaźników sukcesu w oszustwach typu phishing, BEC i podszywania się. [2][3]
  2. Business Email Compromise (BEC)
    • Pozostaje jedną z najbardziej kosztownych form cyberprzestępczości, przekraczając $2,9 miliarda zgłoszonych strat w 2023 roku. [3] Rola sztucznej inteligencji? Bardziej dopracowane e-maile, lepsza lokalizacja, a od czasu do czasu głębokie fałszowanie połączeń lub filmów.
  3. Deepfake Sextortion
    • FBI nie publikuje ostatecznej liczby incydentów sekstoringu opartych na deepfake'ach, ale "co miesiąc pojawia się wiele nowych raportów". [5]
    • Wpływ na ofiary: Upokorzenie, wymuszenia finansowe i trauma emocjonalna.
  4. Operacje dezinformacyjne
    • W lipcu 2024 r. Departament Sprawiedliwości zakłócił działanie rosyjskiej farmy botów opartej na sztucznej inteligencji [4][7]. Agencje federalne podkreślają zagrożenie, jakie dla amerykańskich wyborów i procesów demokratycznych stanowi dezinformacja rozprzestrzeniana przez sztuczną inteligencję.
  5. Sprawdzanie faktów na temat mitu "trzeciej największej gospodarki"
    • Niektóre nagłówki medialne porównują globalne koszty cyberprzestępczości do PKB głównych krajów, ale $10-12 miliardów rocznie zgłaszanych strat w USA nie jest oczywiście na taką skalę [3]. Analitycy szacują, że globalny wpływ gospodarczy cyberprzestępczości może sięgać bilionów, co teoretycznie plasuje ją wśród największych gospodarek, jeśli uwzględni się wszystkie koszty pośrednie.
  6. "Jedno na pięć przestępstw online" Kontekst
    • W niektórych regionach około 20-25% zgłoszonych przestępstw jest obecnie związanych z cyberprzestępczością. Liczba ta niekoniecznie dotyczy całego świata, ale wskazuje na rosnący udział przestępczości cyfrowej w ogólnej liczbie przestępstw.

Egzekwowanie prawa i reakcje polityczne

  1. Bardziej rygorystyczne stanowisko Departamentu Sprawiedliwości
    • Zastępca prokuratora generalnego Lisa Monaco obiecała "surowsze wyroki" dla przestępców, którzy wykorzystują sztuczną inteligencję do wzmacniania przestępstw - traktując sztuczną inteligencję jako czynnik obciążający w przypadku oszustw, wykorzystywania dzieci i nie tylko. [6]
  2. Grupa zadaniowa ds. sztucznej inteligencji bezpieczeństwa wewnętrznego
    • DHS rozszerza wysiłki w celu wykrywania oszustw opartych na sztucznej inteligencji, zarządzania wykrywaniem deepfake i ochrony nieletnich przed wykorzystywaniem generowanym przez sztuczną inteligencję[8]. [Bada również, jak wykorzystać sztuczną inteligencję do obrony, skanując sieci w poszukiwaniu anomalii.
  3. Zgodność korporacyjna
    • Departament Sprawiedliwości prosi teraz firmy o pokazanie, w jaki sposób radzą sobie z zagrożeniami związanymi ze sztuczną inteligencją w swoich programach zgodności. Niepowodzenie w zapobieganiu niewłaściwemu wykorzystywaniu sztucznej inteligencji przez pracowników lub ignorowanie luk w zabezpieczeniach sztucznej inteligencji może zwiększyć odpowiedzialność korporacyjną. [6]
  4. Publiczne kampanie uświadamiające
    • FBI, FCC i FTC opublikowały ostrzeżenia dla konsumentów dotyczące oszustw typu "dziadek" opartych na sztucznej inteligencji i fałszywych porwań. Przesłanie? Zawsze weryfikuj podejrzane połączenia lub wiadomości - widzenie (lub słyszenie) nie jest już wiarygodne w erze sztucznej inteligencji. [2][5]

56% Amerykanów twierdzi, że obawia się szkodliwej sztucznej inteligencji

W listopadzie 2024 r. firma Undetectable AI przeprowadziła ankietę wśród 1000 Amerykanów w całych Stanach Zjednoczonych[9]. [Respondenci w wieku od 18 do 27 lat wskazali, że 23% uważa, że sztuczna inteligencja stanowi egzystencjalne zagrożenie dla ludzkości, 18% wyraziło obawy dotyczące niezgodnego z prawem wykorzystania danych lub prywatności danych, a 15% martwiło się, że technologia sztucznej inteligencji zostanie wykorzystana do tworzenia deepfake'ów.

Patrząc w przyszłość: rok 2025 i kolejne lata

Pomimo ograniczonych twardych danych na temat dokładnego rozpowszechnienia ataków opartych na sztucznej inteligencji, trend jest jasny: sztuczna inteligencja obniża bariery dla przestępców, umożliwiając bardziej realistyczne oszustwa i intensyfikując dezinformację. W międzyczasie obrońcy prawa, eksperci ds. cyberbezpieczeństwa i organy regulacyjne przyspieszają. Spodziewaj się:

  • Więcej sztucznej inteligencji w obronie: Narzędzia do deepfake forensics, filtry phishingowe oparte na sztucznej inteligencji i wykrywanie anomalii w sieciach.
  • Rozszerzony nadzór regulacyjny: Departament Sprawiedliwości, Komisja Papierów Wartościowych i Giełd (SEC) i inne organy będą prawdopodobnie jeszcze bardziej rozprawiać się z niewłaściwym wykorzystaniem sztucznej inteligencji, nakładając surowsze kary na osoby lub organizacje, które ułatwiają przestępstwa związane ze sztuczną inteligencją.
  • Szersza współpraca międzynarodowa: Cyberprzestępczość nie ma granic, a wspólne operacje - takie jak usunięcie rosyjskiej farmy botów przez Departament Sprawiedliwości w lipcu 2024 r. - będą coraz częstsze.

Podsumowanie: Mnożnik siły dla cyberprzestępczości

Głównym tematem wyłaniającym się z oficjalnych źródeł i analiz ekspertów jest to, że sztuczna inteligencja wzmacnia istniejące metody cyberprzestępcze. Od hiperrealistycznego phishingu po połączenia głosowe "fałszywych prezesów", przestępcy wykorzystują generatywną sztuczną inteligencję, aby znacznie poprawić swoje wskaźniki sukcesu - i wykorzystać ofiary, które kiedyś polegały na prostych "kontrolach jelit" (błędy ortograficzne, akcenty itp.), aby wykryć oszustwa.

Bądź czujny i poinformowany

Świadomość społeczna i weryfikacja mają kluczowe znaczenie w tym szybko rozwijającym się środowisku. Niezależnie od tego, czy jesteś dyrektorem zarządzającym otrzymującym w ostatniej chwili prośbę o podsłuch, emerytem odbierającym telefony od "wnuka w kryzysie", czy użytkownikiem mediów społecznościowych skonfrontowanym z sensacyjnym filmem polityka, pamiętaj: jeśli coś wydaje się dziwne, zweryfikuj to. Sztuczna inteligencja oznacza, że przestępcy mogą naśladować prawdziwych ludzi lub tworzyć iluzje z zaskakującą dokładnością.

Metodologia

Przeprowadziliśmy te badania, analizując oficjalne zasoby rządowe (takie jak opublikowane dokumenty Departamentu Sprawiedliwości i roczny raport IC3 dotyczący przestępczości internetowej). Przeanalizowaliśmy również zaufane komentarze osób trzecich i relacje na temat pojawiających się zagrożeń cyberprzestępczością związanych ze sztuczną inteligencją. Przeprowadziliśmy również ankietę wśród ponad 1000 korespondentów w Stanach Zjednoczonych, aby zrozumieć ich obawy dotyczące sztucznej inteligencji. Na koniec sprawdziliśmy ten raport, aby zagwarantować, że wszystkie cytowane źródła są dokładne i aktualne.

Dozwolony użytek

Zachęcamy do umieszczenia tych danych w artykule. Pamiętaj, aby podać nazwę Undetectable AI i dołączyć link do tej strony, aby czytelnicy mogli zapoznać się z pełnym raportem.

Referencje

  1. FBI: Przygotuj się na rok wyborczy z zagrożeniami w szybkim tempie, napędzanymi przez złych facetów ze sztuczną inteligencją - Defense One
  2. FBI ostrzega przed rosnącym zagrożeniem ze strony cyberprzestępców wykorzystujących sztuczną inteligencję (8 maja 2024)
  3. Centrum Zgłaszania Przestępstw Internetowych (IC3) - Raport o przestępstwach internetowych 2023 i powiązane PSA
  4. Biuro Spraw Publicznych | Departament Sprawiedliwości przewodzi wysiłkom... mającym na celu rozbicie tajnej, obsługiwanej przez rosyjski rząd farmy botów w mediach społecznościowych (9 lipca 2024 r.)
  5. Centrum Zgłaszania Przestępstw Internetowych (IC3) | PSA: Złośliwi aktorzy manipulujący zdjęciami i filmami w celu tworzenia treści o charakterze jednoznacznie seksualnym i schematów sekstoringu (5 czerwca 2023 r.)
  6. Mężczyzna aresztowany za produkcję, dystrybucję i posiadanie wygenerowanych przez sztuczną inteligencję obrazów nieletnich zaangażowanych w zachowania o charakterze seksualnym
  7. DOJ i partnerzy niszczą rosyjską farmę botów - szczegóły dotyczące egzekwowania prawa (lipiec 2024)
  8. DHS: "Wpływ sztucznej inteligencji na działalność przestępczą i nielegalną" (27 września 2024 r.) 
  9. Ankieta 2024 przeprowadzona przez niewykrywalną sztuczną inteligencję

Copyright © 2023 Code Blog Pro. Wszelkie prawa zastrzeżone