Trendy v kybernetické kriminalitě s umělou inteligencí a jak vás mohou poškodit v roce 2025

"Umělá inteligence působí na kyberzločince jako prostředek zvyšující jejich výkonnost. Efektivně zvyšuje úroveň padouchů střední úrovně." [1]

V posledním roce se umělá inteligence (AI) rychle rozvíjí a využívá vše od personalizovaného vyhledávání až po pokročilou lékařskou diagnostiku. Zatímco se však technologie řítí kupředu, na obzoru se objevuje temnější realita: kyberzločinci. využívají tytéž průlomové objevy v oblasti umělé inteligence jako zbraň. zdokonalovat podvody, vydávat se za oběti a rozšiřovat nelegální podnikání. 

Vládní agentury - od Centra pro stížnosti na internetovou kriminalitu FBI (IC3) až po ministerstvo vnitřní bezpečnosti (DHS) - označily kyberkriminalitu řízenou umělou inteligencí za rychle rostoucí problém. [2][8]

Prozkoumali jsme zjištění americké vlády a důvěryhodné analýzy třetích stran o tom, jak bude umělá inteligence v roce 2024 využívána ke kybernetické kriminalitě. Z děsivé podvody deepfake na silné phishingové kampaně, tady je to, co odhalují data a kontroly faktů.

Klíčové poznatky:

  1. Umělá inteligence je jedním z faktorů, ale ne jedinou příčinou každého kybernetického útoku. Tradiční hackerské útoky přetrvávají ve velkém měřítku.
  2. Vydávání se za falešné osoby už není sci-fi, ale děje se to nyní.
  3. Vytváření sexuálních útoků a CSAM pomocí umělé inteligence je naléhavou prioritou pro orgány činné v trestním řízení a orgány na ochranu dětí.
  4. Dezinformace jsou hrozbou pro národní bezpečnost, protože umělá inteligence podporuje věrohodnější falešné osobnosti a narativy.
  5. Na obzoru je přísnější vymáhání práva, protože ministerstvo spravedlnosti a FBI slíbily, že budou trestné činy s pomocí umělé inteligence posuzovat se zvýšenou vážností.
  6. 56% dotázaných Američanů uvedlo, že se obává hlubokých podvrhů, umělé inteligence ohrožující lidské životy nebo nezákonného používání. [9]* 

1. Phishing a sociální inženýrství s využitím umělé inteligence

Nová éra přesvědčivého phishingu

  • Co se děje?
    Zločinci používají generativní umělou inteligenci k vytváření dokonalých, personalizovaných podvodných e-mailů a textů. Doby směšných gramatických chyb jsou pryč. Nyní tyto e-maily vypadají vybroušeně a hyper-cíleně a oklamou i ostražité příjemce. [2][3]
  • Oficiální varování
    Oddělení FBI v San Francisku varuje před "rostoucí hrozbou kyberzločinců, kteří využívají nástroje s umělou inteligencí k organizování vysoce cílených phishingových kampaní". [2] V roce 2024 IC3 hlásila pokračující nárůst ztrát souvisejících s phishingem - i když neuvádí přesný počet, kolik z nich je řízeno umělou inteligencí. [3] Kvalitativně však vyšetřovatelé zaznamenávají výrazný nárůst sofistikovanějších pokusů o phishing, které obcházejí typické červené vlajky.
  • Zvýraznění kontroly faktů
    Přestože počet stížností na phishing celkově prudce roste, FBI nezveřejnila přesné procento, které by bylo přičítáno výhradně umělé inteligenci. Místo toho zdůrazňují rostoucí realističnost a úspěšnost těchto podvodů s využitím umělé inteligence. Je to názorný příklad hrozby, která je reálná - i když přesná čísla jsou nepolapitelná.

Dopady na podniky a jednotlivce

  • Kompromitace firemních e-mailů (BEC):
    Umělá inteligence pomáhá podvodníkům replikovat výkonné e-maily nebo přizpůsobovat zprávy ve více jazycích, což zvyšuje úspěšnost podvodů BEC. Ztráty z podvodů BEC přesáhly v roce 2023 podle FBI $2,9 miliardy a očekává se, že v roce 2024 tuto částku překonají - i když se podíl AI stále sleduje. [3]
  • Osobní ztráty:
    Lidé se setkávají s dobře zpracovanými falešnými bankovními upozorněními nebo podvodnými dopisy, které vypadají jako skutečné. To vede k odcizení přihlašovacích údajů, vybílení bankovních účtů a krádežím identity [2]. Obzvláště zranitelní zůstávají starší lidé, protože zločinci mohou klonovat hlasy nebo vytvářet zprávy připomínající pečovatele.

2. Deepfake imitace a podvody

Falešné hlasy, skutečné peníze

Představte si, že by vám někdo z blízkých zavolal a prosil o výkupné. Ve skutečnosti, Umělá inteligence použila vzorky ze sociálních médií, aby vytvořila přesný hlasový podpis. 

Podle bulletinů IC3 FBI se klonování hlasu stalo novým nástrojem vydírání a finančních podvodů. [2][5] Byly také zaznamenány případy telefonátů "falešných generálních ředitelů", kteří lstí přiměli zaměstnance k převodu finančních prostředků.

Už nikdy se nemusíte obávat, že umělá inteligence rozpozná vaše texty. Undetectable AI Může vám pomoci:

  • Zpřístupněte psaní s asistencí umělé inteligence podobný člověku.
  • Bypass všechny hlavní nástroje pro detekci umělé inteligence jediným kliknutím.
  • Použijte AI bezpečně a sebevědomě ve škole a v práci.
Vyzkoušejte ZDARMA

Příklad: V roce 2023 se arizonská matka málem stala obětí podvodu, když se domnívala, že ve falešném telefonátu o "únosu" slyší vzlykající hlas své dospívající dcery. Naštěstí si před převodem peněz ověřila, že je její dcera v bezpečí.

Deepfake videa a imitace

Zločinci také vytvářejí videohovory generované umělou inteligencí, v nichž vystupují realističtí "generální ředitelé" nebo "obchodní partneři" a dávají zaměstnancům pokyny k autorizaci velkých převodů. Ministerstvo spravedlnosti (DOJ) varuje, že tyto deepfake videohovory jsou znepokojivě důvěryhodné, zejména ve vzdálených nebo hybridních pracovních prostředích. [4][7]

Poznámka k ověřování faktů:
Orgány činné v trestním řízení potvrdily více případů, ale nezveřejnily oficiální počet případů deepfake. Hlášené příklady však odpovídají důsledným varováním FBI a ministerstva spravedlnosti o "prudkém nárůstu" používání technologie deepfake k podvodům. [2][4][7]

3. Sexuální vydírání generované umělou inteligencí a zneužívání syntetických médií

Změna nevinných snímků na zneužití

  • Co se děje?
    Zločinci berou neškodné fotografie (ze sociálních sítí nebo z jiných zdrojů) a upravují je do podoby explicitního materiálu. Toto takzvané "deepfake sextortion" prosperuje díky schopnosti umělé inteligence vytvářet znepokojivě přesvědčivé snímky nebo videa. [5]
  • Oběti zahrnují nezletilé
    FBI ve své zprávě z roku 2023 upozornila na nárůst případů sextortion, kdy byly fotografie nezletilých přeměněny na falešný pornografický materiál. Pachatelé pak vyhrožují sdílením nebo zveřejněním těchto vymyšlených snímků, pokud oběti nezaplatí nebo neposkytnou skutečný sexuální obsah. [5]
  • Materiály týkající se sexuálního zneužívání dětí (CSAM)
    DHS a DOJ potvrzují, že nástroje umělé inteligence jsou používány k vytváření obsahu sexuálního zneužívání dětí generovaného umělou inteligencí. V srpnu 2024 zatklo ministerstvo spravedlnosti osobu, která používala umělou inteligenci k výrobě dětské pornografie. [6] Orgány činné v trestním řízení zdůrazňují, že "CSAM vytvořená umělou inteligencí je stále CSAM". 

Připomenutí kontroly faktů:
Oficiální zdroje jednoznačně považují CSAM manipulovanou umělou inteligencí za nelegální. Přesných údajů o výskytu je málo, ale četné donucovací akce potvrzují její skutečnou a rostoucí hrozbu.

4. Dezinformace a politické zásahy řízené umělou inteligencí

  • Vměšování do voleb 2.0
    V červenci 2024 ministerstvo spravedlnosti rozbilo tajnou ruskou botovou farmu, která používala falešné osoby s umělou inteligencí k šíření dezinformací [4][7]. Tyto účty na sociálních sítích vytvořené umělou inteligencí prosazovaly rozdělující narativy s takovou sofistikovaností, že se je automatické filtry snažily odhalit.
  • Domácí a zahraniční vliv
    Ředitel FBI Wray poznamenává, že "generativní umělá inteligence... snižuje vstupní bariéru" [1], což zahraničním protivníkům i domácím skupinám usnadňuje vytváření věrohodných "fake news", falešných videí nebo vydávání se za politiky.
  • Nejen spam
    Tento obsah může podkopávat důvěru veřejnosti, zasévat zmatek během voleb nebo podporovat nekalé finanční machinace. [4][8] DHS klasifikuje dezinformace řízené umělou inteligencí jako "kyberneticky podporovanou" trestnou činnost - uznává, že i když nemusí zahrnovat přímé hackerské útoky, využívá digitální platformy k nezákonným nebo klamavým účelům.

Kontext kontroly faktů:
Ministerstvo spravedlnosti dobře zdokumentovalo zátah na "botové farmy". [4][7] Nezávislí výzkumníci v oblasti bezpečnosti potvrzují, že vytváření person pomocí umělé inteligence je na vzestupu. Oficiální agentury však zřídkakdy zveřejňují přesné metriky (např. "30% dezinformací je nyní založeno na umělé inteligenci"). Místo toho se zaměřují na zveřejňování závažnosti a sofistikovanosti těchto kampaní.

5. Vznikající hrozby: Škodlivý software a hackerské útoky s podporou umělé inteligence

WormGPT a další

Na undergroundových fórech se zločinci ohánějí modely umělé inteligence, jako je "WormGPT", vyladěnými pro psaní malwaru. DHS varuje, že tyto nástroje "vyplňují mezery ve znalostech, jako je počítačové kódování", a umožňují tak relativně nekvalifikovaným hackerům provádět pokročilé útoky [8]. Ačkoli je malware psaný umělou inteligencí ve velkém měřítku zatím omezený, odborníci předpovídají, že bude v budoucnu představovat hlavní problém.

Adaptivní malware?

Bezpečnostní výzkumníci prokázali, že malware řízený umělou inteligencí může měnit svůj kód (tzv. polymorfismus), aby se vyhnul antivirové detekci. Ministerstvo obrany také teoreticky uvažuje o "samoučícím se" malwaru, který autonomně testuje nové exploity, ale reálné příklady zůstávají v roce 2024 vzácné. [8]

Poznámka k ověřování faktů:
Většina známých útoků (např. ransomware) stále využívá konvenční metody, ale FBI, NSA a odborníci na kybernetickou bezpečnost vidí známky toho, že umělá inteligence je stále častěji součástí arzenálu kyberzločinců. Do roku 2025 očekávejte další vývoj - a možná i oficiální statistiky.

Dopady a klíčové statistiky (ověřená fakta)

  1. Celkové stížnosti na kyberkriminalitu
    • V roce 2023 obdržel úřad IC3 FBI více než 880 000 stížností na počítačovou kriminalitu, přičemž nahlášené ztráty přesáhly $12,5 miliardy - což je o 22% více než v roce 2022. [3]
    • Přestože přesný podíl umělé inteligence není sledován, odborníci se domnívají, že realističnost umělé inteligence vede k vyšší úspěšnosti podvodů typu phishing, BEC a vydávání se za podvodníky. [2][3]
  2. Kompromitace firemních e-mailů (BEC)
    • Zůstává jednou z nejnákladnějších forem kyberkriminality, jejíž ztráty v roce 2023 přesáhnou $2,9 miliardy. [3] Role umělé inteligence? Vybroušenější e-maily, lepší lokalizace a občas deepfake hovory nebo videa.
  3. Deepfake Sextortion
    • FBI nezveřejňuje přesný počet případů sexuálního vydírání na základě deepfake, ale "každý měsíc se objevuje několik nových zpráv". [5]
    • Dopad na oběť: Osobní ponížení, finanční vydírání a emocionální trauma.
  4. Dezinformační operace
    • Ministerstvo spravedlnosti narušilo v červenci 2024 ruskou farmu botů poháněnou umělou inteligencí [4] [7]. Federální agentury zdůrazňují hrozbu dezinformací šířených umělou inteligencí pro americké volby a demokratické procesy.
  5. Ověření faktů o mýtu "třetí největší ekonomiky"
    • Některé titulky v médiích přirovnávají celosvětové náklady na kyberkriminalitu k HDP velkých států, ale $10-12 miliard ročně hlášených ztrát v USA zjevně nedosahuje takového rozsahu [3]. Analytici však odhadují, že globální ekonomický dopad kyberkriminality by mohl dosáhnout bilionů, což ji teoreticky řadí mezi přední ekonomiky, pokud zahrneme všechny nepřímé náklady.
  6. "Každý pátý trestný čin online" Kontext
    • V některých regionech je nyní přibližně 20-25% nahlášených trestných činů spojeno s kybernetikou. Tento údaj nemusí nutně platit celosvětově, ale poukazuje na rostoucí podíl digitální kriminality na celkové kriminalitě.

Reakce orgánů činných v trestním řízení a politik

  1. Přísnější postoj ministerstva spravedlnosti
    • Náměstkyně generálního prokurátora Lisa Monacová přislíbila "přísnější tresty" pro zločince, kteří zneužívají umělou inteligenci k posílení trestných činů - umělou inteligenci považují za přitěžující okolnost při podvodech, zneužívání dětí a dalších trestných činech. [6]
  2. Pracovní skupina pro vnitřní bezpečnost v oblasti umělé inteligence
    • Ministerstvo zdravotnictví rozšiřuje úsilí o odhalování podvodů založených na umělé inteligenci, správu detekce falešných stránek a ochranu nezletilých osob před zneužíváním generovaným umělou inteligencí. [8] Zkoumá také možnosti využití AI pro obranu a skenování sítí kvůli anomáliím.
  3. Dodržování podnikových předpisů
    • Ministerstvo spravedlnosti nyní žádá společnosti, aby ve svých programech dodržování předpisů ukázaly, jakým způsobem se vypořádávají s riziky spojenými s umělou inteligencí. Pokud se zaměstnancům nepodaří zabránit zneužití AI nebo pokud ignorují bezpečnostní slabiny AI, může to zvýšit odpovědnost společnosti. [6]
  4. Kampaně pro zvýšení povědomí veřejnosti
    • FBI, FCC a FTC vydaly upozornění pro spotřebitele na podvody s "prarodiči" založené na umělé inteligenci a na falešné telefonáty o únosech. Sdělení? Vždy si ověřujte podezřelé hovory nebo zprávy - v éře umělé inteligence už nestačí jen vidět (nebo slyšet). [2][5]

56% Američanů říká, že se obává škodlivé umělé inteligence

V listopadu 2024 provedla společnost Undetectable AI průzkum mezi 1 000 Američany ve Spojených státech. [9] Respondenti ve věku 18 až 27 let uvedli, že 23% věří, že AI představuje existenční hrozbu pro lidstvo, 18% vyjádřilo obavy z nezákonného využívání dat nebo ochrany soukromí a 15% se obává, že technologie AI bude použita k vytváření deepfakes.

Výhled do budoucna: rok 2025 a dále

I přes omezené množství tvrdých údajů o přesném výskytu útoků založených na umělé inteligenci je trend jasný: umělá inteligence snižuje překážky pro zločince, umožňuje realističtější podvody a posiluje dezinformace. Obránci - donucovací orgány, odborníci na kybernetickou bezpečnost a regulační orgány - mezitím zvyšují svou aktivitu. Očekávejte:

  • Další umělá inteligence v obraně: Nástroje pro deepfake forenzní analýzu, phishingové filtry založené na umělé inteligenci a detekci anomálií v sítích.
  • Rozšířený regulační dohled: Ministerstvo spravedlnosti, Komise pro cenné papíry a burzy a další orgány budou pravděpodobně dále potírat zneužívání umělé inteligence a ukládat přísnější tresty jednotlivcům nebo organizacím, které napomáhají trestné činnosti související s umělou inteligencí.
  • Širší mezinárodní spolupráce: Kybernetická kriminalita nemá hranice a společné operace, jako například zásah ministerstva spravedlnosti proti ruské botové farmě v červenci 2024, budou stále častější.

Závěr: Multiplikátor síly pro kyberkriminalitu

Z oficiálních zdrojů a odborných analýz vyplývá, že umělá inteligence zdokonaluje stávající metody kybernetické kriminality. Od hyperrealistického phishingu až po hlasové hovory "falešných generálních ředitelů" - zločinci využívají generativní umělou inteligenci, aby výrazně zvýšili svou úspěšnost - a využili oběti, které se dříve spoléhaly na jednoduché "intuitivní kontroly" (pravopisné chyby, chybný přízvuk atd.), aby odhalily podvody.

Buďte ostražití a informovaní

V tomto rychle se rozvíjejícím prostředí je zásadní informovanost a ověřování veřejnosti. Ať už jste vedoucí pracovník, který na poslední chvíli obdrží žádost o odposlech, důchodce, který přijímá telefonáty od "vnuka v krizi", nebo uživatel sociálních médií, který je konfrontován se senzačním videem politika, pamatujte: pokud se vám něco nezdá, ověřte si to. Umělá inteligence znamená, že zločinci mohou napodobovat skutečné lidi nebo vytvářet iluze s překvapivou přesností.

Metodika

Tento výzkum jsme provedli na základě zkoumání oficiálních vládních zdrojů (například zveřejněných dokumentů ministerstva spravedlnosti a výroční zprávy IC3 o internetové kriminalitě). Prozkoumali jsme také důvěryhodné komentáře a zpravodajství třetích stran o nových hrozbách kyberkriminality souvisejících s umělou inteligencí. Provedli jsme také průzkum mezi více než 1000 korespondenty ve Spojených státech, abychom zjistili jejich obavy z umělé inteligence. Nakonec jsme tuto zprávu ověřili z hlediska faktů, abychom zaručili, že všechny citované zdroje jsou přesné a aktuální.

Spravedlivé použití

Tyto údaje můžete uvést ve svém článku nebo reportáži. Nezapomeňte uvést odkaz na Undetectable AI a připojit odkaz na tuto stránku, aby si čtenáři mohli prohlédnout celou zprávu.

Odkazy

  1. FBI: Připravte se na volební rok, kdy hrozby s velkým tempem budou poháněny padouchy s umělou inteligencí - Obrana 1
  2. FBI varuje před rostoucí hrozbou kybernetických zločinců využívajících umělou inteligenci (8. května 2024)
  3. Centrum pro stížnosti na internetovou kriminalitu (IC3) - Zpráva o internetové kriminalitě za rok 2023 a související reklamní spoty
  4. Úřad pro styk s veřejností | Ministerstvo spravedlnosti vede snahy... o narušení tajné farmy botů pro sociální média provozované ruskou vládou (9. července 2024)
  5. Centrum pro stížnosti na internetovou kriminalitu (IC3) | PSA: Zlomyslní aktéři manipulující s fotografiemi a videi za účelem vytváření explicitního obsahu a sextortion schémat (5. června 2023)
  6. Muž zatčen za výrobu, distribuci a držení snímků nezletilých osob se sexuálně explicitním chováním vytvořených umělou inteligencí
  7. Ministerstvo spravedlnosti a jeho partneři narušili ruskou botovou farmu - podrobnosti o vymáhání (červenec 2024)
  8. DHS: "Dopad umělé inteligence na trestnou a nezákonnou činnost" (27. září 2024) 
  9. 2024 Průzkum provedený nezjistitelnou AI

Copyright © 2023 Code Blog Pro. Všechna práva vyhrazena