Тенденції кіберзлочинності зі штучним інтелектом і як вони можуть зашкодити вам у 2025 році

"Штучний інтелект діє як підсилювач ефективності для кіберзлочинців. Він ефективно нівелює поганих хлопців середньої ланки". [1]

За останній рік штучний інтелект (ШІ) стрімко розвивався, забезпечуючи все - від персоналізованого пошуку до передової медичної діагностики. Але в той час, як технологія мчить вперед, з'являється темна реальність: кіберзлочинці використовують на озброєнні ті самі прориви ШІ для вдосконалення шахрайства, видавання себе за жертв та посилення незаконних підприємств. 

Урядові установи - від Центру скарг на інтернет-злочинність ФБР (IC3) до Департаменту внутрішньої безпеки (DHS) - відзначили кіберзлочинність, керовану ШІ, як швидкозростаючу проблему. [2][8]

Ми дослідили висновки уряду США та достовірний аналіз третіх сторін щодо того, як ШІ буде використовуватися для боротьби з кіберзлочинністю у 2024 році. Від жахливі шахрайства з глибокими підробками до потужного фішингові кампаніїось що показують дані та перевірка фактів.

Основні висновки:

  1. Штучний інтелект є фактором, що сприяє, але не єдиною причиною кожної кібератаки. Традиційне хакерство зберігає свої масштаби.
  2. Глибока фейкова імітація більше не є науковою фантастикою, це відбувається вже зараз.
  3. Виявлення сексуальних домагань і створення CSAM за допомогою ШІ є нагальним пріоритетом для правоохоронних органів та органів захисту дітей.
  4. Дезінформація є загрозою національній безпеці, а ШІ сприяє створенню більш правдоподібних фейкових осіб і наративів.
  5. На горизонті - посилення правозастосування, оскільки Мін'юст і ФБР обіцяють ставитися до злочинів, скоєних за допомогою штучного інтелекту, з підвищеною серйозністю.
  6. 56% опитаних американців заявили, що стурбовані глибокими підробками, ШІ, що становить загрозу людському життю, або незаконним використанням. [9]* 

1. Фішинг та соціальна інженерія зі штучним інтелектом

Нова ера переконливого фішингу

  • Що відбувається?
    Злочинці використовують генеративний ШІ для створення ідеальних, персоналізованих фішингових листів і текстів. Часи смішних граматичних помилок минули. Тепер ці листи виглядають відшліфованими та гіпертаргетованими, вводячи в оману навіть пильних одержувачів. [2][3]
  • Офіційні попередження
    Підрозділ ФБР у Сан-Франциско попереджає про "зростаючу загрозу використання кіберзлочинцями інструментів на основі штучного інтелекту для організації вузьконаправлених фішингових кампаній". [2] У 2024 році IC3 повідомила про постійне зростання збитків, пов'язаних з фішингом, хоча вони не надають точних даних про те, скільки з них спричинені штучним інтелектом. [3] Однак у якісному плані дослідники бачать помітне зростання більш витончених спроб фішингу, які обходять типові "червоні прапорці".
  • Основний момент перевірки фактів
    Хоча кількість скарг на фішинг загалом стрімко зростає, ФБР не опублікувало точний відсоток скарг, пов'язаних виключно зі штучним інтелектом. Замість цього вони підкреслюють зростаючу реалістичність і успішність цих шахрайств з використанням штучного інтелекту. Це яскравий приклад того, що загроза реальна, навіть якщо точні цифри важко назвати.

Вплив на бізнес та фізичних осіб

  • Компрометація ділової електронної пошти (BEC):
    Штучний інтелект допомагає шахраям копіювати електронні листи керівників або адаптувати повідомлення кількома мовами, що підвищує успішність шахрайства з використанням BEC. За даними ФБР, у 2023 році збитки від BEC-шахрайства перевищили 1 трлн 7 трлн 2,9 млрд доларів, а у 2024 році, як очікується, вони ще перевищать цей показник - хоча за використанням штучного інтелекту все ще ведеться постійний моніторинг. [3]
  • Особисті втрати:
    Люди стикаються з добре продуманими фальшивими банківськими сповіщеннями або листами про "романтичну аферу", які виглядають до болю реальними. Це призводить до викрадення облікових даних, спустошення банківських рахунків та крадіжки особистих даних [2]. Особливо вразливими залишаються люди похилого віку, оскільки злочинці можуть клонувати голоси або створювати повідомлення, схожі на голос доглядальниці.

2. Фальшиве видавання себе за іншу особу та шахрайство

Підроблені голоси, реальні гроші

Уявіть, що вам дзвонить несамовитий голос коханої людини і благає про викуп. Насправді, ШІ використовував зразки з соціальних мереж, щоб згенерувати саме такий голосовий підпис. 

Згідно з бюлетенями IC3 ФБР, клонування голосу стало новим інструментом для вимагання та фінансових афер. [2] [5] Також повідомлялося про випадки дзвінків "фальшивих генеральних директорів", які обманом змушували працівників переказувати кошти.

Більше ніколи не турбуйтеся про те, що ШІ виявить ваші тексти. Undetectable AI Може допомогти тобі:

  • Зробіть так, щоб ваше письмо з допомогою штучного інтелекту з'являлося на екрані схожий на людину.
  • Обхід всі основні інструменти виявлення ШІ лише одним кліком.
  • Використання ШІ безпечно і впевнено у школі та на роботі.
Спробуйте безкоштовно

Приклад: У 2023 році мати з Арізони ледь не стала жертвою шахрайства, коли їй здалося, що вона почула ридання своєї доньки-підлітка у фальшивому дзвінку про викрадення. На щастя, вона перевірила безпеку доньки, перш ніж переказати гроші.

Фальшиві відеоролики та імітація

Злочинці також створюють відеодзвінки за допомогою штучного інтелекту з реальними "керівниками" або "діловими партнерами", які дають працівникам вказівки санкціонувати великі перекази. Міністерство юстиції США (DOJ) попереджає, що такі підроблені відеодзвінки викликають тривожну довіру, особливо у віддаленому або гібридному робочому середовищі. [4][7]

Примітка для перевірки фактів:
Правоохоронні органи підтвердили численні інциденти, але не опублікували офіційної кількості випадків глибокого підроблення. Однак наведені приклади збігаються з постійними попередженнями ФБР/Міністерства юстиції про "різкий сплеск" використання технології глибокого підроблення для шахрайства. [2][4][7]

3. Сексуальне насильство, спричинене штучним інтелектом, і зловживання синтетичними засобами масової інформації

Перетворення невинних зображень на експлуатацію

  • Що відбувається?
    Злочинці беруть нешкідливі фотографії (з соціальних мереж або інших джерел) і маніпулюють ними, перетворюючи на відверті матеріали. Це так зване "підроблене вимагання" процвітає завдяки здатності ШІ генерувати тривожно переконливі зображення або відео. [5]
  • Серед жертв є неповнолітні
    ФБР у своєму звіті за 2023 рік відзначило зростання кількості випадків вимагання, коли фотографії неповнолітніх перетворюються на фальшиві порнографічні матеріали. Потім злочинці погрожують поширити або опублікувати ці сфабриковані зображення, якщо жертви не заплатять або не нададуть справжній сексуальний контент. [5]
  • Матеріали про сексуальне насильство над дітьми (CSAM)
    Міністерство внутрішньої безпеки та Міністерство юстиції підтверджують, що інструменти штучного інтелекту використовуються для створення контенту із зображенням сексуального насильства над дітьми, згенерованого штучним інтелектом. У серпні 2024 року Міністерство юстиції заарештувало особу за використання АІ для створення дитячої порнографії. [6] Правоохоронці підкреслюють, що "ПЗКН, створений за допомогою АІ, все одно залишається ПЗКН". 

Нагадування про перевірку фактів:
Офіційні джерела однозначно трактують CSAM з використанням штучного інтелекту як нелегальне явище. Точних даних про поширеність цього явища недостатньо, але численні правоохоронні заходи підтверджують його реальну і зростаючу загрозу.

4. Дезінформація та політичне втручання, керовані штучним інтелектом

  • Втручання у вибори 2.0
    У липні 2024 року Мін'юст США ліквідував таємну російську ботоферму, яка використовувала фейкові персони зі штучним інтелектом для поширення дезінформації [4] [7]. Ці створені штучним інтелектом акаунти в соціальних мережах просували наративи, що розколюють суспільство, з такою витонченістю, що автоматизовані фільтри не могли їх виявити.
  • Внутрішній та зовнішній вплив
    Директор ФБР Рей зазначає, що "генеративний ШІ... знижує бар'єр для входу" [1], що полегшує як іноземним супротивникам, так і внутрішнім групам створення правдоподібних "фейкових новин", глибоко підроблених відео або видавання себе за політиків.
  • Не просто спам
    Такий контент може підірвати суспільну довіру, посіяти плутанину під час виборів або заохочувати зловмисні фінансові схеми. [4] [8] Міністерство внутрішньої безпеки США класифікує дезінформацію, керовану штучним інтелектом, як "кіберзлочин", визнаючи, що, хоча вона може не передбачати прямого хакерства, вона використовує цифрові платформи для незаконних або оманливих цілей.

Контекст перевірки фактів:
Міністерство юстиції добре задокументувало ліквідацію "ферми ботів". [4] [7] Незалежні дослідники безпеки підтверджують, що створення персонажів за допомогою штучного інтелекту зростає. Однак офіційні агентства рідко публікують точні показники (наприклад, "30% дезінформації зараз базується на штучному інтелекті"). Замість цього вони зосереджуються на інформуванні громадськості про серйозність і витонченість цих кампаній.

5. Нові загрози: Шкідливе програмне забезпечення та хакерство за допомогою штучного інтелекту

WormGPT і не тільки

На підпільних форумах злочинці рекламують моделі штучного інтелекту, такі як "WormGPT", ідеально налаштовані для написання шкідливого програмного забезпечення. DHS попереджає, що ці інструменти "заповнюють прогалини в знаннях, таких як комп'ютерне кодування", дозволяючи відносно некваліфікованим хакерам здійснювати складні атаки [8]. Хоча масштабне шкідливе програмне забезпечення, написане за допомогою ШІ, все ще обмежене, експерти прогнозують, що в майбутньому воно стане серйозною проблемою.

Адаптивне шкідливе програмне забезпечення?

Дослідники безпеки продемонстрували, що шкідливе програмне забезпечення, кероване штучним інтелектом, може змінювати свій код ("поліморфізм"), щоб уникнути виявлення антивірусом. Міністерство національної безпеки США також висунуло теорію про "самонавчальне" шкідливе програмне забезпечення, яке автономно тестує нові експлойти, але реальні приклади залишаються рідкісними у 2024 році. [8]

Примітка для перевірки фактів:
Більшість гучних атак (наприклад, програми-вимагачі) все ще покладаються на традиційні методи, але ФБР, АНБ та експерти з кібербезпеки бачать ознаки того, що ШІ все частіше стає частиною арсеналу кіберзлочинців. До 2025 року очікуйте більше розробок - і, можливо, більше офіційної статистики.

Вплив та ключові статистичні дані (перевірено фактами)

  1. Загальна кількість скарг на кіберзлочини
    • У 2023 році IC3 ФБР отримав понад 880 000 скарг на кіберзлочини, а збитки від них перевищили 1 мільярд 7 мільйонів 12,5 мільярдів доларів, що на 221 мільярд 6 мільйонів більше, ніж у 2022 році. [3]
    • Хоча точна частка залучення ШІ не відстежується, експерти вважають, що реалістичність ШІ сприяє підвищенню рівня успішності фішингу, BEC і шахрайства, пов'язаного з видаванням себе за іншу особу. [2][3]
  2. Компроміс ділової електронної пошти (BEC)
    • Залишається однією з найдорожчих форм кіберзлочинності, перевищивши $2,9 мільярда доларів США за повідомленнями про збитки у 2023 році. [3] Роль штучного інтелекту? Більш відшліфовані електронні листи, краща локалізація та іноді фальшиві дзвінки або відео.
  3. Фальшиве сексуальне насильство
    • ФБР не публікує точної кількості випадків вимагання, що базуються на глибокому фейку, але з'являється "кілька нових повідомлень щомісяця". [5]
    • Вплив на жертву: Особисте приниження, фінансове вимагання та емоційна травма.
  4. Операції з дезінформації
    • У липні 2024 року Міністерство юстиції США знищило російську ботоферму на базі штучного інтелекту [4][7]. Федеральні відомства наголошують на загрозі дезінформації, поширюваної за допомогою ШІ, для виборів і демократичних процесів у США.
  5. Перевірка фактів щодо міфу про "третю за величиною економіку"
    • У деяких заголовках ЗМІ збитки від кіберзлочинності порівнюють з ВВП великих країн, але щорічні втрати США від кіберзлочинності в розмірі 1 трлн. 7 трлн. 10-12 млрд. доларів, про які повідомляють, очевидно, не відповідають цим масштабам [3]. За оцінками аналітиків, глобальний економічний вплив кіберзлочинності може сягати трильйонів, що теоретично ставить США в один ряд з провідними економіками, якщо врахувати всі непрямі витрати.
  6. Контекст "Кожен п'ятий злочин в Інтернеті"
    • У деяких регіонах близько 20-25% зареєстрованих злочинів зараз пов'язані з кіберзлочинністю. Ця цифра не обов'язково стосується всього світу, але підкреслює зростаючу частку цифрової злочинності в загальній кількості злочинів.

Правоохоронні та політичні заходи реагування

  1. Більш жорстка позиція Мін'юсту
    • Заступник генерального прокурора Ліза Монако пообіцяла "посилити покарання" для злочинців, які використовують ШІ для посилення злочинів - розглядаючи ШІ як обтяжуючий фактор у шахрайстві, експлуатації дітей тощо. [6]
  2. Робоча група з питань штучного інтелекту Національної безпеки
    • Міністерство безпеки США розширює зусилля з виявлення шахрайства, керованого штучним інтелектом, управління виявленням глибоких підробок і захисту неповнолітніх від експлуатації, спричиненої штучним інтелектом [8]. [8] Воно також досліджує, як використовувати АІ для захисту, скануючи мережі на наявність аномалій.
  3. Корпоративний комплаєнс
    • Тепер Мін'юст просить компанії показати, як вони управляють ризиками, пов'язаними зі штучним інтелектом, у своїх комплаєнс-програмах. Неспроможність запобігти зловживанню працівниками ШІ або ігнорування вразливостей безпеки ШІ може призвести до підвищення корпоративної відповідальності. [6]
  4. Кампанії з підвищення обізнаності громадськості
    • ФБР, FCC та FTC запустили попередження для споживачів про шахрайство з використанням штучного інтелекту та фальшиві дзвінки про викрадення. Повідомлення? Завжди перевіряйте підозрілі дзвінки або повідомлення - люди, які бачать (або чують), більше не вірять в еру ШІ. [2][5]

561TP6Т американців кажуть, що стурбовані шкідливим штучним інтелектом

У листопаді 2024 року організація Undetectable AI опитала 1000 американців по всій території США. [9] Респонденти у віці від 18 до 27 років зазначили, що 23% вважають, що ШІ становить екзистенційну загрозу для людства, 18% висловили занепокоєння щодо незаконного використання даних або конфіденційності даних, а 15% стурбовані тим, що технологія ШІ використовується для створення глибоких фейків.

Погляд у майбутнє: 2025 рік і далі

Незважаючи на обмеженість достовірних даних про точну поширеність атак, керованих штучним інтелектом, тенденція очевидна: штучний інтелект знижує бар'єри для злочинців, уможливлюючи більш реалістичні шахрайства та посилюючи дезінформацію. Тим часом захисники - правоохоронці, експерти з кібербезпеки та регулятори - нарощують оборону. Очікуйте:

  • Більше ШІ в обороні: Інструменти для глибокої експертизи фейків, фішингові фільтри на основі ШІ та виявлення аномалій у мережах.
  • Посилення регуляторного нагляду: Міністерство юстиції, Комісія з цінних паперів і бірж та інші органи, ймовірно, посилять боротьбу зі зловживанням ШІ, накладаючи більш суворі покарання на осіб і організації, які сприяють злочинам, пов'язаним зі штучним інтелектом.
  • Розширення міжнародного співробітництва: Кіберзлочинність не має кордонів, і спільні операції, такі як ліквідація Мін'юстом у липні 2024 року російської ботоферми, ставатимуть дедалі частішими.

Висновок: Мультиплікатор сили для боротьби з кіберзлочинністю

Основна тема, що випливає з офіційних джерел та експертного аналізу, полягає в тому, що ШІ вдосконалює існуючі методи кіберзлочинності. Від гіперреалістичного фішингу до голосових дзвінків від імені "фальшивого генерального директора" - злочинці використовують генеративний ШІ, щоб значно підвищити рівень свого успіху і експлуатувати жертв, які раніше покладалися на просту "інтуїтивну перевірку" (орфографічні помилки, неправильний акцент тощо), щоб розпізнати шахрайство.

Будьте пильними та поінформованими

У цьому швидкозростаючому середовищі громадська обізнаність і перевірка є критично важливими. Незалежно від того, чи є ви керівником вищої ланки, який в останню хвилину отримує запит на переказ коштів, пенсіонером, який відповідає на дзвінки від "онука в кризі", або користувачем соціальних мереж, який побачив сенсаційне відео з політиком, пам'ятайте: якщо щось здається підозрілим, перевірте це. ШІ означає, що злочинці можуть мімікрувати під реальних людей або створювати ілюзії з вражаючою точністю.

Методологія

Ми провели це дослідження, вивчивши офіційні урядові ресурси (наприклад, опубліковані документи Міністерства юстиції та щорічний звіт IC3 про інтернет-злочинність). Ми також вивчили коментарі третіх сторін, яким довіряють, і висвітлення нових загроз кіберзлочинності, пов'язаних зі штучним інтелектом. Ми також опитали понад 1000 кореспондентів у Сполучених Штатах, щоб зрозуміти їхні занепокоєння щодо ШІ. Нарешті, ми перевірили цей звіт, щоб гарантувати, що всі процитовані джерела є точними та актуальними.

Добросовісне використання

Ви можете використати ці дані у своїй статті або репортажі. Будь ласка, обов'язково вказуйте посилання на Undetectable AI і додайте посилання на цю сторінку, щоб читачі могли ознайомитися з повним текстом звіту.

Посилання

  1. ФБР: Готуйтеся до виборчого року з масовими загрозами, керованими поганими хлопцями зі штучним інтелектом - ФБР Захист Один.
  2. ФБР попереджає про зростання загрози використання кіберзлочинцями штучного інтелекту (8 травня 2024 року)
  3. Центр подання скарг на злочини в Інтернеті (IC3) - Звіт про злочини в Інтернеті за 2023 рік та пов'язані з ним PSA
  4. Офіс зв'язків з громадськістю | Міністерство юстиції США очолило зусилля... з руйнування таємної ботоферми соціальних мереж, керованої російським урядом (9 липня 2024 р.)
  5. Центр обробки скарг на злочини в Інтернеті (IC3) | PSA: Зловмисники маніпулюють фотографіями та відео для створення відвертого контенту та схем вимагання (5 червня 2023 року)
  6. Чоловіка заарештовано за виготовлення, розповсюдження та зберігання згенерованих штучним інтелектом зображень неповнолітніх, які займаються відверто сексуальною поведінкою
  7. Мін'юст та партнери знищили російську ботоферму - деталі правозастосування (липень 2024)
  8. DHS: "Вплив штучного інтелекту на злочинну та незаконну діяльність" (27 вересня 2024 року) 
  9. Опитування 2024 року, проведене непомітним ШІ

Copyright © 2023 Code Blog Pro. Всі права захищені