Тенденции киберпреступности с использованием искусственного интеллекта и то, как они могут навредить вам в 2025 году

"Искусственный интеллект действует на киберпреступников как усилитель производительности. Он эффективно повышает уровень плохих парней среднего звена". [1]

За последний год искусственный интеллект (ИИ) стремительно развивался, обеспечивая работу всего - от персонализированного поиска до продвинутой медицинской диагностики. Но пока технологии мчатся вперед, надвигается мрачная реальность: киберпреступники используют те же самые прорывы в области искусственного интеллекта. чтобы усовершенствовать мошенничество, выдавать себя за жертв и расширять незаконные предприятия. 

Правительственные агентства - от Центра жалоб на интернет-преступления (IC3) ФБР до Министерства внутренней безопасности (DHS) - отмечают киберпреступность, управляемую искусственным интеллектом, как быстро растущую проблему. [2][8]

Мы изучили данные правительства США и достоверный анализ третьих сторон о том, как ИИ будет использоваться для киберпреступлений в 2024 году. С сайта Ужасающие мошенничества deepfake к сильному фишинговые кампанииВот что показывают данные и проверки фактов.

Основные выводы:

  1. ИИ является одним из факторов, но не единственной причиной всех кибератак. Традиционные хакерские атаки сохраняют свои масштабы.
  2. Глубоко подделанная пародия больше не является научной фантастикой, она происходит уже сейчас.
  3. Секст-вымогательство и создание CSAM с помощью искусственного интеллекта - неотложная задача для правоохранительных органов и служб защиты детей.
  4. Дезинформация представляет собой угрозу национальной безопасности, а искусственный интеллект способствует созданию более правдоподобных фальшивых личностей и нарративов.
  5. Ужесточение правоприменительной практики не за горами, поскольку Минюст и ФБР обещают относиться к преступлениям, совершаемым с помощью ИИ, с особой серьезностью.
  6. 56% опрошенных американцев заявили, что их беспокоят глубокие подделки, ИИ, представляющий угрозу для жизни людей, или незаконное использование. [9]* 

1. Фишинг и социальная инженерия с поддержкой искусственного интеллекта

Новая эра убедительного фишинга

  • Что происходит?
    Преступники используют генеративный искусственный интеллект для создания идеальных, персонализированных фишинговых писем и текстов. Прошли времена смехотворных грамматических ошибок. Теперь эти письма выглядят отточенными и нацеленными на пользователя, что позволяет обмануть даже бдительных получателей. [2][3]
  • Официальные предупреждения
    Подразделение ФБР в Сан-Франциско предупреждает о "растущей угрозе киберпреступников, использующих инструменты с искусственным интеллектом для организации целенаправленных фишинговых кампаний". [2] В 2024 году IC3 сообщила о продолжающемся росте числа потерь, связанных с фишингом, хотя и не приводит точных данных о том, сколько из них управляются искусственным интеллектом. [3] Однако в качественном отношении следователи отмечают заметный рост числа более изощренных фишинговых попыток, которые обходят типичные "красные флажки".
  • Проверка фактов
    Хотя число жалоб на фишинг резко возросло, ФБР не опубликовало точный процент, приписываемый исключительно искусственному интеллекту. Вместо этого они подчеркивают растущую реалистичность и успешность этих мошенничеств с использованием ИИ. Это яркий пример угрозы, которая реальна, даже если точные цифры неуловимы.

Воздействие на бизнес и частных лиц

  • Компрометация деловой электронной почты (BEC):
    ИИ помогает мошенникам копировать электронные письма руководителей или составлять сообщения на нескольких языках, что повышает успех BEC-мошенничества. По данным ФБР, в 2023 году убытки от BEC-мошенничества превысили $2,9 миллиарда, а в 2024 году ожидается, что этот показатель будет превышен - несмотря на то, что за долей ИИ все еще ведется наблюдение. [3]
  • Личные потери:
    Люди сталкиваются с хорошо составленными фальшивыми банковскими уведомлениями или письмами "романтического мошенничества", которые выглядят душераздирающе реальными. Это приводит к краже учетных данных, опустошению банковских счетов и краже личных данных [2]. Особенно уязвимыми остаются пожилые люди, поскольку преступники могут клонировать голоса или создавать сообщения, похожие на сообщения сиделки.

2. Выдача себя за Deepfake и мошенничество

Фальшивые голоса, настоящие деньги

Представьте, что вам звонит голос любимого человека и умоляет о выкупе. В реальности, ИИ использовал образцы из социальных сетей, чтобы сгенерировать именно этот вокальный почерк. 

Согласно бюллетеням IC3 ФБР, клонирование голоса стало новым инструментом для вымогательства и финансовых афер. [2][5] Сообщалось также о случаях звонков "фальшивых генеральных директоров", которые обманом заставляли сотрудников переводить деньги.

Никогда больше не беспокойтесь о том, что ИИ обнаружит ваши сообщения. Undetectable AI Мы можем помочь вам:

  • Сделайте так, чтобы ваши записи с помощью искусственного интеллекта появились человекоподобный.
  • Байпас все основные инструменты обнаружения ИИ одним щелчком мыши.
  • Используйте AI безопасно и уверенно в школе и на работе.
Попробуй бесплатно

Пример из практики: В 2023 году мать из Аризоны едва не стала жертвой мошенников, когда поверила, что слышит рыдающий голос своей дочери-подростка в фальшивом звонке о "похищении". К счастью, она убедилась в безопасности своей дочери, прежде чем переводить деньги.

Видеоролики Deepfake и самозванство

Преступники также создают сгенерированные искусственным интеллектом видеозвонки с участием реалистичных "генеральных директоров" или "деловых партнеров", которые инструктируют сотрудников о необходимости санкционировать крупные переводы. Министерство юстиции США (DOJ) предупреждает, что такие поддельные видеозвонки вызывают опасения, особенно в удаленных или гибридных рабочих средах. [4][7]

Факт-чек:
Правоохранительные органы подтвердили многочисленные инциденты, но не опубликовали официальных данных о количестве случаев глубокой подделки. Однако приведенные примеры согласуются с постоянными предупреждениями ФБР и Минюста о "резком росте" использования технологии deepfake для мошенничества. [2][4][7]

3. Сексторство и злоупотребление синтетическими медиа, генерируемое ИИ

Изменение невинных изображений в целях эксплуатации

  • Что происходит?
    Преступники берут доброкачественные фотографии (из социальных сетей или других источников) и превращают их в откровенные материалы. Это так называемое "глубокое поддельное сексторство" процветает благодаря способности ИИ генерировать тревожно убедительные изображения или видео. [5]
  • Среди жертв - несовершеннолетние
    ФБР в информационном письме от 2023 года отметило рост числа случаев секс-вымогательства, когда фотографии несовершеннолетних превращались в поддельные порнографические материалы. Затем преступники угрожают поделиться или опубликовать эти сфабрикованные изображения, если жертвы не заплатят или не предоставят реальный сексуальный контент. [5]
  • Материалы о сексуальном насилии над детьми (CSAM)
    Министерство здравоохранения и Минюст подтверждают, что инструменты ИИ используются для создания контента, генерируемого ИИ для сексуального насилия над детьми. В августе 2024 года Минюст арестовал человека за использование ИИ для производства детской порнографии. [6] Правоохранительные органы подчеркивают, что "CSAM, созданный с помощью ИИ, все равно остается CSAM". 

Напоминание о проверке фактов:
Официальные источники однозначно считают CSAM, управляемый искусственным интеллектом, незаконным. Точных данных о распространенности не хватает, но многочисленные действия правоохранительных органов подтверждают реальную и растущую угрозу.

4. Дезинформация и политическое вмешательство, управляемые искусственным интеллектом

  • Вмешательство в выборы 2.0
    В июле 2024 года Минюст США обезвредил тайную российскую бот-ферму, которая использовала поддельные личности с искусственным интеллектом для распространения дезинформации [4][7]. Эти сгенерированные ИИ аккаунты в социальных сетях распространяли противоречивую информацию с такой изощренностью, которую с трудом могли обнаружить автоматические фильтры.
  • Внутреннее и внешнее влияние
    Директор ФБР Урэй отмечает, что "генеративный ИИ... снижает барьер для входа" [1], облегчая как иностранным противникам, так и внутренним группам создание правдоподобных "фальшивых новостей", поддельных видео или выдачу себя за политиков.
  • Не только спам
    Такой контент может подорвать доверие общества, посеять смуту во время выборов или способствовать созданию вредоносных финансовых схем. [4][8] Министерство здравоохранения классифицирует дезинформацию, управляемую ИИ, как преступление с "киберподдержкой", признавая, что, хотя она может и не включать прямого взлома, она использует цифровые платформы для незаконных или обманных целей.

Контекстная проверка фактов:
Минюст США хорошо задокументировал уничтожение "бот-ферм". [4][7] Независимые исследователи в области безопасности подтверждают, что число создаваемых ИИ персон растет. Однако официальные агентства редко публикуют точные показатели (например, "30% дезинформации теперь создается с помощью ИИ"). Вместо этого они сосредоточены на том, чтобы предать огласке серьезность и изощренность этих кампаний.

5. Возникающие угрозы: Вредоносные программы и взломы с помощью искусственного интеллекта

WormGPT и не только

На подпольных форумах преступники рассказывают о моделях искусственного интеллекта, таких как "WormGPT", отточенных для написания вредоносных программ. Министерство здравоохранения предупреждает, что эти инструменты "восполняют пробелы в знаниях, таких как компьютерное кодирование", позволяя относительно неквалифицированным хакерам осуществлять продвинутые атаки [8]. Хотя масштабные вредоносные программы, написанные искусственным интеллектом, все еще ограничены, эксперты предсказывают, что в будущем они станут серьезной проблемой.

Адаптивное вредоносное ПО?

Исследователи в области безопасности продемонстрировали, что вредоносные программы, управляемые искусственным интеллектом, могут изменять свой код ("полиморфизм"), чтобы обойти обнаружение антивирусов. Министерство здравоохранения также теоретизировало о "самообучающемся" вредоносном ПО, которое автономно тестирует новые эксплойты, но реальные примеры в 2024 году будут редкими. [8]

Факт-чек:
Большинство громких атак (например, ransomware) по-прежнему совершаются традиционными методами, но ФБР, АНБ и эксперты по кибербезопасности видят признаки того, что искусственный интеллект все чаще входит в арсенал киберпреступников. Ожидайте новых разработок и, возможно, более официальных данных к 2025 году.

Воздействие и основные статистические данные (проверено фактами)

  1. Общее количество жалоб на киберпреступления
    • В 2023 году в IC3 ФБР поступило 880 000+ заявлений о киберпреступлениях, а заявленный ущерб превысил $12,5 млрд - на 22% больше, чем в 2022 году. [3]
    • Хотя точная доля участия искусственного интеллекта не отслеживается, эксперты считают, что реалистичность искусственного интеллекта обеспечивает более высокий уровень успеха в фишинге, BEC и мошенничестве с выдачей себя за другого. [2][3]
  2. Компрометация деловой электронной почты (BEC)
    • Остается одной из самых дорогостоящих форм киберпреступности: в 2023 году объем зарегистрированных убытков превысит $2,9 миллиарда. [3] Роль ИИ? Более отточенные электронные письма, лучшая локализация и иногда глубокая подделка звонков или видео.
  3. Секс-вымогательство Deepfake
    • ФБР не публикует точных данных о количестве случаев секс-вымогательства с использованием deepfake, но "каждый месяц появляется множество новых сообщений". [5]
    • Воздействие на жертву: Личное унижение, финансовое вымогательство и эмоциональная травма.
  4. Дезинформационные операции
    • В июле 2024 года Минюст США обезвредил российскую бот-ферму, работающую на основе ИИ [4][7]. Федеральные агентства подчеркивают угрозу дезинформации, распространяемой ИИ, для американских выборов и демократических процессов.
  5. Проверка фактов о мифе о "третьей по величине экономике"
    • Некоторые СМИ сравнивают глобальные затраты на киберпреступность с ВВП крупных государств, но ежегодные потери США в размере $10-12 миллиардов явно не соответствуют этим масштабам [3]. По оценкам аналитиков, глобальное экономическое воздействие киберпреступности может достигать триллионов, что теоретически ставит ее в один ряд с ведущими экономиками, если учесть все косвенные затраты.
  6. "Каждое пятое преступление совершается онлайн" Контекст
    • В некоторых регионах около 20-25% зарегистрированных преступлений теперь связаны с киберпространством. Эта цифра не обязательно относится ко всему миру, но свидетельствует о растущей доле цифровых преступлений в общем объеме преступлений.

Правоохранительные и политические меры

  1. Более жесткая позиция Минюста
    • Заместитель генерального прокурора Лиза Монако пообещала "ужесточить наказания" для преступников, использующих ИИ для усиления преступлений, рассматривая ИИ как отягчающее обстоятельство при мошенничестве, эксплуатации детей и т. д. [6]
  2. Целевая группа по искусственному интеллекту в области национальной безопасности
    • Министерство здравоохранения расширяет усилия по выявлению мошенничества, управляемого ИИ, управлению обнаружением глубоких подделок и защите несовершеннолетних от эксплуатации, генерируемой ИИ. [8] Оно также изучает возможности использования ИИ для защиты, сканируя сети на предмет аномалий.
  3. Корпоративное соответствие
    • Минюст США теперь требует от компаний показать, как они учитывают риски, связанные с ИИ, в своих программах по соблюдению нормативных требований. Неспособность предотвратить неправильное использование ИИ сотрудниками или игнорирование уязвимостей безопасности ИИ может привести к корпоративной ответственности. [6]
  4. Кампании по повышению осведомленности общественности
    • ФБР, ФКС и ФТК запустили предупреждения для потребителей о мошенничествах с использованием искусственного интеллекта "бабушек и дедушек" и фальшивых звонках с целью похищения. Смысл? Всегда проверяйте подозрительные звонки или сообщения - в эпоху ИИ видеть (или слышать) уже не значит верить. [2][5]

56% американцев говорят, что их беспокоит вредоносный искусственный интеллект

В ноябре 2024 года компания Undetectable AI провела опрос 1000 американцев по всей территории США. [9] Респонденты в возрасте от 18 до 27 лет указали, что 23% считают, что ИИ представляет собой экзистенциальную угрозу для человечества, 18% выразили обеспокоенность по поводу незаконного использования данных или конфиденциальности данных, а 15% обеспокоены тем, что технологии ИИ используются для создания фальшивок.

Взгляд в будущее: 2025 год и последующие годы

Несмотря на ограниченное количество достоверных данных о распространенности атак, управляемых искусственным интеллектом, тенденция очевидна: ИИ снижает барьеры для преступников, позволяя создавать более реалистичные аферы и усиливая дезинформацию. Тем временем защитники - правоохранительные органы, эксперты по кибербезопасности и регулирующие органы - наращивают усилия. Ожидайте:

  • Больше ИИ в обороне: Инструменты для криминалистической экспертизы deepfake, фишинговые фильтры на основе ИИ и обнаружение аномалий в сетях.
  • Расширение регулятивного надзора: Минюст США, Комиссия по ценным бумагам и биржам США и другие ведомства, вероятно, будут и дальше пресекать неправомерное использование ИИ, применяя более жесткие меры наказания к лицам или организациям, способствующим совершению преступлений, связанных с ИИ.
  • Расширение международного сотрудничества: Киберпреступность не имеет границ, и совместные операции, подобные проведенной Минюстом в июле 2024 года операции по уничтожению российской бот-фермы, будут проводиться все чаще.

Заключение: Мультипликатор силы для киберпреступности

Из официальных источников и экспертного анализа следует, что ИИ усиливает существующие методы киберпреступников. От гиперреалистичного фишинга до голосовых звонков "фальшивых генеральных директоров" - преступники используют генеративный ИИ, чтобы значительно повысить процент успеха и использовать жертв, которые раньше полагались на простую "проверку интуиции" (опечатки, неправильное ударение и т. д.), чтобы распознать мошенников.

Будьте бдительны и информированы

В этой стремительно развивающейся среде критически важны информированность и проверка. Будь вы руководителем высшего звена, получившим в последнюю минуту запрос на прослушку, пенсионером, принимающим звонки от "внука в кризисе", или пользователем социальных сетей, столкнувшимся с сенсационным видео с политиком, помните: если что-то кажется неправдой, проверьте это. ИИ позволяет преступникам с поразительной точностью имитировать реальных людей или создавать иллюзии.

Методология

Мы провели это исследование, изучив официальные правительственные ресурсы (например, опубликованные документы Министерства юстиции и ежегодный отчет IC3 Internet Crime Annual Report). Мы также изучили заслуживающие доверия комментарии третьих лиц и освещение возникающих угроз киберпреступности, связанных с искусственным интеллектом. Мы также опросили более 1000 корреспондентов в США, чтобы понять, что их беспокоит в связи с искусственным интеллектом. Наконец, мы проверили этот отчет, чтобы гарантировать точность и актуальность всех цитируемых источников.

Добросовестное использование

Вы можете опубликовать эти данные в своем материале или статье. Пожалуйста, не забудьте указать авторство Undetectable AI и включить ссылку на эту страницу, чтобы читатели могли ознакомиться с полным текстом отчета.

Ссылки

  1. ФБР: Готовьтесь к году выборов, когда угрозы будут нарастать с огромной скоростью, управляемые плохими парнями с искусственным интеллектом. Защита один
  2. ФБР предупреждает о растущей угрозе киберпреступников, использующих искусственный интеллект (8 мая 2024 г.)
  3. Центр жалоб на преступления в Интернете (IC3) - Отчет о преступлениях в Интернете за 2023 год и соответствующие рекламные ролики
  4. Управление по связям с общественностью | Министерство юстиции возглавляет усилия... по разрушению тайной бот-фермы социальных сетей, управляемой российским правительством (9 июля 2024 г.)
  5. Центр жалоб на интернет-преступления (IC3) | PSA: Злоумышленники, манипулирующие фотографиями и видео для создания откровенного контента и схем секс-вымогательства (5 июня 2023 г.)
  6. Мужчина арестован за производство, распространение и хранение сгенерированных искусственным интеллектом изображений несовершеннолетних, вовлеченных в сексуально откровенные действия
  7. Минюст и партнеры разорили российскую бот-ферму - подробности правоприменения (июль 2024)
  8. DHS: "Влияние искусственного интеллекта на преступную и противозаконную деятельность" (27 сентября 2024 г.) 
  9. Исследование 2024 года, проведенное необнаруживаемым искусственным интеллектом

Copyright © 2023 Code Blog Pro. Все права защищены