"Искусственный интеллект действует на киберпреступников как усилитель производительности. Он эффективно повышает уровень плохих парней среднего звена". [1]
За последний год искусственный интеллект (ИИ) стремительно развивался, обеспечивая работу всего - от персонализированного поиска до продвинутой медицинской диагностики. Но пока технологии мчатся вперед, надвигается мрачная реальность: киберпреступники используют те же самые прорывы в области искусственного интеллекта. чтобы усовершенствовать мошенничество, выдавать себя за жертв и расширять незаконные предприятия.
Правительственные агентства - от Центра жалоб на интернет-преступления (IC3) ФБР до Министерства внутренней безопасности (DHS) - отмечают киберпреступность, управляемую искусственным интеллектом, как быстро растущую проблему. [2][8]
Мы изучили данные правительства США и достоверный анализ третьих сторон о том, как ИИ будет использоваться для киберпреступлений в 2024 году. С сайта Ужасающие мошенничества deepfake к сильному фишинговые кампанииВот что показывают данные и проверки фактов.
Основные выводы:
- ИИ является одним из факторов, но не единственной причиной всех кибератак. Традиционные хакерские атаки сохраняют свои масштабы.
- Глубоко подделанная пародия больше не является научной фантастикой, она происходит уже сейчас.
- Секст-вымогательство и создание CSAM с помощью искусственного интеллекта - неотложная задача для правоохранительных органов и служб защиты детей.
- Дезинформация представляет собой угрозу национальной безопасности, а искусственный интеллект способствует созданию более правдоподобных фальшивых личностей и нарративов.
- Ужесточение правоприменительной практики не за горами, поскольку Минюст и ФБР обещают относиться к преступлениям, совершаемым с помощью ИИ, с особой серьезностью.
- 56% опрошенных американцев заявили, что их беспокоят глубокие подделки, ИИ, представляющий угрозу для жизни людей, или незаконное использование. [9]*
1. Фишинг и социальная инженерия с поддержкой искусственного интеллекта
Новая эра убедительного фишинга
- Что происходит?
Преступники используют генеративный искусственный интеллект для создания идеальных, персонализированных фишинговых писем и текстов. Прошли времена смехотворных грамматических ошибок. Теперь эти письма выглядят отточенными и нацеленными на пользователя, что позволяет обмануть даже бдительных получателей. [2][3] - Официальные предупреждения
Подразделение ФБР в Сан-Франциско предупреждает о "растущей угрозе киберпреступников, использующих инструменты с искусственным интеллектом для организации целенаправленных фишинговых кампаний". [2] В 2024 году IC3 сообщила о продолжающемся росте числа потерь, связанных с фишингом, хотя и не приводит точных данных о том, сколько из них управляются искусственным интеллектом. [3] Однако в качественном отношении следователи отмечают заметный рост числа более изощренных фишинговых попыток, которые обходят типичные "красные флажки". - Проверка фактов
Хотя число жалоб на фишинг резко возросло, ФБР не опубликовало точный процент, приписываемый исключительно искусственному интеллекту. Вместо этого они подчеркивают растущую реалистичность и успешность этих мошенничеств с использованием ИИ. Это яркий пример угрозы, которая реальна, даже если точные цифры неуловимы.
Воздействие на бизнес и частных лиц
- Компрометация деловой электронной почты (BEC):
ИИ помогает мошенникам копировать электронные письма руководителей или составлять сообщения на нескольких языках, что повышает успех BEC-мошенничества. По данным ФБР, в 2023 году убытки от BEC-мошенничества превысили $2,9 миллиарда, а в 2024 году ожидается, что этот показатель будет превышен - несмотря на то, что за долей ИИ все еще ведется наблюдение. [3] - Личные потери:
Люди сталкиваются с хорошо составленными фальшивыми банковскими уведомлениями или письмами "романтического мошенничества", которые выглядят душераздирающе реальными. Это приводит к краже учетных данных, опустошению банковских счетов и краже личных данных [2]. Особенно уязвимыми остаются пожилые люди, поскольку преступники могут клонировать голоса или создавать сообщения, похожие на сообщения сиделки.
2. Выдача себя за Deepfake и мошенничество
Фальшивые голоса, настоящие деньги
Представьте, что вам звонит голос любимого человека и умоляет о выкупе. В реальности, ИИ использовал образцы из социальных сетей, чтобы сгенерировать именно этот вокальный почерк.
Согласно бюллетеням IC3 ФБР, клонирование голоса стало новым инструментом для вымогательства и финансовых афер. [2][5] Сообщалось также о случаях звонков "фальшивых генеральных директоров", которые обманом заставляли сотрудников переводить деньги.
Никогда больше не беспокойтесь о том, что ИИ обнаружит ваши сообщения. Undetectable AI Мы можем помочь вам:
- Сделайте так, чтобы ваши записи с помощью искусственного интеллекта появились человекоподобный.
- Байпас все основные инструменты обнаружения ИИ одним щелчком мыши.
- Используйте AI безопасно и уверенно в школе и на работе.
Пример из практики: В 2023 году мать из Аризоны едва не стала жертвой мошенников, когда поверила, что слышит рыдающий голос своей дочери-подростка в фальшивом звонке о "похищении". К счастью, она убедилась в безопасности своей дочери, прежде чем переводить деньги.
Видеоролики Deepfake и самозванство
Преступники также создают сгенерированные искусственным интеллектом видеозвонки с участием реалистичных "генеральных директоров" или "деловых партнеров", которые инструктируют сотрудников о необходимости санкционировать крупные переводы. Министерство юстиции США (DOJ) предупреждает, что такие поддельные видеозвонки вызывают опасения, особенно в удаленных или гибридных рабочих средах. [4][7]
Факт-чек:
Правоохранительные органы подтвердили многочисленные инциденты, но не опубликовали официальных данных о количестве случаев глубокой подделки. Однако приведенные примеры согласуются с постоянными предупреждениями ФБР и Минюста о "резком росте" использования технологии deepfake для мошенничества. [2][4][7]
3. Сексторство и злоупотребление синтетическими медиа, генерируемое ИИ
Изменение невинных изображений в целях эксплуатации
- Что происходит?
Преступники берут доброкачественные фотографии (из социальных сетей или других источников) и превращают их в откровенные материалы. Это так называемое "глубокое поддельное сексторство" процветает благодаря способности ИИ генерировать тревожно убедительные изображения или видео. [5] - Среди жертв - несовершеннолетние
ФБР в информационном письме от 2023 года отметило рост числа случаев секс-вымогательства, когда фотографии несовершеннолетних превращались в поддельные порнографические материалы. Затем преступники угрожают поделиться или опубликовать эти сфабрикованные изображения, если жертвы не заплатят или не предоставят реальный сексуальный контент. [5] - Материалы о сексуальном насилии над детьми (CSAM)
Министерство здравоохранения и Минюст подтверждают, что инструменты ИИ используются для создания контента, генерируемого ИИ для сексуального насилия над детьми. В августе 2024 года Минюст арестовал человека за использование ИИ для производства детской порнографии. [6] Правоохранительные органы подчеркивают, что "CSAM, созданный с помощью ИИ, все равно остается CSAM".
Напоминание о проверке фактов:
Официальные источники однозначно считают CSAM, управляемый искусственным интеллектом, незаконным. Точных данных о распространенности не хватает, но многочисленные действия правоохранительных органов подтверждают реальную и растущую угрозу.
4. Дезинформация и политическое вмешательство, управляемые искусственным интеллектом
- Вмешательство в выборы 2.0
В июле 2024 года Минюст США обезвредил тайную российскую бот-ферму, которая использовала поддельные личности с искусственным интеллектом для распространения дезинформации [4][7]. Эти сгенерированные ИИ аккаунты в социальных сетях распространяли противоречивую информацию с такой изощренностью, которую с трудом могли обнаружить автоматические фильтры. - Внутреннее и внешнее влияние
Директор ФБР Урэй отмечает, что "генеративный ИИ... снижает барьер для входа" [1], облегчая как иностранным противникам, так и внутренним группам создание правдоподобных "фальшивых новостей", поддельных видео или выдачу себя за политиков. - Не только спам
Такой контент может подорвать доверие общества, посеять смуту во время выборов или способствовать созданию вредоносных финансовых схем. [4][8] Министерство здравоохранения классифицирует дезинформацию, управляемую ИИ, как преступление с "киберподдержкой", признавая, что, хотя она может и не включать прямого взлома, она использует цифровые платформы для незаконных или обманных целей.
Контекстная проверка фактов:
Минюст США хорошо задокументировал уничтожение "бот-ферм". [4][7] Независимые исследователи в области безопасности подтверждают, что число создаваемых ИИ персон растет. Однако официальные агентства редко публикуют точные показатели (например, "30% дезинформации теперь создается с помощью ИИ"). Вместо этого они сосредоточены на том, чтобы предать огласке серьезность и изощренность этих кампаний.
5. Возникающие угрозы: Вредоносные программы и взломы с помощью искусственного интеллекта
WormGPT и не только
На подпольных форумах преступники рассказывают о моделях искусственного интеллекта, таких как "WormGPT", отточенных для написания вредоносных программ. Министерство здравоохранения предупреждает, что эти инструменты "восполняют пробелы в знаниях, таких как компьютерное кодирование", позволяя относительно неквалифицированным хакерам осуществлять продвинутые атаки [8]. Хотя масштабные вредоносные программы, написанные искусственным интеллектом, все еще ограничены, эксперты предсказывают, что в будущем они станут серьезной проблемой.
Адаптивное вредоносное ПО?
Исследователи в области безопасности продемонстрировали, что вредоносные программы, управляемые искусственным интеллектом, могут изменять свой код ("полиморфизм"), чтобы обойти обнаружение антивирусов. Министерство здравоохранения также теоретизировало о "самообучающемся" вредоносном ПО, которое автономно тестирует новые эксплойты, но реальные примеры в 2024 году будут редкими. [8]
Факт-чек:
Большинство громких атак (например, ransomware) по-прежнему совершаются традиционными методами, но ФБР, АНБ и эксперты по кибербезопасности видят признаки того, что искусственный интеллект все чаще входит в арсенал киберпреступников. Ожидайте новых разработок и, возможно, более официальных данных к 2025 году.
Воздействие и основные статистические данные (проверено фактами)
- Общее количество жалоб на киберпреступления
- В 2023 году в IC3 ФБР поступило 880 000+ заявлений о киберпреступлениях, а заявленный ущерб превысил $12,5 млрд - на 22% больше, чем в 2022 году. [3]
- Хотя точная доля участия искусственного интеллекта не отслеживается, эксперты считают, что реалистичность искусственного интеллекта обеспечивает более высокий уровень успеха в фишинге, BEC и мошенничестве с выдачей себя за другого. [2][3]
- Компрометация деловой электронной почты (BEC)
- Остается одной из самых дорогостоящих форм киберпреступности: в 2023 году объем зарегистрированных убытков превысит $2,9 миллиарда. [3] Роль ИИ? Более отточенные электронные письма, лучшая локализация и иногда глубокая подделка звонков или видео.
- Секс-вымогательство Deepfake
- ФБР не публикует точных данных о количестве случаев секс-вымогательства с использованием deepfake, но "каждый месяц появляется множество новых сообщений". [5]
- Воздействие на жертву: Личное унижение, финансовое вымогательство и эмоциональная травма.
- Дезинформационные операции
- В июле 2024 года Минюст США обезвредил российскую бот-ферму, работающую на основе ИИ [4][7]. Федеральные агентства подчеркивают угрозу дезинформации, распространяемой ИИ, для американских выборов и демократических процессов.
- Проверка фактов о мифе о "третьей по величине экономике"
- Некоторые СМИ сравнивают глобальные затраты на киберпреступность с ВВП крупных государств, но ежегодные потери США в размере $10-12 миллиардов явно не соответствуют этим масштабам [3]. По оценкам аналитиков, глобальное экономическое воздействие киберпреступности может достигать триллионов, что теоретически ставит ее в один ряд с ведущими экономиками, если учесть все косвенные затраты.
- "Каждое пятое преступление совершается онлайн" Контекст
- В некоторых регионах около 20-25% зарегистрированных преступлений теперь связаны с киберпространством. Эта цифра не обязательно относится ко всему миру, но свидетельствует о растущей доле цифровых преступлений в общем объеме преступлений.
Правоохранительные и политические меры
- Более жесткая позиция Минюста
- Заместитель генерального прокурора Лиза Монако пообещала "ужесточить наказания" для преступников, использующих ИИ для усиления преступлений, рассматривая ИИ как отягчающее обстоятельство при мошенничестве, эксплуатации детей и т. д. [6]
- Целевая группа по искусственному интеллекту в области национальной безопасности
- Министерство здравоохранения расширяет усилия по выявлению мошенничества, управляемого ИИ, управлению обнаружением глубоких подделок и защите несовершеннолетних от эксплуатации, генерируемой ИИ. [8] Оно также изучает возможности использования ИИ для защиты, сканируя сети на предмет аномалий.
- Корпоративное соответствие
- Минюст США теперь требует от компаний показать, как они учитывают риски, связанные с ИИ, в своих программах по соблюдению нормативных требований. Неспособность предотвратить неправильное использование ИИ сотрудниками или игнорирование уязвимостей безопасности ИИ может привести к корпоративной ответственности. [6]
- Кампании по повышению осведомленности общественности
- ФБР, ФКС и ФТК запустили предупреждения для потребителей о мошенничествах с использованием искусственного интеллекта "бабушек и дедушек" и фальшивых звонках с целью похищения. Смысл? Всегда проверяйте подозрительные звонки или сообщения - в эпоху ИИ видеть (или слышать) уже не значит верить. [2][5]
56% американцев говорят, что их беспокоит вредоносный искусственный интеллект
В ноябре 2024 года компания Undetectable AI провела опрос 1000 американцев по всей территории США. [9] Респонденты в возрасте от 18 до 27 лет указали, что 23% считают, что ИИ представляет собой экзистенциальную угрозу для человечества, 18% выразили обеспокоенность по поводу незаконного использования данных или конфиденциальности данных, а 15% обеспокоены тем, что технологии ИИ используются для создания фальшивок.
Взгляд в будущее: 2025 год и последующие годы
Несмотря на ограниченное количество достоверных данных о распространенности атак, управляемых искусственным интеллектом, тенденция очевидна: ИИ снижает барьеры для преступников, позволяя создавать более реалистичные аферы и усиливая дезинформацию. Тем временем защитники - правоохранительные органы, эксперты по кибербезопасности и регулирующие органы - наращивают усилия. Ожидайте:
- Больше ИИ в обороне: Инструменты для криминалистической экспертизы deepfake, фишинговые фильтры на основе ИИ и обнаружение аномалий в сетях.
- Расширение регулятивного надзора: Минюст США, Комиссия по ценным бумагам и биржам США и другие ведомства, вероятно, будут и дальше пресекать неправомерное использование ИИ, применяя более жесткие меры наказания к лицам или организациям, способствующим совершению преступлений, связанных с ИИ.
- Расширение международного сотрудничества: Киберпреступность не имеет границ, и совместные операции, подобные проведенной Минюстом в июле 2024 года операции по уничтожению российской бот-фермы, будут проводиться все чаще.
Заключение: Мультипликатор силы для киберпреступности
Из официальных источников и экспертного анализа следует, что ИИ усиливает существующие методы киберпреступников. От гиперреалистичного фишинга до голосовых звонков "фальшивых генеральных директоров" - преступники используют генеративный ИИ, чтобы значительно повысить процент успеха и использовать жертв, которые раньше полагались на простую "проверку интуиции" (опечатки, неправильное ударение и т. д.), чтобы распознать мошенников.
Будьте бдительны и информированы
В этой стремительно развивающейся среде критически важны информированность и проверка. Будь вы руководителем высшего звена, получившим в последнюю минуту запрос на прослушку, пенсионером, принимающим звонки от "внука в кризисе", или пользователем социальных сетей, столкнувшимся с сенсационным видео с политиком, помните: если что-то кажется неправдой, проверьте это. ИИ позволяет преступникам с поразительной точностью имитировать реальных людей или создавать иллюзии.
Методология
Мы провели это исследование, изучив официальные правительственные ресурсы (например, опубликованные документы Министерства юстиции и ежегодный отчет IC3 Internet Crime Annual Report). Мы также изучили заслуживающие доверия комментарии третьих лиц и освещение возникающих угроз киберпреступности, связанных с искусственным интеллектом. Мы также опросили более 1000 корреспондентов в США, чтобы понять, что их беспокоит в связи с искусственным интеллектом. Наконец, мы проверили этот отчет, чтобы гарантировать точность и актуальность всех цитируемых источников.
Добросовестное использование
Вы можете опубликовать эти данные в своем материале или статье. Пожалуйста, не забудьте указать авторство Undetectable AI и включить ссылку на эту страницу, чтобы читатели могли ознакомиться с полным текстом отчета.
Ссылки
- ФБР: Готовьтесь к году выборов, когда угрозы будут нарастать с огромной скоростью, управляемые плохими парнями с искусственным интеллектом. Защита один
- ФБР предупреждает о растущей угрозе киберпреступников, использующих искусственный интеллект (8 мая 2024 г.)
- Центр жалоб на преступления в Интернете (IC3) - Отчет о преступлениях в Интернете за 2023 год и соответствующие рекламные ролики
- Управление по связям с общественностью | Министерство юстиции возглавляет усилия... по разрушению тайной бот-фермы социальных сетей, управляемой российским правительством (9 июля 2024 г.)
- Центр жалоб на интернет-преступления (IC3) | PSA: Злоумышленники, манипулирующие фотографиями и видео для создания откровенного контента и схем секс-вымогательства (5 июня 2023 г.)
- Мужчина арестован за производство, распространение и хранение сгенерированных искусственным интеллектом изображений несовершеннолетних, вовлеченных в сексуально откровенные действия
- Минюст и партнеры разорили российскую бот-ферму - подробности правоприменения (июль 2024)
- DHS: "Влияние искусственного интеллекта на преступную и противозаконную деятельность" (27 сентября 2024 г.)
- Исследование 2024 года, проведенное необнаруживаемым искусственным интеллектом