В 2018 году Джордан Пил создал видео с бывшим президентом США Бараком Обамой, которое одурачило миллионы американцев.
По всем новостям было показано видео, на котором Обама выступает с предупреждением.
Но угадайте, о чем она была? Фальшивые новости.
Затем выяснилось, что это искусственный интеллект. Пил использовал это как демонстрацию того, как технологии, особенно глубокие подделки, могут манипулировать реальностью.
Но это было в 2018 году, а с тех пор фальшивки и видео, сгенерированные искусственным интеллектом, стали пугающе хороши.
Злодеи используют их для самых разных целей - от порно из мести до политической дезинформации.
Лица знаменитостей накладываются на откровенный контент.
Политики, похоже, делают заявления, которых они никогда не делали. Теоретически ваш сосед может заставить вас сказать что угодно на видео.
То, что раньше требовало дорогостоящего программного обеспечения и технических знаний, теперь осуществляется с помощью бесплатных приложений для смартфонов.
Любой человек может создать убедительный фальшивый контент за считанные минуты. Но есть и хорошие новости: вы можете научиться их распознавать.
В этом руководстве вы узнаете, как распознать подделку, прежде чем она обманет вас.
Потому что в мире, где видеть уже не значит верить, навыки критического мышления - ваша лучшая защита.
Основные выводы
- Глубокие подделки часто имеют тонкие визуальные ошибки в движениях лица, освещении и зрительном контакте.
- Несоответствие звука, например, неестественное дыхание или колебания голоса, - это серьезный тревожный сигнал.
- Ручные методы обнаружения сосредоточены на анализе синхронизации губ, моргания и однородности фона.
- Профессиональные средства обнаружения могут идентифицировать синтетический контент с большей точностью, чем человек.
- Понимание разницы между "глубокими" и "дешевыми" подделками поможет вам не пропустить различные виды манипуляций.
- Быстрые методы проверки включают обратный поиск изображений и проверку достоверности источника
Основные признаки того, что вы смотрите на глубокую подделку
Глубокие подделки не идеальны. По крайней мере, пока.
Даже самый сложный контент, созданный искусственным интеллектом, оставляет заметные признаки, которые могут уловить опытные глаза. Считайте их цифровым эквивалентом плохого поддельного удостоверения личности.
Технология впечатляет, но она не безупречна.
Никогда больше не беспокойтесь о том, что ИИ обнаружит ваши сообщения. Undetectable AI Мы можем помочь вам:
- Сделайте так, чтобы ваши записи с помощью искусственного интеллекта появились человекоподобный.
- Байпас все основные инструменты обнаружения ИИ одним щелчком мыши.
- Используйте AI безопасно и уверенно в школе и на работе.
Самый очевидный признак - это глаза.
Человеческие глаза обладают естественным блеском и живостью, которые трудно воспроизвести. У подделок глаза часто выглядят слегка стеклянными или расфокусированными.
Человек может смотреть прямо перед собой, не совершая естественных микродвижений, которые совершают настоящие глаза.
Она малозаметна, но если знать, что искать, ее трудно не заметить.
Выражение лица - еще одно слабое место.
На реальных человеческих лицах одновременно происходит бесчисленное множество мельчайших движений мышц.
Когда вы улыбаетесь, движется не только ваш рот. Щеки приподнимаются, глаза морщатся, все лицо участвует в движении.
Глубоким подделкам трудно справиться с этой сложностью. Они могут быть уверены в том, что выражают свои мысли, но упускают тонкие вспомогательные движения.
Как распознать поддельное видео
Видеоподделки - самый распространенный и потенциально опасный вид синтетических медиа.
Они используются во всем - от финансовых афер до политических манипуляций.
Для того чтобы научиться анализировать движущиеся изображения, требуется совсем другой набор навыков, чем для выявления поддельных фотографий.
- Начните с наблюдения за тем, как человек моргает. Люди моргают регулярно и естественно, обычно каждые 3-5 секунд. Слишком частое или слишком редкое моргание может быть тревожным сигналом.\
- Обращайте внимание на движения головы и язык тела. У реальных людей естественные, плавные движения, которые соответствуют их речи и эмоциям. Язык тела может не соответствовать тону голоса или содержанию речи.
- Внимательно изучите историю вопроса. Глубокие подделки часто сосредотачивают столько вычислительной мощности на лице, что не обращают внимания на все остальное. Ищите фоны, которые кажутся искусственно размытыми или статичными.
- Проверьте, нет ли цифровых артефактов по краям лица.. В местах соприкосновения сгенерированного лица с исходным видео вы можете увидеть едва заметные ореолы, цветовые сдвиги или пикселизацию. Эти цифровые артефакты особенно заметны, когда человек поворачивает голову или быстро двигается. Технология не позволяет сохранить четкость краев при быстром движении.
- Несоответствие частоты кадров также может выявить глубокую подделку. Если кажется, что лицо движется с другой частотой кадров, чем остальное видео, это подозрительно.
- Качество звука имеет решающее значение. Даже если визуальные элементы выглядят идеально, звук может выдать подделку.
Как анализировать аудиозаписи на предмет обнаружения признаков подделки
Аудиоподделки становятся все более изощренными.
Технология клонирования голоса теперь может воспроизвести речевые паттерны человека, используя всего несколько минут аудиозаписи.
Но, как и у визуальных подделок, у аудиоподделок есть характеристики, которые внимательный слушатель может определить.
Начните с внимания к дыханию. В реальном разговоре люди делают паузы, чтобы вдохнуть, выдохнуть или отрегулировать свою голосовую энергию.
Глубокие подделки часто полностью пропускают этот момент или вставляют звуки дыхания, которые кажутся роботизированными и равномерно распределенными.
Результат? Голос, который говорит слишком плавно, слишком непрерывно, как будто скользит по рельсам.
Вы можете легче обнаружить эти аномалии, прислушавшись к ним:
- Без пауз для дыханияДаже в длинных предложениях
- Дыхание, которое звучит одинаково, равномерно распределенные по времени или странно расположенные
- Ровный тон без усталости и напряжения голоса
- Речь, которая кажется "слишком идеальной", как будто ее создавали специально
Люди не настолько отточены. Наши голоса дрожат.
Мы кашляем, глотаем, обрываемся на полуслове.
Поэтому, если вы слышите голос, который звучит так, будто его от начала до конца выгладили утюгом, это уже подсказка.
Фоновый шум также может выдать глубокий фейк.
Если кто-то якобы находится в оживленном кафе, вы должны услышать звон чашек, негромкие разговоры, возможно, автомобильную сигнализацию.
Если в нем царит мертвая тишина или он наполнен общим фоновым гулом, значит, что-то не сходится. Настоящие записи имеют текстуру окружающей среды.
Теперь подумайте об акцентах. Манерность. Маленькие странности в том, как кто-то говорит.
Странная манера вашего друга говорить "кнопка" или то, как ваш коллега опускает последний слог в каждом предложении? Глубокие подделки часто пропускают их. Они копируют голос, а не человека.
Качество звука - еще один признак. Некоторые ролики отличаются высокой четкостью, но при этом утверждают, что это телефонные записи.
Другие звучат сжато, но не так, чтобы это имело смысл в данном контексте. Если звук не соответствует обстановке, у вас есть еще один тревожный знак.
Эмоции - это самое сложное, что можно подделать, и самое простое, что можно обнаружить.
Если кто-то говорит бодро, сообщая плохие новости, или роботизированно, рассказывая глубоко личную историю, доверьтесь своим инстинктам. Синтетическая речь еще не овладела интонацией.
Глубокие подделки впечатляют. Но их нельзя обнаружить. Пока нет.
И если вы внимательно слушаете, то истина обычно кроется в деталях.
Как распознать поддельную фотографию
Дело в том, что фотографии глубокой подделки? Они часто безупречны в центре и становятся странными по краям.
Начнем с освещения.
В реальной жизни тени и блики подчиняются правилам.
Лицо, освещенное слева, должно соответствовать остальному окружению.
Но глубокие подделки не всегда понимают это.
Вы заметите тени, падающие в разные стороны, или освещение, которое кажется драматичным без всякой причины.
Один кадр. Один момент. Никакого движения для анализа. Именно поэтому такие подделки сложнее поймать.
Но вы все равно можете.
Посмотрите на глаза, затем на то, что в них отражается.
Если кто-то носит очки, вы должны видеть отражение мира: окна, свет, даже других людей.
Если это просто шум или странные пробелы, изображение может быть синтетическим.
Затем - кожа.
Настоящая человеческая кожа сложна: поры, текстура, цвет, даже иногда прыщи.
Глубокие подделки, как правило, слишком сильно сглаживают его. Не как фильтр, а скорее как будто кто-то отшлифовал его в Photoshop.
Все может выглядеть идеально, пока не изменится.
Если что-то кажется необычным, увеличьте масштаб. Осмотритесь. Доверьтесь дискомфорту.
Чем незаметнее сбой, тем увереннее подделка.
Советы по обнаружению вручную без инструментов
Чтобы поймать фальшивку, не нужны модные инструменты.
Глаз и ушей, если их использовать целенаправленно, часто бывает достаточно.
Доверьтесь своей интуиции. Если вам кажется, что что-то не так, то, скорее всего, так оно и есть.
Сравните содержимое с проверенными записями того же человека, особенно с его голосом, манерами и деталями лица.
Глубокие подделки обычно не замечают нюансов.
Замедляйте видео, чтобы уловить мелькающие детали или странные изменения освещения кадр за кадром.
Задайте вопрос об источнике: Кто разместил его первым? Почему? Качественные ролики, якобы снятые на низкокачественные устройства или найденные только в одном месте, должны вызывать недоумение.
Даже без метаданных или расширенного анализа большинство подделок оставляют после себя подсказки, если вы знаете, что искать.
Deepfake vs Cheapfake: Знайте разницу
Глубокие подделки
- Визуальные или звуковые эффекты, созданные искусственным интеллектом
- Подмена лица, клонирование голоса, синтетическая синхронизация губ
- Требуются данные для обучения и специализированные инструменты
- Зачастую их сложнее изготовить, но они более реалистичны
Дешевые подделки
- Без участия искусственного интеллекта
- Базовый монтаж: вырезать, обрезать, замедлить, кадрировать
- Реальный контент, неправильный контекст
- Легче обнаружить, но часто не замечают
Глубокие подделки основаны на передовых технологиях, а дешевые - на манипуляциях и обмане.
И те, и другие могут вас обмануть, но по разным причинам.
Дешевые подделки часто остаются незамеченными, потому что в них используется настоящий контент, искаженный лишь настолько, чтобы обмануть.
Знание того, с каким из них вы имеете дело, поможет вам быстрее обнаружить проблему и быть умнее в Интернете.
Инструменты, которые можно использовать для обнаружения подделок
В то время как Ручное обнаружение является ценнымСпециализированные инструменты позволяют выявлять синтетический контент, который может обмануть наблюдателей.
Эти инструменты используют алгоритмы машинного обучения, специально обученные распознавать контент, созданный искусственным интеллектом.
Для изображений попробуйте Undetectable AI's Детектор изображений AI чтобы оценить, содержит ли фотография синтетические элементы.
Этот инструмент анализирует множество аспектов создания изображения и может обнаружить тонкие артефакты, которые человеческий глаз не замечает.
Он особенно эффективен при распознавании лиц и объектов, созданных искусственным интеллектом.
Для всестороннего обнаружения глубоких подделок в различных типах медиа обратитесь к TruthScan. Детектор подделок.
Платформа сочетает в себе несколько алгоритмов обнаружения для анализа видео, фотографий и аудио на наличие признаков синтетической генерации.
Инструменты обратного поиска изображений, такие как Google Images, TinEye или Yandex, могут помочь проверить подлинность фотографии.
Если вы обнаружите, что одно и то же изображение используется в нескольких контекстах, или обнаружите, что оно циркулирует уже несколько лет, это говорит о возможных манипуляциях или злоупотреблениях.
Помните, что инструменты обнаружения не идеальны. Они могут давать ложные срабатывания (определяя реальный контент как поддельный) и ложные отрицательные результаты (пропуская настоящие подделки).
Используйте инструменты как часть более широкой стратегии проверки, а не как окончательное доказательство.
Что делать, если вы заподозрили глубокую подделку
Не делитесь ею и даже не развенчивайте ее.
Это может непреднамеренно увеличить его охват. Если вы считаете, что контент поддельный, сообщите о нем непосредственно на платформу. На большинстве сайтов есть инструменты для отметки синтетических медиа.
Проверка фактов через такие надежные источники, как Snopes или PolitiFact. Если информация еще не проверена, подумайте о том, чтобы отправить ее.
Сделайте скриншоты или сохраните ссылки до того, как контент исчезнет, - это может помочь журналистам или следователям в дальнейшем.
Предупредите свою сеть, но не перепостите фальшивку. Вместо этого сосредоточьтесь на обучении тому, как распознать фальшивку. Если за кого-то выдают себя, сообщите ему об этом.
Возможно, они захотят ответить или обратиться в суд.
Если фальшивки связаны с угрозами или преступлениями, сообщите о них в правоохранительные органы. Законы о синтетических СМИ набирают силу, и ваша подсказка может изменить ситуацию.
Начните исследовать - наши ИИ-детектор и гуманизатор ждут вас в виджете ниже!
Вопросы и ответы об обнаружении подделок
Можно ли обнаружить глубокие подделки в 100% случаев?
Нет. Даже самые лучшие инструменты многое упускают. Обнаружение лучше всего работает при совместном использовании инструментов ИИ, человеческого анализа и критического мышления.
Что делать, если кто-то меня подделал?
Сохраните доказательства. Сообщите об этом платформе. Если это вредно или незаконно, обратитесь к юристу. Во многих регионах сейчас действуют законы против злонамеренных подделок.
Как я могу помочь другим распознать подделку?
Сосредоточьтесь на осознании, а не на страхе. Обучайте навыкам наблюдения, приводите наглядные примеры и всегда напоминайте людям о необходимости проверять источники, прежде чем делиться информацией.
Размытые линии и пиксельная ложь
Глубокие подделки представляют собой одну из самых серьезных проблем для целостности информации в цифровую эпоху. Но они не волшебные.
Обладая необходимыми знаниями и инструментами, вы сможете защитить себя и других от синтетических медиа-манипуляций.
Помните о главных принципах: доверяйте своей интуиции, тщательно изучайте детали, проверяйте источники и используйте доступные инструменты.
Ищите несоответствия в освещении, движениях лиц, качестве звука и фоновых элементах. Обратите внимание на контекст и подумайте о мотивах подозрительного контента.
Технология будет развиваться. Подделки будут становиться все лучше, но и методы их обнаружения тоже будут совершенствоваться.
Будьте в курсе новых методик и инструментов. Делитесь своими знаниями с другими. Создайте сеть критически мыслящих людей, которые помогут выявлять синтетические медиа и бороться с ними.
Ваша бдительность имеет значение. Каждое фальшивое видео, которое вы поймали, каждое недостоверное изображение, которым вы не поделились, каждый человек, которого вы научили критически мыслить, делает интернет немного более надежным.
В мире, где технологии могут вложить слова в уста любого человека, ваш скептицизм и знания - мощное оружие против обмана.
Необнаруживаемый ИИ предлагает инструменты, которые помогут вам быстрее анализировать, задавать вопросы и проверять цифровой контент. Используйте их. Делитесь ими. Станьте причиной того, что дезинформация перестанет существовать вместе с вами.
Будущее информации зависит от того, сможем ли мы все лучше отличать реальность от вымысла.
Видеть уже не значит верить, но знать, что искать, еще можно.