"Делать контент, сгенерированный ИИ, более человечным"
"Делать контент, сгенерированный ИИ, более человечным"
Мы серьёзно относимся к этике ИИ. На этой странице мы чётко излагаем нашу позицию, меры предосторожности и предполагаемое использование наших программных продуктов.
Будем прямы: использовать наши инструменты, чтобы причинить вред себе или другим, — неправильно. Мы не одобряем неэтичное использование систем ИИ. Эта страница объясняет, что допустимо, а что нет. Прежде всего ознакомьтесь с нашими Условия использования (особенно с разделом «Запрещённое использование»).
Мы запустили Undetectable AI с постоянной целью: помогать людям создавать контент, который воспринимается как аутентичный.
ИИ может (и используется) для выравнивания возможностей для людей в неравном положении.
Сегодня малый предприниматель без бюджета на копирайтера может использовать искусственный интеллект для этой роли.
Проблема в том, что текст ИИ часто слаб. Если вы следите за большими языковыми моделями, вы понимаете. Гуманизация делает текст более «живым».
Владелец малого бизнеса, который не мог конкурировать? Теперь может.
Человек, который не печатает на клавиатуре и использует ИИ для общения, больше не ограничен «звучать как ChatGPT».
Это лишь несколько примеров использования, которые дают нам надежду и чистую совесть.
Наш гуманизатор мощный. Мы видели этичное и неэтичное использование. Undetectable не заменяет авторов; он помогает тем, у кого нет авторов.
Здесь мы подробно определяем нашу этическую позицию по всем продуктам — особенно спорным — а также размышления о регулировании, мерах предосторожности и управлении.
Наш первый флагманский продукт — ИИ-гуманизатор — самый популярный. Алгоритм переписывает текст так, как это сделал бы человек; гуманизированный текст реже определяется как сгенерированный ИИ.
Пользователи не хотят, чтобы контент казался жёстким или роботизированным. Есть добрые и дурные намерения. Каковы этичные и допустимые способы использования нашего гуманизатора? Несколько примеров в таблице ниже:
Допустимое использование
Недопустимое использование
Каждый допустимый случай гуманизации должен укладываться в «когда использование ИИ-текста не запрещено». Гуманизатор должен улучшать контент и коммуникацию — укреплять доверие, а не предавать его.
При этом есть случаи обхода детекции, которые мы считаем допустимыми.
Этично / Допустимо
Неэтично / Недопустимо
В первом примере не было «грубого нарушения доверия». Во втором оно было, плюс обход правил «без ИИ» — это неправильно.
У нас есть пользователи, которым по разным причинам нужно создавать контент, не помечаемый как ИИ; ИИ разрешён, но качество должно быть человеческим.
Когда люди верят, что контент создан ИИ (даже если нет), они меньше доверяют.
Исследование Нюрнбергский институт рыночных решений (NIM) показало, что контент, описанный как созданный ИИ, воспринимался негативнее, чем тот же контент, представленный как человеческий. Люди реже кликали по продуктам в объявлениях, сгенерированных ИИ.
Есть слова и стили, ассоциируемые с ИИ — например длинное тире «—» или слова вроде «delve», «realm».
Это глубже. Мы выявили сотни паттернов, характерных для ИИ-текста.
Люди тоже показывают эти паттерны. Многим авторам проще «гуманизировать», чем полностью менять стиль — чтобы сохранить доверие.
Как указано в наших Условия использования, мы не разрешаем людям «осуществлять любое автоматизированное использование системы, например скрипты для комментариев или сообщений, майнинг данных, роботы или аналогичные инструменты».
За спам мы заблокировали более 7000 пользователей. Чат-боты используют наш API гуманизации, но помечены и не выдают себя за людей.
Неодобренные автоматизации легко пресекать. При агентных ИИ (например clawdbot) нулевая терпимость, если боты выдают себя за реальных людей. Мы следим.
Мы никогда не терпим списывание. Модерация проверяет регистрации .edu.
Конфиденциальность важна; мы не обвиняем, если есть разумные сомнения. Некоторые студенты будут использовать ИИ для эссе. Если вы студент: полная передача мышления ИИ вредит вам.
Иногда слышим, что наше ПО «облегчает списывание». Списывание — симптом большей проблемы. Наше ПО также помогает этичным пользователям в аутентичной коммуникации.
То, что злоумышленник может злоупотребить, не отменяет положительные применения гуманизатора.
Мы открыты к диалогу с академическим сообществом и стремимся минимизировать вред.
Есть студенты, использующие гуманизатор не для списывания, а чтобы защититься от ложных обвинений детекции ИИ (ложные срабатывания). Подробнее в разделе детектора.
Мы обнаруживаем автоматизированный контент и ботов, а также регистрации .edu. Внутренние точки модерации обеспечивают соблюдение правил. Ограничения сводятся к конфиденциальности.
Конфиденциальность уступает только при прямой угрозе безопасности или по судебному решению США. Наши действия направлены на правонарушения или прямой физический вред.
Раскрытие многогранно; главный фактор — требование (внутренняя политика, нормы, законы, условия).
Мы не считаем, что все морально обязаны раскрывать использование ИИ.
Без соглашения об управлении ИИ и без законного требования нет морального долга раскрывать, по нашему мнению.
Уточнение: мы придерживаемся стандарта «грубые нарушения доверия.»
Это не грубое нарушение доверия
Кто-то с помощью ИИ готовит статью, проверяет факты, редактирует, добавляет экспертизу и публикует под своим именем без указания ИИ.
Это грубое нарушение доверия
Кто-то просит чат-бота статью о XYZ без экспертизы, без проверки и публикует как эксперта.
В раскрытии использования ИИ для нас важен контекст. Есть пользователи, которым по желанию важно раскрывать все инструменты, другие не раскрывают. Контекст и способ использования определяют этику.
Мы поддерживаем политики управления ИИ; у каждой компании они должны быть. Без внутренних правил по использованию ИИ (раскрытие, допустимые/недопустимые случаи) есть слепая зона.
Плохие данные из инструментов ИИ или сотрудники, передающие данные в небезопасные системы — атрибуция эффектов логична. Инструменты новые; некоторые не думают о том, чем делятся.
Наша внешняя политика (допустимое/недопустимое использование инструмента) определена в наших Условия использования. Внутри мы поддерживаем управление ИИ во всех отделах.
Второй по популярности инструмент — детектор текста ИИ. Как и с гуманизатором, есть правильные и неправильные способы.
Обнаружение текста в текущем виде само по себе недостаточно для объективного исключения использования ИИ в тексте с абсолютной уверенностью. Современные детекторы (включая наш) анализируют структуру и синтаксис.
Процент ИИ — это вероятность. Как стилометрия — отправная точка расследования, не единственное доказательство мошенничества.
Эти примеры иллюстрируют:
Надеемся, эти примеры проясняют: детектор текста ИИ должен быть вспомогательным инструментом в расследовании. Одно срабатывание не является доказательством сверх разумного сомнения.
В академических или профессиональных расследованиях детекция должна быть вторичным или третичным доказательством. Один балл недостаточен.
Сначала была «консенсусная» модель (2023): 8 моделей, имитирующих крупные детекторы.
Некоторые модели искажали консенсус (5/8 = вероятно ИИ).
Мы удалили неточные модели с ростом ML/исследований.
Сегодня один агрегированный балл, несколько слоёв; избегаем путаницы с другими инструментами, меняющими бета-версии.
Мы не хотели живой замены других детекторов. «Чёрный ящик» становится «понятной» и «измеримой» наукой.
Лингвистическая энтропия и перплексия как метрики.
Большие модели предсказуемы на уровне токенов; ниже перплексия.
Инструменты вроде нашего гуманизатора могут обманывать детекторы.
Детекторы ошибочны; полезны, но не оракул. Мы не одобряем обвинения только по детекции.
Лучше надёжный детектор, чем никакого — важны использование и понимание.
Гуманизация и детекция выполняют разные роли. Ясно, что угроза текста, сгенерированного ИИ, намного меньше, чем у других форматов контента ИИ.
Мы исследуем мошенничество с ИИ: предотвращение, обнаружение, реальные риски изображений, видео и аудио.
Мы никогда не будем производить или терпеть необнаруживаемые deepfake. С 2024 года проектируем инструменты обнаружения — фокус TruthScan, сестринская организация для изображений, аудио и видео.
В отличие от текста, медиа дают больше данных для анализа. Наши команды могут решить дилемму обнаружения.
У Undetectable AI и TruthScan свои отделы; приоритет — помочь TruthScan ограничить ущерб от deepfake.
Проект TruthScan родился из желания помогать людям и решать реальные проблемы. Каждый платящий пользователь Undetectable финансирует борьбу TruthScan с вредоносными deepfake ИИ.
Наша постоянная цель: расти, учиться и помогать строить лучший мир для всех.