OpenAI внедрила скрытые водяные знаки в ChatGPT: как это работает и почему это не спасает от плагиата
Весной 2025 года стало известно о новой скрытой технологии в моделях GPT-4o и GPT-4o-mini от OpenAI: в тексты, генерируемые ChatGPT, были внедрены так называемые невидимые водяные знаки. Это нововведение было направлено на борьбу с плагиатом и отслеживание происхождения контента. Однако уже сейчас эффективность этой меры вызывает споры как в профессиональном сообществе, так и среди обычных пользователей.
Что такое водяные знаки в тексте и как они устроены
В отличие от классических визуальных водяных знаков, применяемых к изображениям или видео, в случае ChatGPT речь идёт о невидимых символах Unicode. Исследователи обнаружили, что модели вставляют в текст узкий неразрывный пробел (U+202F) и другие редкие символы, которые:
-
не отображаются в стандартных текстовых редакторах;
-
не видны при обычном просмотре текста;
-
могут быть распознаны только при помощи специальных программ или просмотра «невидимых» символов в редакторах кода (например, Sublime Text или Visual Studio Code).
Иными словами, ChatGPT не помечает сгенерированный текст визуально — он незаметно встраивает цифровой след, по которому можно определить, что текст был создан ИИ.
Как это обнаружили
Информация стала публичной после того, как аналитики компании Rumi провели исследование текстов, созданных новой моделью ChatGPT. Они обратили внимание на аномальные пробелы и символы, которые не вводятся вручную. Эти элементы оказались системными маркерами — водяными знаками от OpenAI. Специального анонса от самой компании не было, однако ряд экспертов подтвердили: технология действительно встроена в последние версии GPT-моделей.
Почему это не работает эффективно
Хотя идея кажется прогрессивной, водяные знаки можно удалить за несколько секунд. Достаточно воспользоваться функцией «найти и заменить» в любом текстовом редакторе, указав символ U+202F или подобные ему. В интернете уже появились инструкции и даже готовые скрипты, которые автоматически очищают текст от таких знаков.
Таким образом, защита работает только против неосведомлённых пользователей, которые не догадываются о присутствии таких символов в тексте. Те же, кто в курсе, могут воспользоваться любым способом очистки и сдать текст как полностью оригинальный.
Почему это вызывает опасения у студентов и преподавателей
OpenAI предоставляет бесплатный доступ к ChatGPT для студентов до конца мая 2025 года — как раз в сезон сдачи курсовых и дипломных работ. Многие учащиеся пользуются генератором текста, даже не подозревая о водяных знаках. В результате преподаватели, проверяя работу на наличие ИИ-контента, могут обнаружить маркеры, встроенные в текст, и заподозрить в плагиате.
Проблема в том, что такая проверка не всегда объективна — ведь текст может быть переформулирован, адаптирован или дополнен вручную, но водяные знаки при этом сохраняются. Возникает вопрос: является ли такая работа полностью сгенерированной машиной? Или это инструмент в руках студента?
Мнения пользователей и экспертов
Реакция на внедрение водяных знаков оказалась неоднозначной:
-
Положительная — сторонники считают это шагом к честному использованию ИИ. Если контент помечен, значит, его происхождение прозрачно.
-
Нейтральная — многие пользователи считают, что встроенные знаки не мешают, а убирать их — личное дело каждого.
-
Критическая — эксперты указывают, что маркеры не защищены и не способны остановить распространение неавторских текстов. Более того, они могут дискредитировать добросовестных пользователей.
Кроме того, некоторые преподаватели начали использовать детекторы невидимых символов, что порождает новый виток «гонки вооружений» между системами генерации и системами обнаружения.
Что дальше
По словам исследователей, OpenAI может в будущем внедрить более сложные механизмы, включая криптографические метаданные и уникальные текстовые паттерны, устойчивые к редактированию. Однако пока таких технологий нет в открытом доступе, и борьба с несанкционированным использованием ChatGPT остаётся во многом символической.
Также стоит отметить, что внедрение таких маркеров ставит под вопрос этичность контроля. Ведь пользователь часто не предупреждён, что его текст маркируется. Это вызывает дискуссии о прозрачности и праве на анонимность при использовании ИИ-инструментов.
Вывод
Скрытые водяные знаки в тексте — это интересная, но пока неэффективная попытка контролировать происхождение ИИ-контента. Пока что система легко обходится, а значит, её нельзя рассматривать как полноценный барьер против плагиата.
Тем не менее, сам факт внедрения таких меток говорит о векторе развития: в ближайшие годы генерация текста и его проверка будут всё теснее интегрированы. И пользователям, и разработчикам предстоит найти баланс между свободой использования ИИ и честным соблюдением авторства.