Ключевые факты
- Технологический предприниматель Сици Чен выпустил открытый плагин 'Humanizer' для ИИ-ассистента Anthropic Claude Code на прошлых выходных.
- Плагин инструктирует ИИ-модель избегать 24 конкретных языковых и форматных паттернов, которые являются общими признаками текста, сгенерированного ИИ.
- Источником этих паттернов является руководство, созданное WikiProject AI Cleanup — группой волонтеров-редакторов Википедии, основанной французским редактором Ильясом Лебле.
- С момента своего основания в конце 2023 года проект пометил для проверки более 500 статей Википедии из-за подозрений в генерации ИИ.
- Плагин Humanizer был опубликован на GitHub и быстро завоевал популярность, набрав более 1 600 звезд за несколько дней после выпуска.
- WikiProject AI Cleanup опубликовал свой официальный список паттернов письма ИИ в августе 2025 года, предоставив структурированный ресурс для обнаружения.
Краткое изложение
Появился новый инструмент, который напрямую использует руководство, составленное сообществом для обнаружения ИИ, в качестве плана для уклонения. В субботу технологический предприниматель Сици Чен выпустил открытый плагин для ИИ-ассистента Anthropic Claude Code. Плагин, названный "Humanizer", предназначен для того, чтобы заставить ИИ-модель писать не так, как пишет ИИ-модель.
Инструмент основан не на проприетарных исследованиях, а на общедоступном списке языковых признаков. Он подает Клоду конкретный набор из 24 языковых и форматных паттернов, которые редакторы Википедии идентифицировали как признаки чат-бота. Это событие знаменует собой важный момент, когда руководство, созданное для обнаружения контента, сгенерированного ИИ, используется для того, чтобы помочь ИИ скрыть свои следы.
Плагин с определенной целью
Плагин Humanizer работает по простому, но эффективному принципу. Он предоставляет ИИ-ассистенту прямой список поведений, которых следует избегать в процессе написания. Ядром плагина является курируемый список из 24 различных паттернов, которые были замечены в тексте, сгенерированном ИИ. Инструктируя модель избегать этих конкретных маркеров, плагин стремится создавать вывод, который менее узнаваем как машинно-сгенерированный.
Чен опубликовал плагин на GitHub, где он быстро завоевал популярность в сообществе разработчиков. По состоянию на понедельник, репозиторий накопил более 1 600 звезд, что указывает на значительный интерес к инструменту, способному усовершенствовать текст, сгенерированный ИИ. Чен подчеркнул полезность исходного материала в посте на X.
"Действительно удобно, что Википедия собрала подробный список 'признаков письма ИИ'."
Он добавил: "Настолько, что можно просто сказать своему LLM... не делать этого". Успех плагина демонстрирует практическое применение обширной работы, проделанной онлайн-сообществами для выявления и каталогизации нюансов искусственного текста.
"Действительно удобно, что Википедия собрала подробный список 'признаков письма ИИ'. Настолько, что можно просто сказать своему LLM... не делать этого".
— Сици Чен, технологический предприниматель
Источник признаков
Основой для плагина Humanizer является всеобъемлющее руководство, разработанное WikiProject AI Cleanup — группой преданных редакторов Википедии. Эта команда волонтеров активно охотится за статьями, сгенерированными ИИ, в онлайн-энциклопедии с конца 2023 года. Их работа включает идентификацию, маркировку и проверку контента, который, по-видимому, создан языковыми моделями, а не людьми-писателями.
Проект был основан французским редактором Википедии Ильясом Лебле. Благодаря их коллективным усилиям волонтеры пометили для проверки более 500 статей. В августе 2025 года группа формализовала свои наблюдения, опубликовав подробный список паттернов, с которыми они постоянно сталкивались. Этот список служит определяющим руководством для обнаружения письма ИИ, охватывая ряд языковых и форматных особенностей.
- Повторяющиеся структуры предложений
- Чрезмерно формальная или общая фразеология
- Конкретные форматные несоответствия
- Необычные паттерны выбора слов
Эта кропотливая работа по каталогизации превратила разрозненные наблюдения в структурированное руководство, которое теперь стало ядром набора инструкций для инструмента уклонения от ИИ.
Гонка вооружений в тексте
Выпуск плагина Humanizer иллюстрирует новую фазу в продолжающейся динамике между обнаружением ИИ и генерацией ИИ. На протяжении многих лет исследователи и онлайн-сообщества работали над созданием инструментов и руководств для идентификации машинно-генерированного контента. Работа WikiProject AI Cleanup представляет собой значительный, краудсорсинговый вклад в эту область обнаружения.
Теперь эта же работа используется для усовершенствования самой технологии, которую она стремилась идентифицировать. Плагин не изобретает новые техники уклонения; вместо этого он систематически применяет знания, полученные со стороны обнаружения. Это создает петлю обратной связи, где акт определения того, что делает текст "похожим на ИИ", напрямую информирует о том, как сделать его более человеческим.
Эта динамика предполагает, что по мере усложнения методов обнаружения будут усложняться и методы обхода. Список признаков, созданный сообществом, больше не просто инструмент для редакторов — он стал учебным пособием для ИИ-моделей, стремящихся слиться с окружающей средой. Граница между обнаружением и обманом продолжает размываться.
Ключевые выводы
Это событие подчеркивает развивающиеся отношения между кураторами-людями и искусственным интеллектом. Совместные усилия редакторов Википедии создали ресурс, достаточно ценный, чтобы быть перепрофилированным для совершенно другой, и в некоторой степени противоположной, цели. Это демонстрирует силу открытых знаний и их потенциальные применения.
История не только о новом плагине, но и о более широких последствиях грамотности в области ИИ. По мере того как текст, сгенерированный ИИ, становится все более распространенным, способность как обнаруживать его, так и усовершенствовать его будет становиться все более важной. Плагин Humanizer является осязаемым примером этой двойственной реальности, где одна и та же информация может использоваться либо для маркировки контента, либо для его полировки.
В конечном счете, быстрое принятие плагина сигнализирует о явном спросе на инструменты, способные сгладить края текста, сгенерированного ИИ. Он представляет собой практический шаг к будущему, где человеческие и машинные стили письма могут стать все труднее различимыми, направляемые именно теми списками, которые были созданы для их разграничения.
Часто задаваемые вопросы
Что такое плагин 'Humanizer'?
'Humanizer' — это открытый плагин для ИИ-ассистента Anthropic Claude Code. Он работает, предоставляя ИИ список из 24 конкретных языковых и форматных паттернов, которых следует избегать, помогая модели производить текст, который менее узнаваем как машинно-сгенерированный.
Откуда взялся список паттернов письма ИИ?
Список был составлен WikiProject AI Cleanup — группой волонтеров-редакторов Википедии. Проект, основанный французским редактором Ильясом Лебле, идентифицирует и каталогизирует контент, сгенерированный ИИ, с конца 2023 года и опубликовал официальное руководство в августе 2025 года.
Почему этот плагин значим?
Он представляет собой прямое применение руководства по обнаружению ИИ для цели уклонения. Плагин превращает руководство, составленное сообществом для обнаружения текста ИИ, в инструмент, помогающий ИИ избежать обнаружения, подчеркивая продолжающуюся гонку вооружений между генерацией и идентификацией ИИ.
Как был принят плагин?
Плагин был опубликован на GitHub и быстро привлек значительное внимание технологического сообщества. В течение нескольких дней после выпуска он накопил более 1 600 звезд, что указывает на сильный интерес к инструментам, способным усовершенствовать и "очеловечить" текст, сгенерированный ИИ.










