Ключевые факты
- Законопроект «No Fakes Act» требует внедрения системы «цифровых отпечатков» для цифрового контента.
- Модели ИИ с открытым исходным кодом, обученные на данных с отпечатками, могут считаться незаконными для распространения.
- Законопроект создает высокие риски ответственности для индивидуальных разработчиков и небольших организаций.
- Крупные корпорации лучше подготовлены к соблюдению технических и юридических требований.
Краткая сводка
Законопроект No Fakes Act предлагает обязательную систему «цифровых отпечатков» для цифрового контента, чтобы предотвратить несанкционированное использование внешности или голоса человека. Хотя цель состоит в борьбе с дипфейками, техническая реализация создает серьезные проблемы для искусственного интеллекта (ИИ) с открытым исходным кодом. Законопроект предписывает, чтобы весь цифровой контент содержал скрытый сигнал, указывающий на его происхождение и права на использование.
Основная проблема заключается в том, как это требование взаимодействует с данными для обучения ИИ. Модели ИИ с открытым исходным кодом обучаются на массивных наборах данных, собранных из интернета. Если эти данные включают контент с цифровыми отпечатками, результирующая модель ИИ фактически поглощает этот отпечаток. Согласно предлагаемому закону, распространение модели, содержащей защищенные отпечатки, может рассматриваться как торговля контрафактной продукцией. Это создает юридическую «мину» для разработчиков, которые не могут гарантировать, что их обучающие данные на 100% свободны от таких встроенных сигналов. Результатом становится де-факто запрет на ИИ с открытым исходным кодом, так как риск ответственности становится неуправляемым для частных лиц и небольших организаций.
Понимание ловушки «цифровых отпечатков»
No Fakes Act опирается на технический стандарт для верификации контента. Этот стандарт встраивает невидимый «отпечаток» в аудио и видео файлы. Этот отпечаток спроектирован так, чтобы быть устойчивым: он сохраняется после редактирования, сжатия и повторной загрузки. Цель состоит в том, чтобы позволить правообладателям отслеживать свой контент и доказывать владение или несанкционированное использование.
Однако этот механизм создает ловушку для моделей машинного обучения. Когда модель ИИ обучается, она изучает закономерности входных данных. Если входные данные содержат эти устойчивые отпечатки, модель учится распознавать и потенциально воспроизводить эти закономерности. С юридической точки зрения это означает, что сама модель содержит защищенные данные.
Законопроект фактически превращает модель ИИ в носитель защищенного «отпечатка». Это превращает модель с открытым исходным кодом в вектор потенциального нарушения прав, независимо от фактических возможностей модели или намерений разработчика.
Влияние на разработку с открытым исходным кодом
Разработка ИИ с открытым исходным кодом основывается на свободе использования, модификации и распространения кода и моделей. No Fakes Act подрывает это, вводя юридическую неопределенность. Разработчики моделей с открытым исходным кодом, такие как те, что находятся на платформах вроде сообществ Reddit или LocalLLaMA, работают с ограниченными ресурсами. У них нет юридических отделов, необходимых для навигации по сложным ландшафтам авторского права.
Требование отфильтровывать данные с отпечатками технически невозможно для большинства проектов с открытым исходным кодом. Интернет, основной источник обучающих данных, будет переполнен контентом с отпечатками. Нельзя разумно ожидать от разработчика, что он очистит каждый байт данных от этих скрытых сигналов.
Это приводит к охлаждающему эффекту для инноваций:
- Риски ответственности: Разработчики сталкиваются с исками за распространение моделей, которые непреднамеренно содержат отпечатки.
- Барьеры для входа: Только крупные корпорации с огромными юридическими и техническими ресурсами могут соответствовать нормативным требованиям.
- Цензура: Модели могут быть вынуждены блокировать запросы или отказываться генерировать контент, напоминающий данные с отпечатками, что ограничивает полезность.
Корпоративное преимущество 🏢
No Fakes Act непропорционально выгоден крупным технологическим корпорациям. Компании, такие как те, что участвуют в стартапах Y Combinator, или гиганты «большой четверки» имеют капитал для лицензирования контента или создания проприетарных наборов данных, соответствующих мандату на цифровые отпечатки. Они могут позволить себе внедрить строгие системы фильтрации и поглотить стоимость потенциальных судебных разбирательств.
В отличие от этого, демократизация ИИ через открытый исходный код оказывается под угрозой. Ловушка с «цифровыми отпечатками» гарантирует, что самые мощные модели ИИ останутся под контролем тех, кто может обойти нормативные препятствия. Эта централизация власти ИИ противоречит этике движения за открытый исходный код, которое стремится сделать передовые технологии доступными для всех.
Делая распространение с открытым исходным кодом юридически опасным, законопроект фактически передает будущее генеративного ИИ в руки избранной горстки «сторожевых псов».
Заключение
No Fakes Act представляет собой значительный вызов для будущего ИИ с открытым исходным кодом. Хотя защита внешности частного лица является обоснованной проблемой, предлагаемый механизм «цифровых отпечатков» создает техническую и юридическую ловушку. Он делает распространение моделей с открытым исходным кодом фактически незаконным из-за невозможности отфильтровать обучающие данные.
Этот законопроект угрожает подавить инновации и доступность, которые определяют сообщество с открытым исходным кодом. Без четкого исключения для ИИ с открытым исходным кодом или технического решения, которое не наказывает за обучение моделей, законопроект рискует уничтожить ту самую экосистему, которая движет быстрым прогрессом в этой области. Эта дискуссия подчеркивает острую необходимость в взвешенном законодательстве, которое балансирует между защитой и свободой инноваций.




