M
MercyNews
HomeCategoriesTrendingAbout
M
MercyNews

Your trusted source for the latest news and real-time updates from around the world.

Categories

  • Technology
  • Business
  • Science
  • Politics
  • Sports

Company

  • About Us
  • Our Methodology
  • FAQ
  • Contact
  • Privacy Policy
  • Terms of Service
  • DMCA / Copyright

Stay Updated

Subscribe to our newsletter for daily news updates.

Mercy News aggregates and AI-enhances content from publicly available sources. We link to and credit original sources. We do not claim ownership of third-party content.

© 2025 Mercy News. All rights reserved.

PrivacyTermsCookiesDMCA
Главная
Технологии
Закон «No Fakes Act»: требование к цифровым отпечаткам угрожает открытому исходному коду
ТехнологииПолитика

Закон «No Fakes Act»: требование к цифровым отпечаткам угрожает открытому исходному коду

9 января 2026 г.•4 мин чтения•745 words
No Fakes Act Fingerprinting Threatens Open Source
No Fakes Act Fingerprinting Threatens Open Source
📋

Ключевые факты

  • Законопроект «No Fakes Act» требует внедрения системы «цифровых отпечатков» для цифрового контента.
  • Модели ИИ с открытым исходным кодом, обученные на данных с отпечатками, могут считаться незаконными для распространения.
  • Законопроект создает высокие риски ответственности для индивидуальных разработчиков и небольших организаций.
  • Крупные корпорации лучше подготовлены к соблюдению технических и юридических требований.

Краткая сводка

Законопроект No Fakes Act предлагает обязательную систему «цифровых отпечатков» для цифрового контента, чтобы предотвратить несанкционированное использование внешности или голоса человека. Хотя цель состоит в борьбе с дипфейками, техническая реализация создает серьезные проблемы для искусственного интеллекта (ИИ) с открытым исходным кодом. Законопроект предписывает, чтобы весь цифровой контент содержал скрытый сигнал, указывающий на его происхождение и права на использование.

Основная проблема заключается в том, как это требование взаимодействует с данными для обучения ИИ. Модели ИИ с открытым исходным кодом обучаются на массивных наборах данных, собранных из интернета. Если эти данные включают контент с цифровыми отпечатками, результирующая модель ИИ фактически поглощает этот отпечаток. Согласно предлагаемому закону, распространение модели, содержащей защищенные отпечатки, может рассматриваться как торговля контрафактной продукцией. Это создает юридическую «мину» для разработчиков, которые не могут гарантировать, что их обучающие данные на 100% свободны от таких встроенных сигналов. Результатом становится де-факто запрет на ИИ с открытым исходным кодом, так как риск ответственности становится неуправляемым для частных лиц и небольших организаций.

Понимание ловушки «цифровых отпечатков»

No Fakes Act опирается на технический стандарт для верификации контента. Этот стандарт встраивает невидимый «отпечаток» в аудио и видео файлы. Этот отпечаток спроектирован так, чтобы быть устойчивым: он сохраняется после редактирования, сжатия и повторной загрузки. Цель состоит в том, чтобы позволить правообладателям отслеживать свой контент и доказывать владение или несанкционированное использование.

Однако этот механизм создает ловушку для моделей машинного обучения. Когда модель ИИ обучается, она изучает закономерности входных данных. Если входные данные содержат эти устойчивые отпечатки, модель учится распознавать и потенциально воспроизводить эти закономерности. С юридической точки зрения это означает, что сама модель содержит защищенные данные.

Законопроект фактически превращает модель ИИ в носитель защищенного «отпечатка». Это превращает модель с открытым исходным кодом в вектор потенциального нарушения прав, независимо от фактических возможностей модели или намерений разработчика.

Влияние на разработку с открытым исходным кодом

Разработка ИИ с открытым исходным кодом основывается на свободе использования, модификации и распространения кода и моделей. No Fakes Act подрывает это, вводя юридическую неопределенность. Разработчики моделей с открытым исходным кодом, такие как те, что находятся на платформах вроде сообществ Reddit или LocalLLaMA, работают с ограниченными ресурсами. У них нет юридических отделов, необходимых для навигации по сложным ландшафтам авторского права.

Требование отфильтровывать данные с отпечатками технически невозможно для большинства проектов с открытым исходным кодом. Интернет, основной источник обучающих данных, будет переполнен контентом с отпечатками. Нельзя разумно ожидать от разработчика, что он очистит каждый байт данных от этих скрытых сигналов.

Это приводит к охлаждающему эффекту для инноваций:

  • Риски ответственности: Разработчики сталкиваются с исками за распространение моделей, которые непреднамеренно содержат отпечатки.
  • Барьеры для входа: Только крупные корпорации с огромными юридическими и техническими ресурсами могут соответствовать нормативным требованиям.
  • Цензура: Модели могут быть вынуждены блокировать запросы или отказываться генерировать контент, напоминающий данные с отпечатками, что ограничивает полезность.

Корпоративное преимущество 🏢

No Fakes Act непропорционально выгоден крупным технологическим корпорациям. Компании, такие как те, что участвуют в стартапах Y Combinator, или гиганты «большой четверки» имеют капитал для лицензирования контента или создания проприетарных наборов данных, соответствующих мандату на цифровые отпечатки. Они могут позволить себе внедрить строгие системы фильтрации и поглотить стоимость потенциальных судебных разбирательств.

В отличие от этого, демократизация ИИ через открытый исходный код оказывается под угрозой. Ловушка с «цифровыми отпечатками» гарантирует, что самые мощные модели ИИ останутся под контролем тех, кто может обойти нормативные препятствия. Эта централизация власти ИИ противоречит этике движения за открытый исходный код, которое стремится сделать передовые технологии доступными для всех.

Делая распространение с открытым исходным кодом юридически опасным, законопроект фактически передает будущее генеративного ИИ в руки избранной горстки «сторожевых псов».

Заключение

No Fakes Act представляет собой значительный вызов для будущего ИИ с открытым исходным кодом. Хотя защита внешности частного лица является обоснованной проблемой, предлагаемый механизм «цифровых отпечатков» создает техническую и юридическую ловушку. Он делает распространение моделей с открытым исходным кодом фактически незаконным из-за невозможности отфильтровать обучающие данные.

Этот законопроект угрожает подавить инновации и доступность, которые определяют сообщество с открытым исходным кодом. Без четкого исключения для ИИ с открытым исходным кодом или технического решения, которое не наказывает за обучение моделей, законопроект рискует уничтожить ту самую экосистему, которая движет быстрым прогрессом в этой области. Эта дискуссия подчеркивает острую необходимость в взвешенном законодательстве, которое балансирует между защитой и свободой инноваций.

Оригинальный источник

Hacker News

Оригинальная публикация

9 января 2026 г. в 05:01

Эта статья была обработана ИИ для улучшения ясности, перевода и читабельности. Мы всегда ссылаемся на оригинальный источник.

Перейти к оригиналу

Поделиться

Advertisement

Похожие статьи

AI Transforms Mathematical Research and Proofstechnology

AI Transforms Mathematical Research and Proofs

Artificial intelligence is shifting from a promise to a reality in mathematics. Machine learning models are now generating original theorems, forcing a reevaluation of research and teaching methods.

May 1·4 min read
German Chancellor Merz Begins First State Visit to Indiapolitics

German Chancellor Merz Begins First State Visit to India

German Chancellor Merz is in India for his first state visit since taking office. The trip comes weeks before the planned signing of a long-awaited free trade agreement between India and the EU.

Jan 12·4 min read
Motional Targets 2026 for Las Vegas Robotaxi Launchtechnology

Motional Targets 2026 for Las Vegas Robotaxi Launch

Motional has announced plans to launch a driverless robotaxi service in Las Vegas before the end of 2026. The company is placing artificial intelligence at the center of its reboot strategy.

Jan 12·5 min read
Ex-McKinsey Consultant Builds AI Healthtech Startuptechnology

Ex-McKinsey Consultant Builds AI Healthtech Startup

Julius Bruch, former McKinsey consultant, discusses leaving corporate life to build Isaac Health. He shares insights on unlearning perfection, scaling challenges, and securing $16.3 million in funding.

Jan 12·5 min read