Ключевые факты
- Тобиас Осборн — профессор теоретической физики в Ганноверском университете имени Лейбница и соучредитель научно-коммуникационной компании Innovailia.
- Закон об ИИ Европейского союза — это всеобъемлющий регуляторный框架, который будет поэтапно внедрять более строгие правила до 2026 года.
- Осборн утверждает, что дебаты о сверхразумных машинах и гипотетической «сингулярности» стали опасным отвлечением внимания от сегодняшнего вреда.
- Он выделяет эксплуатацию низкооплачиваемых разметчиков данных и массовый сбор защищенных авторским правом работ как ключевые упущенные риски.
- Осборн описывает утверждения о неконтролируемом взрыве интеллекта как «религиозную эсхеологию, одетую в научный язык».
Дистопия уже здесь
Пока технологическая индустрия и политики спорят о том, может ли искусственный интеллект когда-либо угрожать выживанию человечества, профессор физики утверждает, что эта одержимость будущими катастрофами позволяет компаниям уклоняться от ответственности за реальный вред, который их технологии уже наносят.
В недавнем эссе Тобиас Осборн, профессор теоретической физики в Ганноверском университете имени Лейбница и соучредитель научно-коммуникационной компании Innovailia, утверждает, что дебаты о сверхразумных машинах и гипотетической «сингулярности» стали опасным отвлечением внимания.
Апокалипсис не наступает. Вместо этого дистопия уже здесь.
Осборн утверждает, что пока технологи спорят об экзистенциальных рисках, индустрия наносит «реальный вред прямо сейчас. Сегодня. Измеримый».
Как нарративы апокалипсиса ослабляют надзор
Дебаты об ИИ всё больше формируются сценариями апокалипсиса, включая предупреждения о том, что сверхразумные системы могут истребить человечество по замыслу или по ошибке. Эти страхи усиливаются видными исследователями ИИ, технологическими лидерами и правительственными докладами.
Осборн утверждает, что эта одержимость имеет конкретный эффект на регулирование и подотчётность. Позиционируя себя как защитников от цивилизационной катастрофы, компании ИИ рассматриваются как акторы национальной безопасности, а не как продавцы продуктов.
Позиционируя себя как защитников от цивилизационной катастрофы, компании ИИ рассматриваются как акторы национальной безопасности, а не как продавцы продуктов, что размывает ответственность и препятствует обычному регулированию.
Этот сдвиг позволяет компаниям внешнее вредоносное воздействие, получая при этом преимущества от регуляторной снисходительности, секретности и государственных субсидий. Нарративы в стиле апокалипсиса сохраняются, говорит Осборн, потому что их легко продавать, сложно опровергнуть и они помогают переложить корпоративные риски на общество.
"Апокалипсис не наступает. Вместо этого дистопия уже здесь."
— Тобиас Осборн, профессор теоретической физики, Ганноверский университет имени Лейбница
Упущенный вред сегодняшнего дня
В своем эссе Осборн представляет длинный список сегодняшнего вреда, который, по его мнению, отодвигается на второй план из-за дебатов о будущем. К ним относятся:
- Эксплуатация низкооплачиваемых работников, размечающих данные для обучения ИИ
- Массовый сбор произведений художников и писателей без согласия
- Экологические затраты энергоемких центров обработки данных
- Психологический вред, связанный с использованием чат-ботов
- Наводнение контента, сгенерированного ИИ, что усложняет поиск достоверной информации
Он также критикует популярную идею о том, что ИИ стремится к неконтролируемому взрыву интеллекта. В эссе Осборн описал такие утверждения как «религиозную эсхеологию, одетую в научный язык», говоря, что такие сценарии рушатся при столкновении с физическими ограничениями.
Это не инженерные проблемы, ожидающие умных решений. Это следствия физики.
Регуляторное расхождение
Регуляторный ландшафт движется в противоположных направлениях. В то время как Европейский союз начал внедрять Закон об ИИ — всеобъемлющий регуляторный框架, который будет поэтапно внедрять более строгие правила до 2026 года, — Соединенные Штаты придерживаются другого подхода.
Федеральные усилия в США сосредоточены на ограничении регулирования ИИ на уровне штатов и сохранении национальных стандартов «минимально обременительными». Это расхождение подчеркивает глобальный вызов, связанный с решением как проблемы инноваций, так и проблемы подотчётности.
Критика Осборна предполагает, что без сдвига фокуса регуляторные рамки могут продолжать отдавать приоритет спекулятивным рискам по сравнению с измеримым, сегодняшним вредом.
Призыв к подотчётности
Осборн не против самого ИИ. В своем эссе он подчеркивает реальные преимущества, которые могут предложить большие языковые модели, особенно для людей с ограниченными возможностями, которые испытывают трудности с письменным общением.
Однако он предупреждает, что без подотчётности эти преимущества рискуют быть затененными системным вредом. Вместо того чтобы сосредотачиваться на спекулятивных угрозах будущего, политики должны применять существующие законы о ответственности за продукт и о заботе к системам ИИ, говорит Осборн.
Реальные проблемы — это самые обычные, самые человеческие проблемы власти, подотчётности и того, кто решает, как эти системы строить и развертывать.
Заставляя компании брать на себя ответственность за реальные последствия своих инструментов, общество может гарантировать, что преимущества ИИ не будут потеряны из-за неконтролируемой корпоративной власти.
"Позиционируя себя как защитников от цивилизационной катастрофы, компании ИИ рассматриваются как акторы национальной безопасности, а не как продавцы продуктов, что размывает ответственность и препятствует обычному регулированию."
— Тобиас Осборн, профессор теоретической физики, Ганноверский университет имени Лейбница
"Это не инженерные проблемы, ожидающие умных решений. Это следствия физики."
— Тобиас Осборн, профессор теоретической физики, Ганноверский университет имени Лейбница
"Реальные проблемы — это самые обычные, самые человеческие проблемы власти, подотчётности и того, кто решает, как эти системы строить и развертывать."
— Тобиас Осборн, профессор теоретической физики, Ганноверский университет имени Лейбница
Часто задаваемые вопросы
Какое главное утверждение выдвигает Тобиас Осборн?
Тобиас Осборн утверждает, что сосредоточение на будущих сценариях апокалипсиса ИИ отвлекает регуляторов и позволяет компаниям уклоняться от ответственности за реальный вред, происходящий сегодня. Он утверждает, что дебаты о сверхразумных машинах стали опасным отвлечением внимания от измеримых, сегодняшних проблем.
Какой конкретный вред выделяет Осборн?
Осборн перечисляет несколько сегодняшнего вреда, включая эксплуатацию низкооплачиваемых разметчиков данных, массовый сбор защищенных авторским правом работ без согласия, экологические затраты центров обработки данных, психологический вред от использования чат-ботов и наводнение контента, сгенерированного ИИ, что усложняет поиск достоверной информации.
Какое решение предлагает Осборн?
Вместо того чтобы сосредотачиваться на спекулятивных угрозах будущего, политики должны применять существующие законы о ответственности за продукт и о заботе к системам ИИ, говорит Осборн. Это заставит компании брать на себя ответственность за реальные последствия своих инструментов.
Как Осборн оценивает текущий регуляторный ландшафт?
Осборн отмечает расхождение между ЕС, который внедряет Закон об ИИ с более строгими правилами до 2026 года, и США, где федеральные усилия сосредоточены на ограничении регулирования на уровне штатов и сохранении национальных стандартов «минимально обременительными».









