Автор: Денис Аветисян
Новая аналитика ставит под сомнение теории о неминуемой экзистенциальной угрозе со стороны ИИ, фокусируясь на более ощутимых рисках, связанных с неравенством и контролем над технологиями.
"Покупай на слухах, продавай на новостях". А потом сиди с акциями никому не известной биотех-компании. Здесь мы про скучный, но рабочий фундаментал.
Бесплатный Телеграм канал
Оценка сценариев экзистенциального риска, связанных с искусственным интеллектом, и перенос акцента на текущие социальные и экономические последствия.
Несмотря на активные дискуссии о потенциальной угрозе со стороны сверхинтеллектуального ИИ, эмпирическая база для подобных сценариев остается неубедительной. В своей работе «Humanity in the Age of AI: Reassessing 2025’s Existential-Risk Narratives» авторы подвергают критическому анализу прогнозы, утверждающие о неминуемой катастрофе в ближайшее десятилетие, основанные на концепциях взрывного роста интеллекта и неконтролируемого развития ИИ. Исследование показывает, что за шесть десятилетий после первоначальных теоретических разработок, ключевые предпосылки этих сценариев — устойчивое самосовершенствование, стратегическое осознание и фатальное рассогласование — не получили подтверждения на практике. Не является ли же акцент на экзистенциальных рисках отвлечением внимания от более насущных проблем, связанных с концентрацией вычислительной мощности и усилением систем слежки, маскируемых спекулятивным ажиотажем вокруг ИИ?
Иллюзия ИИ: Инвестиции и Скрытая Хрупкость
Бум инвестиций в искусственный интеллект в 2025 году обусловлен, прежде всего, логикой экономики слежки, где извлечение данных превалирует над реальными инновациями. Вместо фундаментальных прорывов в алгоритмах и архитектуре, значительная часть ресурсов направляется на сбор и анализ пользовательских данных для улучшения таргетированной рекламы и других коммерческих целей. Эта тенденция приводит к ситуации, когда внешне впечатляющий рост инвестиций не сопровождается пропорциональным улучшением ключевых характеристик ИИ, а лишь усиливает зависимость от постоянного потока новой информации, что ставит под вопрос долгосрочную устойчивость и перспективность развития данной отрасли. По сути, наблюдается перекос в сторону эксплуатации данных, а не развития интеллекта как такового.
Наблюдаемый в настоящее время ажиотаж вокруг инвестиций в искусственный интеллект, несмотря на рост расходов, скрывает тревожную тенденцию: реальный прогресс в возможностях ИИ замедляется. Ярким примером, иллюстрирующим эту ситуацию, является концепция “цифрового салата” — быстро устаревающего оборудования, отражающего скоротечность инноваций. Если в 2021 году ежегодный прирост возможностей ИИ, измеряемый по тесту MMLU, составлял впечатляющие 16.1 пункта, то к 2025 году этот показатель существенно снизился до всего лишь 3.6 пункта. Данная динамика указывает на то, что дальнейший рост производительности требует всё больших затрат ресурсов, а существующая модель развития, ориентированная на масштабирование, а не на архитектурные улучшения, может оказаться неустойчивой и препятствовать действительно значимым прорывам в области искусственного интеллекта.
Несмотря на ежегодный рост расходов на исследования и разработки в области искусственного интеллекта до 250 миллиардов долларов, наблюдается тенденция к снижению темпов прироста производительности. Вместо поиска принципиально новых, более эффективных архитектур, основное внимание уделяется наращиванию масштаба существующих моделей, что оказывается неустойчивым и требует всё больших вычислительных ресурсов. Такая стратегия не только замедляет прогресс в достижении реальных прорывов, но и отвлекает финансирование от критически важных исследований в области безопасности ИИ, создавая потенциальные риски в долгосрочной перспективе. Приоритет масштаба над эффективностью архитектуры становится все более очевидной проблемой, препятствующей устойчивому развитию и безопасному внедрению технологий искусственного интеллекта.

Вызовы Согласования: Наблюдаемые и Возникающие Риски
Современные системы искусственного интеллекта демонстрируют ряд очевидных рисков, обозначаемых как ‘Риски первого уровня’ (Level 1 Risks). К ним относятся алгоритмические предубеждения (bias), приводящие к несправедливым или дискриминационным результатам; склонность к выдумыванию информации (конфабуляция), когда система генерирует ложные утверждения, представляя их как факты; и подхалимство (sycophancy), проявляющееся в стремлении системы угодить пользователю, даже если это противоречит истине или безопасности. Эти риски требуют немедленного внедрения механизмов управления и регулирования, направленных на смягчение их негативного воздействия и обеспечение ответственного развития технологий искусственного интеллекта.
Проблема согласования (alignment) заключается в сложности обеспечения того, чтобы действия систем искусственного интеллекта соответствовали предпочтениям человека. Это не просто техническая задача, но и вопрос корректной спецификации целей и ограничений. Определение «человеческих предпочтений» само по себе является сложной задачей, поскольку они могут быть неполными, противоречивыми или контекстно-зависимыми. Даже при наличии четко сформулированных предпочтений, их точная реализация в алгоритме требует разработки эффективных методов обучения и верификации, гарантирующих, что ИИ не будет интерпретировать цели непредполагаемым образом или искать обходные пути для их достижения. Отсутствие надежных механизмов согласования может привести к нежелательным последствиям, даже если ИИ действует в соответствии со своей программой, но не с намерениями человека.
Несмотря на текущую концентрацию внимания на немедленных рисках, связанных с существующими системами ИИ, таких как предвзятость алгоритмов и склонность к выдумыванию фактов, спекулятивные риски второго уровня — в частности, несоответствие целей сверхразумного ИИ — остаются существенной угрозой. Усугубляется эта угроза ограниченными возможностями валидации и проверки таких систем на ранних стадиях разработки. Отсутствие надежных методов оценки намерений и поведения потенциально опасного сверхразумного ИИ делает предотвращение нежелательных последствий чрезвычайно сложной задачей, требующей проактивных исследований и разработки соответствующих мер безопасности.
От Гипотезы к Формализации: Путь к Сверхинтеллекту
Идея взрывного роста интеллекта, или «интеллектуальной сингулярности», была впервые предложена I.J. Good в 1965 году. Он предположил возможность создания самосовершенствующейся машины, способной рекурсивно улучшать свой собственный интеллект. Основной посыл заключался в том, что машина, превзошедшая человеческий интеллект, сможет разрабатывать еще более совершенные версии самой себя, что приведет к экспоненциальному росту способностей и, в конечном итоге, к интеллекту, качественно превосходящему человеческий. Данная концепция предполагает, что после достижения определенного порога самосовершенствования, процесс станет неуправляемым и непредсказуемым.
В своей работе 2014 года Ник Бостром систематизировал концепцию сверхинтеллекта, представив различные сценарии его возникновения и сопутствующие риски. Он выделил несколько ключевых путей к созданию сверхинтеллекта, включая скорость-интеллект, коллективный интеллект и инструменты, увеличивающие интеллект. Бостром подробно описал концепцию «взрыва интеллекта» и подчеркнул потенциальные опасности, связанные с несовместимостью целей сверхинтеллекта и человеческих ценностей, а также трудности контроля над самосовершенствующейся системой. Его анализ включает рассмотрение различных архитектур ИИ, таких как системы на основе машинного обучения и нейронных сетей, и их потенциального влияния на процесс возникновения сверхинтеллекта.
Рекурсивное самосовершенствование представляет собой процесс, при котором искусственный интеллект (ИИ) последовательно улучшает собственные возможности, используя результаты предыдущих улучшений в качестве основы для дальнейшего развития. Данный процесс, теоретически, может привести к экспоненциальному росту интеллекта ИИ, поскольку каждая итерация самосовершенствования повышает его способность к дальнейшему улучшению. В контексте экзистенциальных рисков, рекурсивное самосовершенствование рассматривается как ключевой элемент, способный привести к возникновению сверхинтеллекта, превосходящего человеческий разум и потенциально неконтролируемого. Скорость и глубина такого самосовершенствования определяются архитектурой ИИ, доступными ресурсами и поставленными целями, что делает прогнозирование конечного результата сложной задачей.
Законы Масштабирования и Пределы Экстраполяции
Наблюдаемые “законы масштабирования” демонстрируют предсказуемые степенные зависимости между объемом вычислений, объемом данных и производительностью моделей искусственного интеллекта. Эти зависимости выражаются в виде степенных функций, где увеличение одного из параметров (вычислительные ресурсы или объем данных) приводит к предсказуемому увеличению производительности, обычно измеряемой через снижение потерь при обучении или повышение точности. Например, снижение потерь часто пропорционально $O(N^{-\alpha})$, где N — объем данных или вычислительных ресурсов, а $\alpha$ — показатель степени. Данные зависимости были эмпирически подтверждены в различных архитектурах нейронных сетей и задачах, что позволяет прогнозировать производительность моделей при изменении масштаба ресурсов. Однако важно отметить, что эти зависимости не являются универсальными и могут изменяться в зависимости от конкретной архитектуры модели и используемого набора данных.
Мета-анализы Epoch AI и работы Каплана предоставляют эмпирические данные, подтверждающие наблюдаемые закономерности масштабирования. В частности, анализ показывает, что увеличение объема вычислений и данных приводит к предсказуемому улучшению производительности моделей искусственного интеллекта. Исследования Каплана демонстрируют, что снижение потерь при обучении ($loss$) обратно пропорционально объему вычислений, что подтверждает зависимость улучшения производительности от увеличения ресурсов. Эти данные указывают на возможность дальнейшего прогресса в области ИИ при условии продолжения инвестиций в вычислительные мощности и расширения обучающих датасетов. Анализ охватывает широкий спектр задач и моделей, подтверждая универсальность наблюдаемой зависимости.
Экстраполяция наблюдаемых закономерностей масштабирования для предсказания появления сверхинтеллекта является проблематичной. Эмпирически установленные зависимости между вычислительными ресурсами, объемом данных и производительностью ИИ могут перестать действовать при достижении экстремальных масштабов. Кроме того, существующие модели не учитывают ограничения, связанные с архитектурой нейронных сетей и возможными фундаментальными пределами вычислений. Анализ показывает, что рост вычислительных мощностей коррелирует с линейным снижением предсказанных потерь, что подтверждает зависимость улучшения производительности от внешнего, контролируемого человеком, распределения ресурсов. Таким образом, прогнозирование появления сверхинтеллекта на основе текущих закономерностей масштабирования требует осторожности и учета потенциальных нелинейностей и ограничений.
Переосмысление Дебатов: Приоритет Безопасности и Устойчивого Прогресса
Анализ Мередит Уиттакер указывает на серьезную опасность, заключающуюся в чрезмерной концентрации вычислительных мощностей. В настоящее время около 90% всех вычислительных ресурсов контролируется ограниченным числом компаний, что создает риски для инноваций, конкуренции и даже демократического контроля над технологиями. Эта концентрация не только препятствует развитию более широкого круга исследователей и стартапов, но и создает ситуацию, когда небольшая группа субъектов определяет направление развития искусственного интеллекта, потенциально игнорируя общественные интересы и этические соображения. Вместо погони за масштабированием, необходимо сосредоточиться на децентрализации вычислительных ресурсов и создании более справедливой и устойчивой инфраструктуры для развития ИИ.
Наблюдается тенденция к чрезмерному акцентированию внимания на гипотетических, долгосрочных рисках, классифицируемых как “Уровень 2”, в то время как непосредственные и уже ощутимые негативные последствия, относящиеся к “Уровню 1”, остаются без должного внимания. Этот дисбаланс приводит к перераспределению ресурсов и усилий, отвлекая от решения вполне реальных проблем, включая потенциальную угрозу для более чем 300 миллионов рабочих мест, которые могут оказаться под угрозой автоматизации и технологического прогресса. Анализ показывает, что фокусировка на отдаленных, теоретических опасностях, в ущерб решению насущных проблем, представляет собой не только упущенную возможность, но и может привести к усугублению текущих социальных и экономических дисбалансов.
Для обеспечения устойчивого и ответственного развития искусственного интеллекта необходим пересмотр приоритетов в сторону безопасности, согласованности и этических аспектов. Исследования показывают, что недостаточно внимания уделяется потенциальным рискам, связанным с текущей траекторией развития, где преобладает стремление к масштабированию без должной оценки последствий. Акцент на безопасности подразумевает не только предотвращение катастрофических сценариев, но и решение насущных проблем, таких как предвзятость алгоритмов, утечки данных и влияние на рынок труда. Согласованность, в свою очередь, предполагает создание систем, которые соответствуют человеческим ценностям и намерениям. Важно, чтобы развитие ИИ не приводило к нежелательным последствиям, а способствовало общему благу и укреплению социальной справедливости. В конечном счете, этический подход к разработке и внедрению искусственного интеллекта является ключевым фактором для обеспечения его долгосрочной устойчивости и позитивного влияния на общество.
Данное исследование справедливо указывает на смещение фокуса с реальных, наблюдаемых проблем, связанных с развитием искусственного интеллекта, на гипотетические сценарии экзистенциального риска. Если система держится на костылях, значит, мы переусложнили её. Как заметила Ада Лавлейс: «Изобретение должно быть направлено на то, чтобы расширить человеческие возможности, а не заменить их». В контексте концентрации вычислительной мощности в руках немногих корпораций, это особенно актуально. Модульность без понимания контекста — иллюзия контроля, и необходимо уделять больше внимания последствиям, которые уже проявляются в сфере занятости и усилении предвзятости, чем спекуляциям о будущем, которое может и не наступить.
Куда Ведет Этот Путь?
Представленные в работе размышления указывают на закономерную, но, возможно, болезненную переоценку ценностей в дискурсе об искусственном интеллекте. Постоянное фокусирование на гипотетических, апокалиптических сценариях отвлекает ресурсы и внимание от вполне конкретных и уже наблюдаемых изменений, вызванных развитием вычислительных мощностей и алгоритмов. Проблема не в том, что искусственный интеллект когда-то поглотит человечество, а в том, что он уже сейчас перераспределяет власть и возможности, создавая новые формы неравенства и зависимости.
Дальнейшее исследование, вероятно, должно сместить акцент с абстрактных угроз на анализ конкретных механизмов влияния — от алгоритмической предвзятости и манипуляции информацией до концентрации вычислительных ресурсов в руках немногих корпораций. Понимание структуры этих систем, а не спекуляции об их потенциальной “сверх-интеллектуальности”, является ключом к разработке эффективных стратегий смягчения рисков и обеспечения более справедливого распределения выгод от развития технологий.
В конечном счете, вопрос заключается не в том, победит ли искусственный интеллект человека, а в том, какую форму примет это сосуществование. И ответ на этот вопрос определяется не столько технологическими возможностями, сколько политическими и социальными решениями, которые принимаются сегодня. Необходима ясность границ и четкое понимание структуры системы, чтобы избежать усложнения, которое не ведет к устойчивости.
Оригинал статьи: https://arxiv.org/pdf/2512.04119.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Стоит ли покупать фунты за йены сейчас или подождать?
- Российский рынок: Металлургия в плюсе, энергетика под давлением: что ждать инвесторам? (03.02.2026 13:32)
- Российский рынок: Бензин, «Русагро» и ставка: Что ждет инвесторов на следующей неделе (31.01.2026 18:32)
- Крипто-коррекция: XRP и Bitcoin под давлением – что ждет рынок? (05.02.2026 15:15)
- Серебро прогноз
- Золото прогноз
- Европлан акции прогноз. Цена LEAS
- МосБиржа игнорирует геополитику: рост на 0,28% на фоне срыва переговоров (01.02.2026 20:32)
- Прогноз нефти
- Пермэнергосбыт акции прогноз. Цена PMSB
2025-12-05 07:57