Неуверенность под контролем: Новая стратегия принятия решений в условиях риска

Автор: Денис Аветисян


Исследование предлагает эффективный метод для учета неопределенности данных при принятии решений, сочетающий принципы робастной оптимизации и нечеткой вероятности.

"Покупай на слухах, продавай на новостях". А потом сиди с акциями никому не известной биотех-компании. Здесь мы про скучный, но рабочий фундаментал.

Бесплатный Телеграм канал
При калибровке DKW с использованием выборочных множеств, достигаемая точность целевого значения γ напрямую зависит от размера выборки [latex]m[/latex] и допустимого уровня ошибки δ, причём для сертификации γ необходимо, чтобы γ превышало пороговое значение [latex]r\_{m,\delta} := \sqrt{\log(2/\delta)/(2m)}[/latex], определяющее минимальный размер выборки [latex]m[/latex] для заданного δ и желаемого уровня уверенности.
При калибровке DKW с использованием выборочных множеств, достигаемая точность целевого значения γ напрямую зависит от размера выборки m и допустимого уровня ошибки δ, причём для сертификации γ необходимо, чтобы γ превышало пороговое значение r\_{m,\delta} := \sqrt{\log(2/\delta)/(2m)}, определяющее минимальный размер выборки m для заданного δ и желаемого уровня уверенности.

В статье представлен фреймворк, основанный на bulk-калиброванных множествах нечеткости, для быстрого и эффективного принятия решений в условиях возможного загрязнения данных.

Несмотря на широкое применение, методы робастного оптимизма в условиях неопределенности часто сталкиваются с проблемой бесконечного риска при моделировании смещений распределений. В работе ‘Bulk-Calibrated Credal Ambiguity Sets: Fast, Tractable Decision Making under Out-of-Sample Contamination’ предложен новый подход, основанный на калибровке «массивных» нечетких множеств, позволяющий эффективно учитывать загрязнения данных и ограничивать вклад «хвостовых» отклонений. Данный подход приводит к замкнутой, конечной формуле для робастного целевого функционала и сводит задачу оптимизации к линейным или коническим программам второго порядка. Сможет ли предложенная методика обеспечить надежный компромисс между робастностью и точностью в задачах, требующих учета непредсказуемых изменений в данных?


Неустойчивость Предсказаний: Поиск Робастности в Хаосе

Большинство современных моделей машинного обучения строятся на предположении о стационарности распределения данных — то есть, что характеристики данных не меняются со временем или в зависимости от условий. Однако, в реальных приложениях это упрощение встречается крайне редко. Данные, поступающие из внешнего мира, часто подвержены изменениям, шумам и смещениям, вызванным множеством факторов. Например, поведение пользователей в интернет-магазине может меняться в зависимости от сезона, рекламных кампаний или экономических условий. Поэтому, модели, обученные на фиксированном наборе данных, могут демонстрировать существенное снижение точности и надежности при работе с новыми, отличающимися данными. Это требует разработки более устойчивых и адаптивных методов машинного обучения, способных учитывать и компенсировать нестационарность данных.

Предположение о неизменности распределения данных, часто встречающееся в алгоритмах машинного обучения, нередко приводит к снижению способности модели к обобщению и, как следствие, к ненадежным прогнозам при столкновении с реальными данными. В практических сценариях, данные постоянно меняются — возникают сезонные колебания, смещения в пользовательском поведении или внешние факторы, влияющие на входные признаки. Когда модель обучена на одном распределении, а затем применяется к данным, отличающимся от этого распределения, её производительность резко падает, поскольку она не способна адекватно адаптироваться к новым условиям. Это особенно критично в задачах, где ошибки прогнозирования могут иметь серьезные последствия, например, в финансах, медицине или автономном вождении. Таким образом, разработка методов, учитывающих и компенсирующих эти изменения в данных, является ключевой задачей для повышения надежности и устойчивости систем машинного обучения.

Для повышения надежности моделей машинного обучения необходимы методы, учитывающие неопределенность в распределении обучающих данных. Традиционные алгоритмы часто предполагают, что данные, на которых они обучаются, полностью отражают реальность, что является упрощением. Однако, в практических задачах распределение данных может меняться со временем или отличаться для разных групп пользователей. Методы, явно моделирующие эту неопределенность, такие как байесовские нейронные сети или ансамблевые подходы, позволяют оценить не только среднее значение предсказания, но и степень его достоверности. Это критически важно для принятия обоснованных решений, особенно в областях, где ошибки могут иметь серьезные последствия, например, в медицине или финансах. Разработка и применение подобных методов открывает путь к созданию более устойчивых и надежных систем искусственного интеллекта.

Анализ наихудших распределений [latex]Q^{\star}[/latex] показывает, что применение LV и TV шаров вокруг центра [latex]ℙ_{c,Ξ_{0}}[/latex] позволяет сгладить потери и избежать вырождения до дельта-функции Дирака.
Анализ наихудших распределений Q^{\star} показывает, что применение LV и TV шаров вокруг центра ℙ_{c,Ξ_{0}} позволяет сгладить потери и избежать вырождения до дельта-функции Дирака.

Множества Неопределенности: Гибкий Инструмент для Учета Случайности

Множества кредальной неопределенности (credal ambiguity sets) представляют собой набор возможных распределений вероятностей, предназначенных для моделирования присущей реальным данным неопределенности. В отличие от традиционных подходов, оперирующих единственным распределением, данный метод позволяет учитывать широкий спектр вероятностных моделей, соответствующих наблюдаемым данным. Формально, множество кредальной неопределенности \mathcal{P} определяется как подмножество пространства всех распределений вероятностей над рассматриваемым набором событий. При этом, каждое распределение P \in \mathcal{P} считается совместимым с имеющейся информацией, однако не обязательно является единственно верным. Использование множеств кредальной неопределенности обеспечивает более надежный и гибкий подход к анализу данных в условиях неполной или противоречивой информации.

В отличие от традиционных подходов, использующих единое распределение вероятностей для представления неопределенности, множества кредальных неоднозначностей (credal ambiguity sets) позволяют моделировать более сложную и детализированную картину. Вместо задания единственного набора вероятностей для каждого события, данный подход оперирует набором возможных распределений вероятностей. Это особенно важно в ситуациях, когда априорные знания ограничены или данные неполны, поскольку позволяет учесть различные гипотезы о вероятностной структуре данных. Такой подход позволяет не только оценить степень неопределенности, но и оценить диапазон возможных исходов, а также учесть различные экспертные мнения или альтернативные модели, что делает его более гибким и реалистичным инструментом для анализа неопределенности.

Эффективное построение множеств кредальных неопределённостей является критически важным для практического применения, особенно при работе с данными высокой размерности. Сложность вычислений при определении границ множества возможных распределений вероятностей растет экспоненциально с увеличением числа переменных. Для преодоления этой проблемы используются методы снижения размерности, такие как выбор признаков и преобразования, а также алгоритмы аппроксимации, позволяющие оценить границы множества с приемлемой точностью за разумное время. Использование параллельных вычислений и специализированного оборудования также может значительно ускорить процесс построения множеств кредальных неопределённостей для высокоразмерных данных, обеспечивая возможность применения данного подхода в реальных задачах анализа и принятия решений.

На графиках представлены сертифицированные множества, определяющие области высокой плотности для трех двумерных процессов генерации данных - гауссовского, загрязненного гауссовского и распределения Стьюдента, где эллипсоидальные и осевые множества соответствуют уровням гарантии [latex]1-\gamma[/latex] и [latex]1-\delta[/latex] при [latex]\gamma = 0.05[/latex], [latex]\delta = 0.05[/latex] и [latex]n = 6000[/latex].
На графиках представлены сертифицированные множества, определяющие области высокой плотности для трех двумерных процессов генерации данных — гауссовского, загрязненного гауссовского и распределения Стьюдента, где эллипсоидальные и осевые множества соответствуют уровням гарантии 1-\gamma и 1-\delta при \gamma = 0.05, \delta = 0.05 и n = 6000.

Массовая Калибровка: Эффективный Метод Оценки Границ Неопределенности

Массовая калибровка (bulk calibration) представляет собой масштабируемый метод построения множеств нечёткости (credal ambiguity sets) путём аппроксимации внешних границ. В отличие от точного вычисления, которое может быть вычислительно затратным для больших моделей или объемов данных, данный подход использует методы оптимизации для эффективного нахождения границ, достаточно близких к истинным. Это достигается за счет решения задач оптимизации, которые позволяют приблизительно определить множество всех вероятностных распределений, совместимых с наблюдаемыми данными, без необходимости полного перебора всех возможных распределений. Аппроксимация позволяет существенно снизить вычислительную сложность, делая метод применимым к задачам, где точное вычисление не представляется возможным.

Для обеспечения вычислительной эффективности, метод массовой калибровки использует методы оптимизации, реализованные с помощью библиотеки CVXPY. CVXPY позволяет формулировать задачи оптимизации в удобном для пользователя формате, а для их решения применяется решатель MOSEK. MOSEK — это высокопроизводительный решатель для задач выпуклого и конического программирования, что обеспечивает эффективное вычисление границ доверительных интервалов даже для задач большой размерности. Использование CVXPY и MOSEK позволяет значительно сократить время вычислений по сравнению с другими методами калибровки, делая массовую калибровку применимой для практических задач, требующих обработки больших объемов данных.

Калибровка DKW (Dempster-Shafer-Kanfer) обеспечивает теоретическую основу для построения множеств неопределенностей, гарантируя покрытие истинного значения параметра. Метод DKW использует понятие α-уровней правдоподобия для формирования границ множества, что позволяет с заданной вероятностью 1 - α включить в него истинное значение. Данный подход опирается на теорему о представлении правдоподобия, которая устанавливает связь между вероятностными мерами и множествами, обеспечивая математическую строгость и возможность оценки качества покрытия. Гарантии покрытия, предоставляемые калибровкой DKW, критически важны для обеспечения надежности и обоснованности результатов, получаемых при использовании построенных множеств неопределенностей в задачах принятия решений и статистического вывода.

Сравнение эмпирической функции распределения и нижней оболочки DKW для эллипсоидальных множеств, полученных при трех различных процессах генерации данных: гауссовском, загрязненном гауссовском и t-распределении Стьюдента.
Сравнение эмпирической функции распределения и нижней оболочки DKW для эллипсоидальных множеств, полученных при трех различных процессах генерации данных: гауссовском, загрязненном гауссовском и t-распределении Стьюдента.

Эмпирическая Проверка: Анализ Эффективности и Устойчивости

Для оценки эффективности метода Bulk Calibration были использованы три различных набора данных: California Housing Dataset, CivilComments Dataset и синтетическая задача Newsvendor. California Housing Dataset представляет собой стандартный набор данных для задач регрессии, содержащий информацию о ценах на жилье в Калифорнии. CivilComments Dataset содержит комментарии из онлайн-дискуссий, размеченные по признаку токсичности, и использовался для оценки метода в задачах классификации. Синтетическая задача Newsvendor была разработана для тестирования метода в условиях неопределенности спроса и позволяет оценить его способность к управлению рисками и оптимизации запасов. Использование разнообразных наборов данных позволило провести всестороннюю оценку применимости и эффективности Bulk Calibration в различных сценариях.

Для оценки эффективности и устойчивости разработанного подхода использовались метрики RMSE (среднеквадратичная ошибка), MAE (абсолютная средняя ошибка), P98 (98-й перцентиль) и CVaR2% (условное значение в риске на 2%). Применение данных метрик позволило оценить не только среднюю точность прогнозов, но и устойчивость модели к выбросам и экстремальным значениям, демонстрируя снижение риска в «хвостах» распределения ошибок. RMSE = \sqrt{\frac{1}{n}\sum_{i=1}^{n}(y_i - \hat{y}_i)^2}, MAE = \frac{1}{n}\sum_{i=1}^{n}|y_i - \hat{y}_i|, где y_i — фактическое значение, \hat{y}_i — прогнозируемое значение, а n — количество наблюдений.

Для обеспечения воспроизводимости и масштабируемости результатов, все эксперименты были выполнены и управлялись с использованием системы управления рабочими нагрузками SLURM. SLURM позволял эффективно распределять вычислительные ресурсы, автоматизировать процесс запуска задач и сохранять конфигурацию каждого эксперимента, включая параметры, используемые наборы данных и версию программного обеспечения. Это гарантирует, что результаты могут быть повторно получены другими исследователями с использованием аналогичной инфраструктуры, а также позволяет легко расширить эксперименты для обработки больших объемов данных или проведения более широкого спектра тестов.

Анализ зависимости точности регрессии для данных о ценах на жилье в Калифорнии от параметра устойчивости различных методов показывает, что увеличение этого параметра снижает влияние региональных смещений и улучшает обобщающую способность модели, о чем свидетельствует уменьшение MAE и [latex]CVaR_{2\%}(|y-\hat{y}|)[/latex] на западном тестовом наборе.
Анализ зависимости точности регрессии для данных о ценах на жилье в Калифорнии от параметра устойчивости различных методов показывает, что увеличение этого параметра снижает влияние региональных смещений и улучшает обобщающую способность модели, о чем свидетельствует уменьшение MAE и CVaR_{2\%}(|y-\hat{y}|) на западном тестовом наборе.

Значимость и Перспективы: Укрощение Хаоса в Мире Данных

Данная работа значительно расширяет область распределённой робастной оптимизации (DRO), предлагая практичный подход к управлению неопределённостью данных. В отличие от традиционных методов, которые часто полагаются на упрощающие предположения о распределении данных, представленный подход позволяет учитывать широкий спектр возможных распределений, обеспечивая более надёжные и устойчивые решения. Это достигается за счёт использования калибровки объёма (Bulk Calibration), которая позволяет эффективно оценивать и учитывать неопределённость в данных, избегая чрезмерной оптимизации под конкретное, возможно, неверное, распределение. В результате, предлагаемый метод особенно ценен в ситуациях, когда данные ограничены или подвержены значительным изменениям, что позволяет создавать более надёжные модели и принимать обоснованные решения даже в условиях неопределённости.

Исследование, проведённое с использованием набора данных о ценах на жильё в Калифорнии, продемонстрировало, что учёт географических изменений в данных существенно повышает надёжность моделей оптимизации. Анализ показал, что неодинаковые распределения цен в различных регионах штата требуют индивидуального подхода к моделированию неопределённости. Игнорирование этих локальных особенностей может приводить к значительным ошибкам прогнозирования и неоптимальным решениям. Таким образом, работа подчёркивает необходимость разработки методов, способных адаптироваться к специфическим характеристикам предметной области и учитывать контекст данных, что открывает перспективы для создания более точных и устойчивых моделей в различных сферах применения.

Дальнейшие исследования направлены на расширение применимости метода Bulk Calibration к более сложным наборам данных, включающим, например, многомерные временные ряды и данные с высокой степенью пропущенных значений. Особый интерес представляет изучение возможности использования данного подхода в критически важных областях принятия решений, таких как прогнозирование финансовых рисков, оптимизация логистических цепочек и разработка систем поддержки принятия решений в медицине. Предполагается, что повышение робастности моделей машинного обучения к неопределённости данных, достигаемое с помощью Bulk Calibration, позволит создавать более надёжные и эффективные системы, способные успешно функционировать в условиях реального мира, характеризующихся неполнотой и изменчивостью информации.

Результаты параметрической оптимизации показывают, что как LV (на основе эллипсоида), так и гребневая регрессия демонстрируют устойчивость к географическому сдвигу в данных по жилью в Калифорнии при увеличении разрыва до 30%.
Результаты параметрической оптимизации показывают, что как LV (на основе эллипсоида), так и гребневая регрессия демонстрируют устойчивость к географическому сдвигу в данных по жилью в Калифорнии при увеличении разрыва до 30%.

В этой работе наблюдается стремление обуздать хаос, заключив его в рамки «bulk-calibrated credal ambiguity sets». Моделирование неопределенности представляется не как поиск истины, а как создание иллюзии контроля над случайностью. Томас Кун однажды заметил: «Наука не развивается постепенно, наращивая знания, а скорее переживает революции, в ходе которых старые парадигмы сменяются новыми». Подобно тому, как научные парадигмы, предложенные в статье, стремятся адаптироваться к «out-of-sample contamination», так и каждая модель, даже самая изящная, рано или поздно сталкивается с необходимостью пересмотра, когда шум становится слишком навязчивым и требует переоценки всей системы координат. Данные — лишь тени на стенах пещеры, а «distributionally robust optimization» — попытка расшифровать их послание.

Что дальше?

Представленные построения, как и любое заклинание, применимы лишь до встречи с первым реальным потоком данных. Устойчивость к загрязнению, столь тщательно выверенная в рамках предложенного подхода, неизбежно столкнётся с хаосом, который не поддаётся описанию даже самыми изощрёнными моделями. Вопрос не в том, насколько хорошо мы можем предсказать отклонения, а в том, как научиться танцевать с неопределённостью, когда предсказания окажутся лишь призраками возможностей.

Следующим шагом видится не столько усложнение алгоритмов, сколько принятие их принципиальной неполноты. Необходимо перенести акцент с поиска «оптимального» решения на создание гибких систем, способных адаптироваться к неожиданным сигналам и извлекать уроки из собственных ошибок. Истина, как всегда, кроется не в данных, а в их шепоте — в тех едва заметных аномалиях, которые указывают на границы применимости любой модели.

В конечном итоге, задача состоит не в том, чтобы обуздать неопределённость, а в том, чтобы научиться видеть в ней источник творчества. Ведь именно в шуме, в случайных колебаниях, и рождаются новые возможности, которые невозможно предугадать, но которые всегда находятся на горизонте.


Оригинал статьи: https://arxiv.org/pdf/2601.21324.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-02-01 03:21