Управление сложными системами: новый подход к нелинейным процессам

Автор: Денис Аветисян


В статье представлен алгоритм обучения с подкреплением, позволяющий эффективно управлять системами, подверженными скачкообразным изменениям и непрерывным флуктуациям.

"Покупай на слухах, продавай на новостях". А потом сиди с акциями никому не известной биотех-компании. Здесь мы про скучный, но рабочий фундаментал.

Бесплатный Телеграм канал
В ходе обучения, насчитывающего 1000 итераций с шагом [latex]\delta_{t} = 0.02[/latex], оптимальное управление, функция ценности и траектории состояния агента 11 в игре с портфелем Мертона продемонстрировали сходимость к эталонным показателям, что указывает на эффективность предложенного подхода.
В ходе обучения, насчитывающего 1000 итераций с шагом \delta_{t} = 0.02, оптимальное управление, функция ценности и траектории состояния агента 11 в игре с портфелем Мертона продемонстрировали сходимость к эталонным показателям, что указывает на эффективность предложенного подхода.

Разработан фреймворк на основе актор-критической архитектуры с использованием ‘малой qq-функции’ и условных нормализующих потоков для обработки не-гауссовых стратегий управления в задачах бесконечного горизонта.

Несмотря на широкое применение стохастического управления в финансах и экономике, вычисление оптимальных стратегий в условиях временной неоднородности, скачкообразных процессов и высокой размерности остается сложной задачей. В данной работе, озаглавленной ‘An Actor-Critic Framework for Continuous-Time Jump-Diffusion Controls with Normalizing Flows’, предложен алгоритм «актер-критик» для решения задач управления процессами с прерывистыми диффузионными изменениями, использующий новый подход, основанный на «little q-function» и условных нормализующих потоках. Предложенный метод позволяет эффективно аппроксимировать оптимальные стратегии, учитывая временную неоднородность, скачки и не-гауссову природу процессов. Какие перспективы открываются для применения данного подхода в моделировании сложных финансовых инструментов и оптимизации портфельных стратегий?


Преодолевая границы дискретного времени: Необходимость непрерывного управления

Традиционные алгоритмы обучения с подкреплением зачастую оперируют дискретными моментами времени, что существенно ограничивает их применимость к реальным системам, характеризующимся непрерывной динамикой. Представьте, например, управление сложным промышленным процессом или оптимизацию траектории беспилотного летательного аппарата — эти системы не функционируют пошагово, а изменяются плавно и непрерывно. Ограничение анализа только дискретными временными интервалами приводит к упрощению модели и, как следствие, к снижению эффективности управления. Непрерывные системы требуют алгоритмов, способных учитывать мельчайшие изменения состояний и оперативно реагировать на них, чего сложно достичь при использовании дискретизированных моделей. Таким образом, переход к методам, работающим непосредственно с непрерывным временем, является ключевым шагом для расширения области применения обучения с подкреплением и повышения его эффективности в задачах, связанных с реальными физическими и финансовыми системами.

Многие финансовые и физические системы, такие как динамика рыночных цен или движение механических объектов, характеризуются непрерывным течением времени и изменением состояний. В отличие от дискретных моделей, где изменения происходят в строго определенные моменты, реальные процессы часто протекают плавно и без резких скачков. Поэтому, для эффективного управления этими системами, требуются стратегии, способные оперировать непосредственно во времени, учитывая непрерывные изменения состояний и воздействий. Традиционные методы управления, основанные на дискретизации времени, могут приводить к потере информации и снижению точности, особенно при высокой скорости изменения процессов. Разработка алгоритмов, способных к непрерывному управлению, открывает возможности для более точного моделирования и контроля сложных систем, что особенно важно в областях, где даже незначительные отклонения могут иметь значительные последствия.

Существующие методы обучения с подкреплением сталкиваются со значительными трудностями при работе с непрерывными пространствами состояний и действий, что ограничивает их эффективность в реальных приложениях. Традиционные алгоритмы, как правило, дискретизируют эти пространства, что приводит к потере информации и снижению точности управления. Более того, сложность вычислений возрастает экспоненциально с увеличением размерности непрерывных пространств, делая применение стандартных методов непрактичным для многих задач. Это особенно заметно в задачах управления финансовыми рынками или физическими системами, где точное и быстрое реагирование на непрерывные изменения имеет решающее значение. Разработка алгоритмов, способных эффективно обрабатывать непрерывные пространства, является ключевой задачей для расширения возможностей обучения с подкреплением и применения его к более широкому кругу реальных проблем.

Обучение контроллера и функции ценности на группе агентов (n=25) демонстрирует низкие среднеквадратические ошибки (RMSE), что подтверждается данными об обучении, представленными в таблице 4.
Обучение контроллера и функции ценности на группе агентов (n=25) демонстрирует низкие среднеквадратические ошибки (RMSE), что подтверждается данными об обучении, представленными в таблице 4.

Непрерывное обучение с подкреплением: Основы и ключевые механизмы

Непрерывно-временное обучение с подкреплением (CTR-RL) представляет собой расширение стандартного обучения с подкреплением, позволяющее напрямую оперировать во времени, без дискретизации временных интервалов. В отличие от дискретных методов, где действия и наблюдения рассматриваются в отдельные моменты времени, CTR-RL позволяет моделировать системы с непрерывными динамическими процессами, что особенно важно для управления физическими системами, робототехникой и задачами, где время играет критическую роль. Это обеспечивает более естественное и точное представление динамики системы, поскольку учитывает изменения состояний, происходящие в любой момент времени, а не только в дискретные моменты. Формально, CTR-RL оперирует с дифференциальными уравнениями, описывающими эволюцию состояния системы во времени, в то время как стандартное RL оперирует с разностными уравнениями.

Эффективная оценка политики в непрерывном времени является ключевым компонентом, позволяющим точно оценивать функцию ценности без дискретизации. Традиционные методы RL требуют дискретизации временного пространства для вычисления функции ценности, что может привести к потере точности и вычислительной неэффективности. В CTR-RL используются методы, основанные на решении дифференциальных уравнений Беллмана, что позволяет аналитически или численно (например, с использованием методов конечных элементов или сплайнов) аппроксимировать функцию ценности V(x) для любого состояния x без явной дискретизации времени. Это достигается путем представления функции ценности как решения дифференциального уравнения в частных производных, учитывающего динамику системы и стратегию управления. Использование непрерывных методов позволяет более точно моделировать динамические системы и уменьшить погрешность, возникающую при дискретизации.

Улучшение стратегии в непрерывно-временном обучении с подкреплением достигается путем переформулировки целевых функций градиентного спуска на политику как задач оценки политики. Этот подход позволяет получить практические правила обновления, применимые для итеративного улучшения стратегии. Вместо прямого вычисления градиента, задача сводится к оценке преимущества текущей стратегии по отношению к обновленной, что позволяет использовать методы оценки ценности, такие как Temporal Difference (TD) learning. Данное преобразование значительно упрощает процесс оптимизации, делая возможным эффективное обучение в непрерывном времени без необходимости дискретизации пространства состояний и действий.

Для задачи линейно-квадратичного управления с переменными во времени коэффициентами, оптимальное управление и функция ценности сходятся как для постоянных (верхний ряд), так и для периодических (нижний ряд) коэффициентов, при параметрах [latex]N_{itr} = 3000[/latex], [latex]\delta_t = 0.01[/latex] и интенсивности γ равной 0 и 0.05.
Для задачи линейно-квадратичного управления с переменными во времени коэффициентами, оптимальное управление и функция ценности сходятся как для постоянных (верхний ряд), так и для периодических (нижний ряд) коэффициентов, при параметрах N_{itr} = 3000, \delta_t = 0.01 и интенсивности γ равной 0 и 0.05.

Моделирование сложности: Прыгающая диффузия и за её пределами

Динамика скачкообразных диффузий используется для моделирования систем, подверженных внезапным изменениям и разрывам. В отличие от стандартных диффузионных моделей, которые предполагают непрерывное изменение состояний, Jump-Diffusion Dynamics учитывает возможность мгновенных скачков состояния, вызванных внешними факторами или внутренними процессами. Эти скачки характеризуются вероятностью возникновения и распределением величины изменения состояния. Математически, это обычно представляется добавлением к стандартному стохастическому дифференциальному уравнению члена, описывающего процесс Пуассона, определяющего моменты скачков. dX_t = \mu(X_t)dt + \sigma(X_t)dW_t + \sum_{i} J_i dN_t, где W_t — винеровский процесс, а N_t — процесс Пуассона, определяющий скачки, а J_i — величина скачка. Такой подход позволяет более реалистично описывать поведение различных систем, например, финансовых рынков, физических процессов с внезапными переходами или биологических систем с дискретными событиями.

Интеграция динамики скачкообразных диффузий в алгоритмы обучения с подкреплением в непрерывном времени значительно повышает их способность моделировать сложные события и реалистичное поведение систем. Традиционные методы обучения часто не учитывают внезапные изменения состояния, в то время как скачкообразные диффузии позволяют описывать как плавные, диффузионные процессы, так и резкие скачки, отражающие внезапные воздействия или переходы. Это особенно важно в задачах, где система подвержена непредсказуемым внешним факторам или внутренним сбоям, поскольку CTR-RL, использующий данную динамику, способен более эффективно адаптироваться к таким изменениям и принимать оптимальные решения в условиях неопределенности. В результате, моделирование с использованием скачкообразных диффузий обеспечивает более точное и правдоподобное представление динамики реальных систем, что приводит к повышению эффективности и надежности алгоритмов управления и прогнозирования.

Малая QQ-функция представляет собой ключевой инструмент для предотвращения вырождения и обеспечения стабильной работы алгоритмов обучения с подкреплением в непрерывном времени. В контексте CTR-RL, стандартные методы могут сталкиваться с проблемами сходимости и стабильности из-за непрерывности времени и потенциального возникновения невязанных состояний. Малая QQ-функция, определяемая как Q(s,a) = E[R_t | S_t = s, A_t = a], позволяет оценить ожидаемую суммарную награду, избегая необходимости в дискретизации времени и, следовательно, снижая риск возникновения нестабильности, связанной с аппроксимацией. Её применение гарантирует, что оценки ценности остаются ограниченными и позволяют алгоритму эффективно обучаться даже в сложных, непрерывно меняющихся средах, предотвращая вырождение политики и обеспечивая устойчивое поведение.

Временные неоднородные скачкообразно-диффузионные процессы представляют собой усовершенствование базовой модели, позволяющее параметрам процесса — коэффициенту диффузии, интенсивности скачков и их амплитуде — изменяться во времени. Это обеспечивает адаптацию модели к эволюционирующим характеристикам системы, в отличие от стационарных моделей, где параметры предполагаются постоянными. Изменение параметров может быть задано детерминированно, например, на основе заранее известного графика, или стохастически, отражая неопределенность в динамике системы. Использование временных неоднородностей критически важно для моделирования процессов, в которых условия существенно меняются со временем, что позволяет получить более точные и реалистичные прогнозы и улучшить производительность алгоритмов управления в непрерывном времени, таких как CTR-RL.

Моделирование стандартной задачи линейно-квадратичного регулятора (LQ) с горизонтом предсказания [latex]T=10[/latex] и [latex]T=100[/latex] показывает оптимальное управление, функцию ценности и траектории состояний при параметрах [latex]γ=0[/latex], [latex]𝐁=0.5𝐈_d[/latex], [latex]Σ=0.3𝐈_d[/latex], [latex]𝐑=5𝐈_d[/latex], [latex]𝐐=0.5𝐈_d[/latex], [latex]λ_i = 0.2 + \\frac{i-1}{d-1}(0.3-0.2)[/latex] и [latex]α_i = 0.3 - \\frac{i-1}{d-1}(0.3-0.2)[/latex] для [latex]i=1,…,d[/latex].
Моделирование стандартной задачи линейно-квадратичного регулятора (LQ) с горизонтом предсказания T=10 и T=100 показывает оптимальное управление, функцию ценности и траектории состояний при параметрах γ=0, 𝐁=0.5𝐈_d, Σ=0.3𝐈_d, 𝐑=5𝐈_d, 𝐐=0.5𝐈_d, λ_i = 0.2 + \\frac{i-1}{d-1}(0.3-0.2) и α_i = 0.3 - \\frac{i-1}{d-1}(0.3-0.2) для i=1,…,d.

Алгоритмы «Актер-Критик» для непрерывного управления

Алгоритмы Actor-Critic объединяют в себе два основных компонента для обучения оптимальным стратегиям управления в задачах непрерывного времени. “Актер” (actor) представляет собой политику, то есть функцию, определяющую действия агента в зависимости от текущего состояния среды. “Критик” (critic) оценивает качество этих действий, аппроксимируя функцию ценности (value function), которая предсказывает ожидаемую суммарную награду за выполнение определенной политики, начиная с текущего состояния. В процессе обучения, критик предоставляет обратную связь актеру, направляя его на улучшение политики для максимизации ожидаемой награды. Взаимодействие между актором и критиком позволяет эффективно решать сложные задачи управления, где дискретные действия неприменимы.

Условные нормализующие потоки (Conditional Normalizing Flows, CNF) предоставляют возможность параметризации политики, выходящей за рамки гауссовых распределений. В отличие от традиционных методов, где параметры политики обычно описываются гауссовым распределением, CNF позволяют моделировать более сложные и несимметричные распределения вероятностей над параметрами действий. Это достигается за счет последовательного применения обратимых преобразований к базовому распределению, что позволяет точно аппроксимировать произвольные распределения. Использование CNF в алгоритмах обучения с подкреплением способствует улучшению исследования пространства действий и, как следствие, повышению производительности, особенно в задачах непрерывного управления, где сложность пространства действий требует более гибких методов параметризации политики.

В основе алгоритмов Actor-Critic лежит представление градиента политики, позволяющее получить правила обновления как для актора, так и для критика. В частности, градиент политики, \nabla_{\theta} J(\theta), где θ — параметры актора, оценивается с использованием функции ценности, предоставляемой критиком. Это позволяет избежать необходимости прямой оценки градиента, что особенно важно в задачах с непрерывным пространством действий. Правило обновления актора пропорционально оценке преимущества, полученной критиком, умноженной на градиент логарифма вероятности действия, выбранного актором. Критик, в свою очередь, обновляется с использованием временных различий или других методов обучения с подкреплением, чтобы улучшить точность оценки функции ценности, что, в свою очередь, улучшает обучение актора.

Регуляризация энтропией является ключевым компонентом алгоритмов обучения с подкреплением, направленным на повышение стабильности и эффективности исследования пространства действий. Добавление члена, пропорционального энтропии политики \pi(a|s) , к функции потерь стимулирует агента к выбору более разнообразных действий, предотвращая преждевременную сходимость к субоптимальным решениям. Высокая энтропия подразумевает большую неопределенность в выборе действий, что способствует более полному исследованию среды, особенно в сложных задачах с разреженными наградами. Контроль энтропии достигается путем введения коэффициента α, который определяет вес регуляризационного члена и позволяет настроить баланс между исследованием и использованием знаний.

Модель предсказывает среднее значение стохастической политики, функцию ценности и траектории состояний для задачи линейно-квадратичной регуляции с параметрами [latex]d=5[/latex] и [latex]\gamma=0.05[/latex], используя горизонт [latex]T=10[/latex] и параметры, аналогичные представленным на рисунке 1.
Модель предсказывает среднее значение стохастической политики, функцию ценности и траектории состояний для задачи линейно-квадратичной регуляции с параметрами d=5 и \gamma=0.05, используя горизонт T=10 и параметры, аналогичные представленным на рисунке 1.

Проверка и более широкие последствия

Для строгой оценки эффективности разработанного подхода использовалась классическая задача Мёртона с прыжками, являющаяся общепринятым эталоном для моделей, описывающих диффузии с внезапными изменениями. Данная задача, представляющая собой оптимизацию стратегии торговли активом с непредсказуемыми скачками цены, позволяет всесторонне проверить способность алгоритма адаптироваться к рыночным условиям, характеризующимся высокой волатильностью и нелинейными эффектами. Результаты тестирования на данной задаче демонстрируют, что предложенный метод превосходит существующие аналоги по ключевым показателям, таким как доходность и устойчивость к рискам, подтверждая его потенциал для применения в реальных финансовых приложениях и служа надежным подтверждением теоретической обоснованности разработанного алгоритма.

Линейно-квадратичное управление выступает в качестве фундаментального критерия оценки для алгоритмов «актер-критик». В рамках ЛКУ задача оптимизации сводится к поиску оптимальной стратегии управления в системе, описываемой линейными уравнениями и квадратичной функцией стоимости. Использование ЛКУ позволяет исследователям объективно сравнивать эффективность различных алгоритмов «актер-критик», определяя их способность находить оптимальные решения в хорошо определенных условиях. Эта методология позволяет не только проверить работоспособность новых алгоритмов, но и выявить их сильные и слабые стороны в контексте классической задачи оптимального управления, обеспечивая надежную основу для дальнейших исследований и разработок в области обучения с подкреплением и теории управления.

Мера занятия, или occupation measure, представляет собой ключевой инструмент для анализа долгосрочного поведения изученной политики управления. Она описывает распределение вероятностей состояний, в которых система проводит время в процессе обучения, позволяя оценить, насколько эффективно алгоритм исследует пространство состояний и избегает застревания в локальных оптимумах. Детальное изучение этой меры позволяет выявить закономерности в поведении агента, предсказать его стабильность в различных условиях и оценить, насколько хорошо изученная политика адаптируется к изменяющейся среде. По сути, occupation measure выступает своеобразным “следом” поведения агента во времени, раскрывающим его стратегию и эффективность в долгосрочной перспективе, что особенно важно при управлении системами с прыжками и диффузией, где долгосрочная стабильность и адаптивность имеют первостепенное значение.

Представленная работа предлагает новый подход к управлению системами, описываемыми процессами скачкообразной диффузии, изменяющимися во времени. В основе метода лежит обучающаяся структура, предназначенная для решения задач бесконечного горизонта планирования с дисконтированием. Ключевым элементом является использование непрерывно-временной функции “little qq”, позволяющей эффективно оценивать ценность состояний, а также параметризация условного нормализующего потока, обеспечивающая возможность построения выразительных, не-гауссовых политик управления. Данный подход позволяет разрабатывать стратегии, способные адаптироваться к непредсказуемым скачкам в динамике системы и эффективно управлять ею в долгосрочной перспективе, открывая новые возможности для решения сложных задач управления в различных областях, от финансов до робототехники.

Моделирование стандартной Merton-проблемы ([latex]\gamma = 0.0[/latex]) на горизонте [latex]T = 10[/latex] при параметрах [latex]\mu = 0.05[/latex], [latex]r = 0.03[/latex], [latex]\sigma = 0.4[/latex], [latex]\lambda = 0.2[/latex], [latex]\alpha = 0.3[/latex] и [latex]\delta_{t} = 0.01[/latex] после [latex]N_{itr} = 2000[/latex] итераций позволило получить оптимальное управление и траектории состояний.
Моделирование стандартной Merton-проблемы (\gamma = 0.0) на горизонте T = 10 при параметрах \mu = 0.05, r = 0.03, \sigma = 0.4, \lambda = 0.2, \alpha = 0.3 и \delta_{t} = 0.01 после N_{itr} = 2000 итераций позволило получить оптимальное управление и траектории состояний.

Предложенный подход к управлению процессами с скачками и диффузией, использующий нормализующие потоки для представления не-гауссовских стратегий, стремится к упрощению сложного. Подобно удалению лишних элементов из уравнения, чтобы выявить его суть, данная работа фокусируется на создании ясной и эффективной структуры управления. Пётр Капица однажды заметил: «Истинное понимание приходит не от накопления знаний, а от умения отбросить ненужное». Именно эта идея находит отражение в использовании «little qq-function», позволяющей уменьшить вычислительную сложность и сосредоточиться на наиболее важных аспектах процесса обучения с подкреплением в непрерывном времени. Ясность — это минимальная форма любви к проблеме, и в данном исследовании она проявляется в стремлении к элегантности и эффективности.

Что дальше?

Представленная работа, стремясь к элегантности управления процессами с прыжками и диффузией, неизбежно обнажает простоту лежащей в основе сложности. Успешное применение ‘малой qq-функции’ и нормализующих потоков для не-гауссовых стратегий — это не столько решение, сколько переформулировка вопроса. Остается нерешенным фундаментальный вопрос о вычислительной эффективности при увеличении размерности пространства состояний. Каждый новый слой нормализующего потока — это еще один шаг к изяществу, но и еще один шаг к экспоненциальному росту вычислительных затрат.

Будущие исследования, вероятно, сосредоточатся на компромиссах между выразительностью модели и её вычислительной сложностью. Стоит задуматься о возможности применения более компактных представлений стратегий, возможно, основанных на разреженных представлениях или низкоранговых аппроксимациях. В конечном счете, ценность подхода определяется не столько способностью моделировать сложные процессы, сколько способностью извлекать из них значимую информацию, не утонув в деталях.

Истинный прогресс, как всегда, заключается не в добавлении новых элементов, а в безжалостном удалении ненужного. Поиск минимально достаточной модели — вот задача, которая заслуживает внимания. И в этой погоне за простотой кроется истинная красота.


Оригинал статьи: https://arxiv.org/pdf/2604.05398.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-04-08 15:23