Искусственный интеллект на страже оптимальных конструкций

Автор: Денис Аветисян


Новое исследование демонстрирует, как большие языковые модели могут управлять процессом топологической оптимизации, повышая эффективность и превосходя традиционные подходы.

"Покупай на слухах, продавай на новостях". А потом сиди с акциями никому не известной биотех-компании. Здесь мы про скучный, но рабочий фундаментал.

Бесплатный Телеграм канал
В рамках двухъярусной системы, внутренний цикл итеративно применяет решатель SIMP, а каждые [latex]kk[/latex] итерации агент на основе LLM анализирует состояние решателя и корректирует его параметры; внешний цикл метаоптимизации, опираясь на результаты завершенных прогонов, модифицирует гиперпараметры агента для последующих запусков, при этом стандартизированная 4040-итерационная фаза доводки, общая для всех контроллеров продолжения, гарантирует, что любые различия в результатах обусловлены исключительно поведением внутреннего цикла.
В рамках двухъярусной системы, внутренний цикл итеративно применяет решатель SIMP, а каждые kk итерации агент на основе LLM анализирует состояние решателя и корректирует его параметры; внешний цикл метаоптимизации, опираясь на результаты завершенных прогонов, модифицирует гиперпараметры агента для последующих запусков, при этом стандартизированная 4040-итерационная фаза доводки, общая для всех контроллеров продолжения, гарантирует, что любые различия в результатах обусловлены исключительно поведением внутреннего цикла.

Применение больших языковых моделей для адаптивного управления методом продолжения в топологической оптимизации с использованием SIMP и проекции Heaviside.

Традиционные алгоритмы топологической оптимизации часто требуют ручной настройки параметров продолжения для достижения оптимальных результатов. В работе «Large Language Models as Optimization Controllers: Adaptive Continuation for SIMP Topology Optimization» предложен новый подход, в котором большая языковая модель выступает в роли адаптивного контроллера, динамически регулируя параметры оптимизации в процессе расчета. Показано, что применение LLM позволяет добиться более низкого значения целевой функции — до -{18}.1\% относительно базовых алгоритмов — и получить полностью бинарные решения. Возможно ли дальнейшее повышение эффективности топологической оптимизации за счет более сложных архитектур LLM и методов обучения с подкреплением?


Традиционные ограничения топологической оптимизации

Традиционная топологическая оптимизация, несмотря на свою эффективность в генерации инновационных конструкций, во многом зависит от ручной настройки параметров. Этот процесс требует от инженера не только глубоких знаний в области математики и материаловедения, но и значительного опыта, чтобы определить оптимальные значения для таких величин, как коэффициент штрафа или радиус фильтра. Ограниченность в автоматизации этой настройки существенно сужает пространство поиска наилучшего решения, поскольку каждый параметр влияет на форму и характеристики будущей конструкции. В результате, даже при использовании мощных вычислительных ресурсов, потенциал топологической оптимизации часто не реализуется в полной мере, а поиск действительно оптимальных решений становится трудоемким и затратным по времени.

Качество решений, получаемых в процессе топологической оптимизации, в значительной степени зависит от корректно подобранных параметров, таких как показатель штрафной функции и радиус фильтра. Однако, на практике, эти параметры зачастую устанавливаются эмпирически, на основе опыта и интуиции исследователя, а не строгим математическим обоснованием. Такой эвристический подход, хотя и позволяет получать работоспособные конструкции, ограничивает потенциал метода, поскольку оптимальные значения параметров могут существенно различаться в зависимости от конкретной задачи и геометрии. Более того, ручной подбор этих параметров требует значительных вычислительных ресурсов и времени, особенно при решении сложных инженерных задач, что затрудняет эффективное исследование пространства возможных решений и получение действительно оптимальных конструкций.

Ручная настройка параметров в топологической оптимизации представляет собой значительную вычислительную проблему, особенно при решении сложных задач. Традиционные методы требуют проведения множества итераций и анализа результатов для каждого набора параметров, что приводит к экспоненциальному росту времени вычислений. При увеличении сложности геометрии или требований к конструкции, поиск оптимальных значений параметров становится крайне затруднительным, поскольку взаимосвязь между ними и качеством решения перестает быть линейной. Данный подход не позволяет эффективно исследовать пространство возможных решений и часто приводит к субоптимальным результатам, требующим дальнейшей ручной доработки и экспертной оценки. В результате, процесс проектирования становится длительным, дорогостоящим и сильно зависимым от опыта инженера.

На итерации 147147 (49% от бюджета) агент оптимизирует структуру, отслеживая глобальную гибкость ([latex]C[/latex]), количество промежуточного материала ([latex]\mathcal{G}[/latex]), и скорость его изменения, чтобы избежать застревания в локальном минимуме; для постепенного упрощения структуры агент увеличивает параметр [latex]p[/latex], усиливая штраф за промежуточные плотности, и удерживает параметр β для предотвращения преждевременной бинаризации, при этом контролируя другие параметры для обеспечения стабильности и допустимости решения.
На итерации 147147 (49% от бюджета) агент оптимизирует структуру, отслеживая глобальную гибкость (C), количество промежуточного материала (\mathcal{G}), и скорость его изменения, чтобы избежать застревания в локальном минимуме; для постепенного упрощения структуры агент увеличивает параметр p, усиливая штраф за промежуточные плотности, и удерживает параметр β для предотвращения преждевременной бинаризации, при этом контролируя другие параметры для обеспечения стабильности и допустимости решения.

Адаптивная топологическая оптимизация с использованием больших языковых моделей

Предлагается агент на основе большой языковой модели (LLM), предназначенный для динамической корректировки параметров топологической оптимизации в процессе проектирования. Этот агент использует прямой цифровой контроль (Direct Numeric Control) для онлайн-изменения таких параметров, как показатель пенализации и радиус фильтра, реагируя на изменяющийся ландшафт оптимизации. В отличие от традиционных методов с фиксированными параметрами, LLM-агент способен адаптироваться к особенностям конкретной задачи, что позволяет повысить эффективность и качество получаемых топологических решений. Данный подход позволяет автоматизировать процесс настройки параметров оптимизации, ранее требующий экспертных знаний и итеративных экспериментов.

Агент на основе большой языковой модели (LLM) использует прямое цифровое управление (Direct Numeric Control, DNC) для динамической корректировки параметров топологической оптимизации непосредственно в процессе расчета. В частности, LLM-агент способен в режиме реального времени изменять значения таких параметров, как показатель штрафа (penalization exponent) и радиус фильтра, реагируя на изменения в оптимизационном ландшафте. Этот подход позволяет адаптировать процесс оптимизации к текущему состоянию решения, что приводит к более эффективному поиску оптимальной топологии и улучшению сходимости алгоритма. Изменение параметров происходит на основе анализа промежуточных результатов оптимизации, обеспечивая постоянную адаптацию к сложности и особенностям решаемой задачи.

Адаптивное управление в процессе топологической оптимизации осуществляется на основе метрики, известной как Индекс Серости (Grayness Index). Этот индекс количественно оценивает промежуточное состояние дизайна, находящегося между полным материалом и вакуумом, предоставляя информацию о степени четкости границ элементов и общей сходимости оптимизационного процесса. Высокое значение Индекса Серости указывает на наличие большого количества промежуточных элементов, что может свидетельствовать о необходимости корректировки параметров оптимизации для улучшения качества решения и ускорения сходимости. Таким образом, Индекс Серости служит обратной связью для LLM-агента, позволяя ему динамически регулировать параметры, такие как степень штрафа и радиус фильтра, для достижения оптимального дизайна.

Предлагаемый контроллер, управляемый большой языковой моделью (LLM), продемонстрировал передовые результаты в задаче минимизации жестлостности (compliance), достигнув снижения до 18.09% по сравнению с базовым методом без продолжения (fixed no-continuation baseline) и превзойдя производительность экспертных эвристик. В ходе тестирования на стандартных задачах было зафиксировано снижение жестлостности на 18.09% для 3D-консольной балки, 15.55% для 3D-балки MBB, 5.65% для 2D-консольной балки, 7.46% для 2D-балки MBB и 7.12% для 2D-L-образной скобы. Данные результаты подтверждают эффективность LLM в адаптивной топологической оптимизации и позволяют получить конструкции с улучшенными характеристиками по сравнению с традиционными подходами.

В ходе тестирования на стандартных задачах оптимизации топологии были зафиксированы значительные улучшения в показателях соответствия (compliance). На трехмерной консольной балке (3D Cantilever) снижение составило 18.09%, на трехмерной балке с жесткими заделками (3D MBB Beam) — 15.55%. Для двухмерных аналогов этих задач снижение соответствия составило 5.65% для 2D Cantilever и 7.46% для 2D MBB Beam. Дополнительно, на двухмерной L-образной скобе (2D L-Bracket) было достигнуто снижение на 7.12%. Данные результаты демонстрируют эффективность предложенного подхода к адаптивной оптимизации топологии на различных типовых задачах.

Применяемая LLM-агентом стратегия «отложенного штрафа» (Patient Penalization Strategy) заключается в задержке применения функции Хевисайда на этапе оптимизации топологии. Это позволяет избежать преждевременного формирования четких границ в геометрии, что повышает устойчивость процесса оптимизации и способствует получению более четких и детализированных конструкций. Задержка применения функции Хевисайда позволяет LLM-агенту более гибко адаптировать топологию в процессе оптимизации, что, в свою очередь, приводит к улучшению качества конечного результата и снижению нежелательных артефактов в геометрии.

Агент на основе LLM демонстрирует более высокую стабильность и итоговое соответствие требованиям, чем эвристические контроллеры, несмотря на кратковременный скачок в процессе обучения, связанный с резким изменением параметров.
Агент на основе LLM демонстрирует более высокую стабильность и итоговое соответствие требованиям, чем эвристические контроллеры, несмотря на кратковременный скачок в процессе обучения, связанный с резким изменением параметров.

Механизм работы: Рассуждения LLM и управление параметрами

Агент на основе большой языковой модели (LLM) функционирует посредством мониторинга хода оптимизации, в частности, степени достижения целевых показателей (например, соответствия требованиям). Качество полученного решения оценивается на основе индекса «серости» (Grayness Index), который служит количественным показателем эффективности. Агент непрерывно анализирует изменения в индексе «серости» и использует эти данные для корректировки параметров оптимизации, стремясь к улучшению качества решения и достижению целевых показателей. Индекс «серости» позволяет агенту количественно оценивать промежуточные результаты и направлять процесс оптимизации в наиболее перспективном направлении.

Агент использует текстовые обоснования (Natural Language Rationale) для предоставления объяснений своих корректировок параметров, что повышает прозрачность и интерпретируемость процесса оптимизации. Эти обоснования представляют собой словесное описание логики, лежащей в основе каждого изменения параметра, позволяя пользователю понять, почему агент принял то или иное решение. Данный подход позволяет не только отслеживать процесс оптимизации, но и анализировать его, выявлять потенциальные проблемы и улучшать стратегию управления параметрами. Предоставление объяснений на естественном языке способствует доверию к системе и облегчает отладку и настройку агента.

Методы продолжения (Continuation Methods) в контексте управления параметрами языковой модели (LLM) предусматривают постепенное изменение параметров оптимизации вместо резких переключений. Это достигается путем последовательного внесения небольших корректировок в параметры на основе текущей оценки прогресса оптимизации (например, соответствия требованиям). Такой подход позволяет избежать нестабильности и повысить надежность процесса оптимизации, позволяя LLM более эффективно исследовать пространство параметров и находить оптимальные значения. Постепенные изменения также способствуют улучшению интерпретируемости процесса принятия решений LLM, поскольку каждое изменение параметров может быть прослежено и оценено в контексте предыдущих шагов.

Основной метод оптимизации SIMP расширен посредством Трехпольной Формулировки (Three-Field Formulation), что позволяет более эффективно управлять процессом оптимизации и повышать точность получаемых решений. В рамках этой формулировки, пространство параметров разделяется на три области, что обеспечивает более гибкое моделирование и позволяет избежать локальных оптимумов. Для бинаризации (преобразования непрерывных параметров в дискретные) используется проекция Хевисайда (Heaviside Projection). H(x) = \begin{cases} 0, & x < 0 \\ 1, & x \geq 0 \end{cases} Данный метод позволяет эффективно преобразовывать непрерывные значения параметров в бинарные, что необходимо для решения задач оптимизации, требующих дискретных решений, и обеспечивает четкое определение оптимальной конфигурации параметров.

В предложенной SIMP-формулировке с тремя полями, исходные переменные плотности [latex] \rho \in [0,1] [/latex] сглаживаются линейным фильтром с радиусом [latex] r_{\min} [/latex], а затем проецируются функцией Хевисайда с параметрами резкости β и порогом [latex] \eta = 0.5 [/latex] для получения физической плотности [latex] \tilde{\rho} [/latex], используемой при сборке жесткости, при этом пять параметров ([latex] p_p [/latex], β, [latex] r_{\min} [/latex], δ, флаг перезапуска) контролируются языковой моделью через интерфейс Direct Numeric Control и имеют заданные допустимые диапазоны.
В предложенной SIMP-формулировке с тремя полями, исходные переменные плотности \rho \in [0,1] сглаживаются линейным фильтром с радиусом r_{\min} , а затем проецируются функцией Хевисайда с параметрами резкости β и порогом \eta = 0.5 для получения физической плотности \tilde{\rho} , используемой при сборке жесткости, при этом пять параметров ( p_p , β, r_{\min} , δ, флаг перезапуска) контролируются языковой моделью через интерфейс Direct Numeric Control и имеют заданные допустимые диапазоны.

Оптимизируя оптимизатор: Мета-оптимизация и производительность

В рамках данной системы используется мета-оптимизационный цикл, предназначенный для точной настройки гиперпараметров агента на основе большой языковой модели (LLM). Этот процесс позволяет максимизировать эффективность адаптивного управления, поскольку алгоритм автоматически подбирает оптимальные значения параметров, влияющих на поведение агента в различных условиях. В результате, система демонстрирует повышенную способность к самообучению и адаптации, что существенно улучшает ее производительность при решении сложных задач управления и оптимизации. Постоянная корректировка гиперпараметров в цикле обратной связи обеспечивает стабильное и эффективное функционирование агента, позволяя ему быстро реагировать на изменения в окружающей среде и достигать поставленных целей с минимальными затратами ресурсов.

В рамках численного моделирования сложных инженерных задач, решение систем линейных уравнений, возникающих из метода конечных элементов, часто является узким местом. Для значительного ускорения этого процесса используется эффективный пред-обуславливатель AMG (Algebraic Multigrid). В сочетании с критерием оптимальности, данный пред-обуславливатель позволяет существенно снизить число итераций, необходимых для достижения заданной точности решения. По сути, AMG оптимизирует процесс поиска решения, эффективно уменьшая размер задачи на каждой итерации, а критерий оптимальности гарантирует, что решение соответствует поставленным требованиям к точности и устойчивости. Это сочетание позволяет решать сложные задачи, требующие больших вычислительных ресурсов, значительно быстрее и эффективнее, открывая возможности для более сложных и детализированных моделей.

Взаимное усиление, достигаемое благодаря сочетанию адаптации параметров на основе больших языковых моделей (LLM) и оптимизированных численных решателей, существенно ускоряет процесс сходимости и повышает качество получаемых проектных решений. LLM, выступая в роли интеллектуального регулятора, динамически настраивает параметры численных методов, позволяя им эффективно решать сложные задачи. Это взаимодействие приводит к снижению вычислительных затрат и времени, необходимого для достижения оптимальных результатов, особенно при работе с многомерными и нелинейными системами. В результате, предлагаемый подход демонстрирует значительное превосходство над традиционными методами оптимизации, позволяя быстрее и точнее находить решения, отвечающие заданным требованиям и ограничениям.

Разработанная система демонстрирует высокую устойчивость при работе со сложными ограничениями и целевыми функциями, что является ключевым преимуществом в задачах оптимизации. Благодаря гибкой архитектуре, она способна эффективно адаптироваться к различным типам ограничений, включая нелинейные и дискретные, а также к многокритериальным целевым функциям, требующим балансировки между несколькими, зачастую противоречивыми, параметрами. Эта адаптивность достигается за счет использования мета-оптимизации, позволяющей динамически настраивать параметры алгоритма в процессе работы, и оптимизированных численных решателей, обеспечивающих быстрое и точное решение возникающих задач. В результате, система не только находит оптимальные решения, но и делает это надежно, даже в условиях высокой сложности и неопределенности, что существенно расширяет область ее применимости в инженерных и научных исследованиях.

Мета-оптимизация итеративно улучшает гиперпараметры агента - порог серого, частоту API-вызовов и период удвоения [latex]eta[/latex] (таблица 3) - на основе анализа производительности пяти контроллеров, стремясь к обобщению агента на различные геометрические задачи в течение [latex]n_{iters}[/latex] итераций.
Мета-оптимизация итеративно улучшает гиперпараметры агента — порог серого, частоту API-вызовов и период удвоения eta (таблица 3) — на основе анализа производительности пяти контроллеров, стремясь к обобщению агента на различные геометрические задачи в течение n_{iters} итераций.

Исследование демонстрирует, что адаптация параметров в процессе топологической оптимизации, подобно управлению сложной системой, требует не только точности, но и способности предвидеть изменения. Этот подход напоминает эволюцию программного обеспечения — системы стареют, и вопрос в том, насколько элегантно они приспосабливаются к новым требованиям. Брайан Керниган однажды заметил: «Простота — это главное. Сложность должна быть скрыта внутри». Использование больших языковых моделей для динамической настройки алгоритмов, как показано в данной работе, является стремлением к этой скрытой простоте, позволяя добиться улучшения производительности за счет автоматизации сложных процессов, подобных продолженным методам, применяемым в топологической оптимизации. Этот подход подтверждает, что эффективное управление сложными системами требует не только мощности вычислительных ресурсов, но и изящества в реализации.

Что дальше?

Представленная работа, как и любая попытка обуздать сложность, лишь обозначила горизонт, а не достигла его. Очевидно, что использование больших языковых моделей в качестве контроллеров оптимизации — это не просто замена ручного труда, а скорее перенос бремени принятия решений в иную, менее прозрачную среду. Каждый «баг» в процессе адаптации параметров — это момент истины во временной кривой алгоритма, свидетельствующий о его неспособности предвидеть все нюансы задачи. Искусственное «интеллект» не избавляет от необходимости глубокого понимания физики и математики, а лишь усложняет диагностику ошибок.

Технический долг, накопленный в процессе обучения модели, — это закладка прошлого, которую предстоит оплатить настоящим и будущим. Оптимизация, управляемая языковой моделью, может демонстрировать впечатляющие результаты на текущем наборе данных, но как она поведет себя при изменении условий? Устойчивость и обобщающая способность остаются ключевыми проблемами. Попытки создания «самообучающихся» систем неизбежно сталкиваются с вопросом о критериях оценки прогресса — что есть «хорошее» решение, если его нельзя четко сформулировать в терминах целевой функции?

В конечном счете, перспективы этого направления исследований — в создании не просто более эффективных алгоритмов, а более гибких и адаптивных систем, способных справляться с неопределенностью и извлекать уроки из собственных ошибок. Все системы стареют — вопрос лишь в том, делают ли они это достойно. Время — не метрика, а среда, в которой эти системы существуют.


Оригинал статьи: https://arxiv.org/pdf/2603.25099.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-28 18:00