Эволюция алгоритмов: как нейросети учатся управлять оптимизацией
![Наблюдения показали, что при приближении к пределу улучшения (fitness = n), методика CWM корректно предсказывает, что только значение [latex]k=2[/latex] приводит к дальнейшему прогрессу, в отличие от адаптивных алгоритмов, которые в условиях стагнации уменьшают параметр [latex]k[/latex].](https://arxiv.org/html/2602.22260v1/2602.22260v1/figures/jk_heatmap.png)
Новое исследование показывает, что большие языковые модели способны генерировать эффективные стратегии адаптивного управления параметрами для эволюционных алгоритмов, опираясь на анализ траекторий и кодирование динамики решаемых задач.

![Преобразование бивариантного, не-гауссова распределения в стандартное гауссово осуществляется посредством каскада моделей: параметрическая модель [latex]\mathcal{G}[/latex] стандартизирует маргинали, приближая хвосты к основной массе распределения, полупараметрическая модель [latex]\mathcal{H}[/latex] корректирует остаточные отклонения от гауссовости, а байесовское транспортное отображение [latex]\mathcal{T}[/latex] улавливает и устраняет нелинейную зависимость, достигая совместной гауссовости, что демонстрируется на примере поля глобальной логарифмической скорости выпадения осадков, полученного из климатической модели, при этом совместная оценка [latex]\mathcal{G}[/latex] и [latex]\mathcal{H}[/latex] затрудняет интерпретацию их поведения по отдельности.](https://arxiv.org/html/2602.23311v1/2602.23311v1/x2.png)

