Искусство адаптации: генеративные модели учатся на малом количестве данных

Новый подход позволяет генеративным моделям быстро адаптироваться к новым условиям, используя лишь небольшое количество примеров.

Новый подход позволяет генеративным моделям быстро адаптироваться к новым условиям, используя лишь небольшое количество примеров.

Новый подход позволяет агентам эффективнее осваивать сложные задачи, используя гибкие представления состояний и действий.
![Тепловая карта демонстрирует, что модели показывают различную надёжность в зависимости от задачи при использовании конфигурации с ограничением [latex]R_{max}=3[/latex], при этом DeepSeek-Coder (1.3B) не справляется ни с одной задачей, Phi4-Mini демонстрирует избирательную надёжность (58% для LRU, 0% для паролей), а аномально низкий показатель Qwen2.5-Coder (14B) при решении задачи с паролями указывает на проблему с данными, а не на недостаток возможностей модели.](https://arxiv.org/html/2512.20660v1/model_task_heatmap_guarded.png)
Новый подход объединяет мощь нейронных сетей и формальную верификацию, чтобы сделать разработку программного обеспечения с использованием больших языковых моделей более предсказуемой и контролируемой.

Новое исследование показывает, что при ограниченных вычислительных возможностях, архитектуры, основанные на механизмах внимания, оказываются наиболее эффективными для малых языковых моделей.

Новый подход к обучению мультиагентных систем позволяет им адаптироваться к стратегиям друг друга, используя возможности больших языковых моделей для создания программных политик.