Укрощение случайности: как нейросимвольные системы повышают надежность программного обеспечения

Тепловая карта демонстрирует, что модели показывают различную надёжность в зависимости от задачи при использовании конфигурации с ограничением [latex]R_{max}=3[/latex], при этом DeepSeek-Coder (1.3B) не справляется ни с одной задачей, Phi4-Mini демонстрирует избирательную надёжность (58% для LRU, 0% для паролей), а аномально низкий показатель Qwen2.5-Coder (14B) при решении задачи с паролями указывает на проблему с данными, а не на недостаток возможностей модели.

Новый подход объединяет мощь нейронных сетей и формальную верификацию, чтобы сделать разработку программного обеспечения с использованием больших языковых моделей более предсказуемой и контролируемой.

Малые языковые модели: баланс между мощностью и ресурсами

В ходе обучения моделей на корпусе Tiny Shakespeare наблюдается, что более сложные архитектуры демонстрируют снижение функции потерь NLL, при этом эффективно избегая переобучения, что указывает на их способность к более точному моделированию языковых закономерностей.

Новое исследование показывает, что при ограниченных вычислительных возможностях, архитектуры, основанные на механизмах внимания, оказываются наиболее эффективными для малых языковых моделей.

Совместная работа агентов: Искусственный интеллект, управляемый кодом

Экспериментальные результаты демонстрируют ключевые закономерности, лежащие в основе исследуемого явления.

Новый подход к обучению мультиагентных систем позволяет им адаптироваться к стратегиям друг друга, используя возможности больших языковых моделей для создания программных политик.