Автор: Денис Аветисян
Исследование предлагает усовершенствованную модель оптимизации инвестиционного портфеля, учитывающую неопределенность волатильности и ограничения на короткие продажи.
"Покупай на слухах, продавай на новостях". А потом сиди с акциями никому не известной биотех-компании. Здесь мы про скучный, но рабочий фундаментал.
Бесплатный Телеграм канал
Представлена модель, использующая теорию сублинейных ожиданий и фактор риска для формирования парето-оптимального портфеля при распределительной неопределенности.
Неучет неопределенности волатильности часто приводит к неоптимальным решениям в управлении инвестиционным портфелем. В данной работе, посвященной исследованию ‘Pareto frontier of portfolio investment under volatility uncertainty and short-sale constraints market’, предложена новая модель оптимизации портфеля, основанная на теории сублинейных ожиданий, позволяющая учесть неопределенность распределения волатильности. Показано, что полученная модель позволяет построить непрерывную выпуклую парето-границу, а оптимальное решение может быть выражено аналитически через параметр, отражающий степень риска. Способствует ли предложенный подход к повышению доходности инвестиционного портфеля при заданном уровне риска и какие перспективы открываются для дальнейшего развития моделей управления портфелем с учетом неопределенности?
Пределы контекста: когда большие языковые модели теряют нить
Современные большие языковые модели (БЯМ) демонстрируют впечатляющую способность к генерации текста, создавая связные и грамматически правильные предложения. Однако, по мере увеличения длины генерируемой последовательности, поддерживать логическую согласованность и фактическую точность становится всё сложнее. БЯМ склонны к потере контекста, что приводит к противоречиям в тексте или включению недостоверной информации. Несмотря на кажущуюся беглость речи, модели часто испытывают трудности с удержанием в памяти деталей, упомянутых ранее, особенно в длинных документах или сложных диалогах. Эта проблема ограничивает их применимость в задачах, требующих глубокого понимания и последовательного рассуждения, таких как написание книг, создание научных отчётов или ведение продолжительных бесед.
Ограничение возможностей больших языковых моделей при обработке длинных текстов связано с так называемым квадратичным масштабированием механизма внимания. Этот механизм, ключевой для определения взаимосвязей между словами в предложении, требует вычислительных ресурсов, растущих пропорционально квадрату длины входной последовательности. Это означает, что при увеличении длины текста в два раза, требуемые вычислительные мощности увеличиваются в четыре раза, что быстро становится непосильным для существующих аппаратных средств. В результате, модели испытывают трудности с удержанием важной информации на больших расстояниях, что негативно сказывается на когерентности текста и способности к сложным умозаключениям. Такое ограничение препятствует эффективной обработке длинных документов, написанию связных историй и выполнению задач, требующих глубокого понимания контекста.
Склонность больших языковых моделей к “галлюцинациям” — генерации неверной или бессмысленной информации — подчеркивает настоятельную необходимость разработки более надежных методов интеграции знаний. Данная проблема проявляется не как случайные ошибки, а как системное ограничение, препятствующее надежному применению этих моделей в критически важных областях. Исследования показывают, что модели часто экстраполируют информацию за пределы своих знаний, создавая правдоподобные, но ложные утверждения. Для решения этой задачи активно изучаются подходы, включающие внешние базы знаний, механизмы верификации информации и более сложные архитектуры, способные отличать известные факты от вероятностных предположений. Успешное преодоление этой проблемы станет ключевым шагом к созданию действительно надежных и полезных систем искусственного интеллекта.
RAG: Возвращая знания в центр внимания
Технология Retrieval-Augmented Generation (RAG) представляет собой эффективный подход к преодолению ограничений больших языковых моделей (LLM), связанных с недостатком актуальных знаний или специфической информации. Вместо того, чтобы полагаться исключительно на параметры, полученные в процессе обучения, RAG интегрирует внешние источники знаний, позволяя LLM получать доступ к дополнительным данным непосредственно во время генерации текста. Это позволяет значительно расширить возможности модели, обеспечивая более точные, контекстуально релевантные и информативные ответы, особенно в ситуациях, когда требуется информация, не содержащаяся в исходном наборе данных для обучения LLM. Использование внешних источников позволяет модели адаптироваться к новым данным и специфическим требованиям без необходимости переобучения всей модели.
Системы RAG (Retrieval-Augmented Generation) используют методы информационного поиска для выявления релевантного контекста из больших объемов данных. Процесс включает в себя анализ входного запроса, поиск наиболее подходящих фрагментов информации из внешних источников (например, базы знаний, документов, веб-страниц) и объединение этих фрагментов с исходным запросом перед генерацией ответа. Это позволяет LLM (Large Language Model) учитывать информацию, которой она не была обучена, повышая точность, релевантность и обоснованность генерируемого текста. Эффективность этого процесса напрямую зависит от качества алгоритмов информационного поиска и методов ранжирования релевантных фрагментов.
Эффективная реализация RAG-систем напрямую зависит от использования векторных баз данных и моделей эмбеддингов для семантического представления и поиска информации. Модели эмбеддингов преобразуют текстовые данные в векторные представления, отражающие их смысловое содержание. Эти векторы хранятся в векторной базе данных, позволяющей выполнять быстрый и точный поиск наиболее релевантных фрагментов информации на основе семантического сходства, а не просто по ключевым словам. Векторные базы данных, такие как Pinecone, Chroma или FAISS, оптимизированы для эффективного хранения и поиска высокоразмерных векторных представлений, что критически важно для масштабируемости RAG-систем, работающих с большими объемами данных.
Графы знаний: Структурирование информации для углубленного анализа
Графы знаний представляют информацию в виде взаимосвязанных сущностей и отношений между ними, обеспечивая структурированное и семантическое понимание данных. В отличие от традиционных баз данных, которые ориентированы на хранение данных в таблицах, графы знаний моделируют реальный мир, представляя объекты как узлы, а связи между ними — как рёбра. Каждый узел и ребро может иметь атрибуты и свойства, описывающие конкретные характеристики. Такая структура позволяет не только хранить информацию, но и выводить новые знания на основе существующих связей, что делает графы знаний эффективным инструментом для анализа данных и принятия решений. Использование RDF (Resource Description Framework) и OWL (Web Ontology Language) является стандартом для представления и обмена данными в графах знаний.
Интеграция графов знаний с системами RAG (Retrieval-Augmented Generation) обеспечивает более целевой и точный поиск информации посредством семантического поиска. Традиционные методы поиска, основанные на ключевых словах, часто упускают нюансы смысла и контекст. В отличие от них, семантический поиск, поддерживаемый графами знаний, позволяет учитывать взаимосвязи между сущностями и понятиями. Система RAG использует граф знаний для расширения запроса пользователя, выявляя релевантные сущности и связи, даже если они явно не указаны в исходном запросе. Это приводит к извлечению более точных и полных результатов, которые затем используются для генерации ответов, повышая их релевантность и достоверность.
Построение графов знаний из неструктурированных данных позволяет создавать богатые базы знаний, которые могут быть использованы для улучшения производительности больших языковых моделей (LLM) и снижения вероятности возникновения галлюцинаций. Процесс включает в себя извлечение сущностей и отношений из текстовых источников, таких как документы, веб-страницы и базы данных, с использованием методов обработки естественного языка (NLP). Извлеченные данные затем преобразуются в узлы и ребра графа, где узлы представляют сущности, а ребра — связи между ними. Использование графов знаний в качестве внешнего источника знаний для LLM позволяет им получать доступ к проверенной и структурированной информации, что повышает точность и надежность генерируемых ответов и уменьшает склонность к выдумыванию фактов.
Контекстуализация и валидация: Гарантия надежной генерации
В настоящее время, для повышения связности и глубины ответов больших языковых моделей (LLM) активно используется контекстуализация, основанная на графах знаний. Вместо обработки запросов изолированно, LLM получают дополнительную информацию из структурированных баз данных, представляющих собой взаимосвязанные факты и концепции. Этот подход позволяет моделям не просто генерировать текст, а понимать его в более широком контексте, что приводит к более осмысленным и информативным ответам. Использование графов знаний обеспечивает LLM доступом к релевантным данным, которые могут быть неявно подразумеваемыми в запросе, но необходимыми для формирования полного и точного ответа. В результате, ответы становятся более когерентными, логичными и лучше отражают реальное положение дел.
Основываясь на проверенных знаниях, современные системы позволяют активно выявлять и снижать вероятность возникновения галлюцинаций — неверных или бессмысленных ответов, генерируемых языковыми моделями. Механизмы верификации фактов анализируют сгенерированный текст, сопоставляя его с достоверными источниками информации, представленными в структурированных базах знаний. В случае обнаружения расхождений, система способна либо корректировать ответ, заменяя недостоверные фрагменты, либо сигнализировать о потенциальной неточности, обеспечивая тем самым повышение надежности и достоверности предоставляемой информации. Такой подход особенно важен в областях, где точность критична, таких как медицина, финансы и право, позволяя минимизировать риски, связанные с распространением ложных сведений.
Сочетание методов промпт-инжиниринга с технологиями извлечения информации (RAG) и графами знаний позволяет достичь прецизионного контроля над поведением больших языковых моделей и значительно улучшить качество генерируемого контента. Исследования в области оптимизации инвестиционных портфелей демонстрируют, что данный подход позволяет достичь коэффициента Шарпа до 0.714, что превосходит показатели традиционных моделей и свидетельствует о повышенной эффективности и надежности принимаемых решений. Использование структурированных знаний и тщательно продуманных запросов способствует более точной и релевантной генерации ответов, снижая вероятность ошибок и повышая доверие к результатам.
Представленное исследование демонстрирует стремление к преодолению упрощенных моделей в области управления инвестиционным портфелем. Авторы, используя теорию сублинейных ожиданий, предлагают способ учета неопределенности распределения рисков, что особенно важно в условиях волатильности рынка. Этот подход позволяет построить более устойчивую парето-фронтиру, обеспечивая гибкость в распределении активов. Как некогда заметил Бертран Рассел: «Всякое убеждение содержит в себе элемент иррациональности». Это высказывание находит отражение в необходимости постоянной проверки гипотез и сомнений в кажущейся очевидности моделей, особенно при работе с финансовыми данными, где любая уверенность может быть обманчивой.
Куда двигаться дальше?
Представленная работа, стремясь к более реалистичному описанию неопределенности на финансовых рынках, неизбежно наталкивается на фундаментальное ограничение: любая модель — лишь упрощение сложной реальности. Введение понятия “множества Вассерштейна” для учета дистрибутивной неопределенности — шаг вперед, но не следует забывать, что истинное распределение, вероятно, выходит далеко за рамки предложенных конструкций. Данные — не цель, а зеркало человеческих ошибок, и каждая новая модель лишь выявляет новые, более тонкие грани этой неопределенности.
Особое внимание заслуживает вопрос о калибровке параметров, отражающих степень неопределенности. В текущем виде модель требует априорных оценок, что вводит субъективность. Разработка методов автоматической оценки этих параметров на основе исторических данных, или, что еще более интересно, на основе данных, полученных из альтернативных источников (например, настроений в социальных сетях), представляется перспективным направлением. Всё, что нельзя измерить, всё равно влияет — просто это труднее моделировать.
Наконец, необходимо помнить о границах применимости предложенного подхода. Модель предполагает, что инвесторы стремятся к оптимизации, что не всегда соответствует действительности. Исследование поведения инвесторов, отклоняющихся от рациональных моделей, и включение этих поведенческих факторов в модель, может привести к еще более реалистичным результатам. В конечном счете, истинная эффективность модели будет определяться не ее математической элегантностью, а ее способностью предсказывать реальные рыночные колебания.
Оригинал статьи: https://arxiv.org/pdf/2605.02666.pdf
Связаться с автором: https://www.linkedin.com/in/avetisyan/
Смотрите также:
- Стоит ли покупать фунты за йены сейчас или подождать?
- Координация Роя: Новый Алгоритм для Планирования Задач и Движений
- Т-Технологии акции прогноз. Цена T
- ВСМПО-АВИСМА акции прогноз. Цена VSMO
- Сегежа акции прогноз. Цена SGZH
- AI, Приватность и Bitcoin: Ключевые Тренды Крипто-Рынка в 2026 Году (06.05.2026 12:15)
- Алфавит и Искусство Предвидения
- Серебро прогноз
- Стоит ли покупать евро за малайзийские ринггиты сейчас или подождать?
- ТГК-1 акции прогноз. Цена TGKA
2026-05-06 03:17