Дух рынка: Искусственный интеллект и биржевые спекуляции

Автор: Денис Аветисян


Новое исследование показывает, как алгоритмы, основанные на больших языковых моделях, могут формировать поведение на финансовых рынках, от рациональных ожиданий до непредсказуемых пузырей.

☕️

Читаем отчёты, пьём кофе, ждём дивиденды. Если тебе надоел хайп и ты ищешь скучную, но стабильную гавань — добро пожаловать.

Телеграм канал
Несмотря на идентичную конфигурацию смешанного рынка и использование одних и тех же шести LLM-агентов, случайное изменение начального зерна приводит к значительному разбросу макроэкономического поведения, демонстрируя, что из пятидесяти экспериментов пропорции каждой категории существенно различаются, что подробно описано в Приложении B.7 и B.8 в контексте чувствительности к температуре LLM.
Несмотря на идентичную конфигурацию смешанного рынка и использование одних и тех же шести LLM-агентов, случайное изменение начального зерна приводит к значительному разбросу макроэкономического поведения, демонстрируя, что из пятидесяти экспериментов пропорции каждой категории существенно различаются, что подробно описано в Приложении B.7 и B.8 в контексте чувствительности к температуре LLM.

Анализ влияния больших языковых моделей, интегрированных в агент-ориентированное моделирование финансовых рынков, на формирование цен и возникновение спекулятивных пузырей.

Традиционные экономические модели часто предполагают рациональность участников, однако поведение реальных финансовых рынков нередко демонстрирует иррациональные колебания. В работе ‘Machine Spirits: Speculation and Adaptation of LLM Agents in Asset Markets’ исследуется, как большие языковые модели (LLM) проявляют себя в симулированной финансовой среде, формируя поведение от стабильной координации вокруг фундаментальной стоимости до спекулятивных пузырей. Полученные результаты показывают, что гетерогенные популяции LLM способны генерировать внутреннюю нестабильность, а адаптация к стратегии других агентов может усиливать волатильность рынка. Возможно ли, что внедрение LLM в финансовые системы принципиально изменит их экологию и потребует пересмотра существующих моделей?


Проблема Фактической Согласованности в Больших Языковых Моделях

Несмотря на впечатляющую способность генерировать связные и правдоподобные тексты, большие языковые модели (БЯМ) склонны к “галлюцинациям” — порождению фактических ошибок или бессмысленных утверждений. Данное явление представляет собой серьезную проблему, поскольку БЯМ, обученные на огромных объемах данных, могут уверенно представлять ложную информацию как истинную. Это происходит не из-за намеренного обмана, а из-за особенностей процесса обучения, в ходе которого модель стремится к статистической правдоподобности, а не к фактической точности. В результате, даже кажущиеся логичными ответы могут содержать неверные детали или противоречить общепринятым знаниям, что подрывает доверие к этим моделям в критически важных областях применения.

Неспособность больших языковых моделей (LLM) обеспечивать фактическую точность серьезно ограничивает их применимость в задачах, требующих достоверных знаний, особенно в области открытого доменного вопросно-ответного поиска. Поскольку LLM генерируют ответы, опираясь на статистические закономерности в данных обучения, а не на фактическое понимание, они могут выдавать убедительные, но ложные утверждения. Это представляет особую проблему в сценариях, где важна надежность информации — например, в медицинских консультациях, юридических исследованиях или новостном агрегировании. Таким образом, ограничения в обеспечении фактической согласованности существенно снижают доверие к LLM как к источникам достоверной информации, подчеркивая необходимость разработки новых методов для повышения их надежности и точности.

Несмотря на значительные успехи в масштабировании больших языковых моделей (LLM) — увеличение количества параметров и объемов обучающих данных — фундаментальная проблема фактической непоследовательности сохраняется. Исследования показывают, что простое увеличение масштаба не решает корень проблемы, а лишь временно маскирует ее проявления. Это обусловлено тем, что LLM, по сути, являются статистическими моделями, предсказывающими наиболее вероятную последовательность токенов, а не хранилищами знаний. В связи с этим, для повышения надежности и точности LLM необходимы принципиально новые подходы к интеграции знаний — разработка механизмов, позволяющих моделям эффективно использовать и проверять информацию из внешних источников, а также обеспечивать согласованность генерируемого текста с существующими фактами и доказательствами. Это включает в себя разработку методов извлечения знаний, верификации информации и обучения моделей рассуждению на основе фактов, что является ключевым направлением современных исследований в области искусственного интеллекта.

Результаты, полученные с помощью больших языковых моделей (LLM), демонстрируют широкий спектр поведения, от спекулятивных пузырей до рационального, сопоставимого с результатами, полученными людьми в исследовании Hommes et al. (2008), при этом рациональные ожидания (RE) выражаются формулой <span class="katex-eq" data-katex-display="false">p_{t}=p^{f}+cR^{t}</span>, где <span class="katex-eq" data-katex-display="false">c</span> - константа.
Результаты, полученные с помощью больших языковых моделей (LLM), демонстрируют широкий спектр поведения, от спекулятивных пузырей до рационального, сопоставимого с результатами, полученными людьми в исследовании Hommes et al. (2008), при этом рациональные ожидания (RE) выражаются формулой p_{t}=p^{f}+cR^{t}, где c — константа.

Поиск и Генерация с Дополнением: Основанный на Знаниях Подход

Генерация с использованием дополненного поиска (RAG) решает проблему галлюцинаций больших языковых моделей (LLM) за счет предоставления им возможности извлекать релевантную информацию из внешних источников знаний перед формированием ответа. Вместо генерации ответов исключительно на основе внутренних параметров модели, RAG сначала осуществляет поиск контекста, относящегося к запросу, в базе знаний, и затем использует этот контекст для обоснования и уточнения генерируемого ответа. Такой подход позволяет снизить вероятность выдачи неточной или вымышленной информации, поскольку ответ основывается на проверенных данных из внешнего источника, а не на вероятностных предсказаниях модели.

Процесс преобразования запросов и источников знаний в векторные представления осуществляется с использованием моделей внедрения (Embedding Models). Эти модели преобразуют текстовые данные в числовые векторы, отражающие семантическое значение текста. Полученные векторные представления хранятся в векторных базах данных, которые оптимизированы для выполнения быстрых и эффективных поисков по сходству. Использование векторного поиска позволяет находить наиболее релевантные фрагменты информации из источников знаний на основе семантической близости к запросу пользователя, что значительно повышает скорость и точность извлечения необходимой информации.

Основная цель подхода Retrieval Augmented Generation (RAG) — повышение фактической точности и надежности генерируемых больших языковых моделей (LLM). Традиционные LLM склонны к «галлюцинациям» — генерации недостоверной информации. RAG решает эту проблему, предоставляя LLM доступ к релевантным данным из внешних источников перед формированием ответа. Основываясь на извлеченном контексте, модель генерирует ответы, которые подтверждаются внешними данными, что снижает вероятность выдачи ложной или неточной информации и повышает доверие к результатам.

Оценка Эффективности RAG: За Пределами Простого Соответствия

Оценка систем RAG (Retrieval-Augmented Generation) требует подхода, выходящего за рамки стандартных метрик точности. Традиционные показатели часто не отражают, насколько сгенерированный ответ действительно основан на извлеченном контексте. Необходимо оценивать верность (faithfulness) ответа — степень, в которой утверждения в ответе подтверждаются извлеченными документами. Высокая верность критически важна для предотвращения генерации ложной информации (галлюцинаций) и обеспечения надежности системы. Простая точность не гарантирует, что ответ является не только правильным, но и обоснованным извлеченными знаниями, поэтому оценка верности становится ключевым аспектом комплексной оценки RAG-систем.

Оценка систем RAG (Retrieval-Augmented Generation) требует использования метрик релевантности контекста и ответа для определения соответствия извлеченных знаний запросу и точности их отражения в сгенерированном ответе. Релевантность контекста оценивает, насколько извлеченная информация соответствует исходному запросу, фокусируясь на уместности найденных документов или фрагментов. Релевантность ответа, в свою очередь, определяет, насколько сгенерированный ответ соответствует извлеченному контексту и отражает ли он содержащуюся в нем информацию без искажений или дополнений. Обе метрики критически важны для оценки эффективности системы в предоставлении точных и обоснованных ответов на запросы пользователей, и их комбинированное использование позволяет получить более полное представление о качестве работы RAG-системы.

Показатель достоверности (Faithfulness) в системах RAG количественно определяет степень соответствия сгенерированного ответа извлеченному контексту. Он измеряет, насколько каждое утверждение в ответе подтверждается информацией, полученной из релевантных документов. Высокий показатель достоверности указывает на то, что система избегает генерации информации, не основанной на предоставленном контексте, что снижает риск галлюцинаций и повышает надежность предоставляемых ответов. Оценка достоверности критически важна для обеспечения точности и обоснованности ответов, особенно в приложениях, где точность информации имеет первостепенное значение.

Влияние и Перспективы Развития Приложений на Базе LLM

Архитектура Retrieval-Augmented Generation (RAG) представляет собой важный шаг на пути к созданию более надежных и заслуживающих доверия приложений, работающих на базе больших языковых моделей (LLM). В отличие от традиционных LLM, которые полагаются исключительно на параметры, полученные в процессе обучения, RAG позволяет моделям получать доступ к внешним источникам информации в реальном времени. Это особенно важно в областях, где требуется высокая фактическая точность, таких как медицина, юриспруденция или научные исследования. Используя RAG, LLM могут не только генерировать более точные и обоснованные ответы, но и уменьшить вероятность «галлюцинаций» — выдачи ложной или вводящей в заблуждение информации. Внедрение RAG позволяет существенно повысить уровень прозрачности и контролируемости работы LLM, что критически важно для применения этих технологий в ответственных сферах.

Дальнейшее совершенствование методов промпт-инжиниринга представляется ключевым фактором для оптимизации использования извлеченных знаний в системах, основанных на подходе RAG (Retrieval-Augmented Generation). Эффективная формулировка запросов позволяет языковым моделям более точно интерпретировать контекст, полученный из внешних источников, и генерировать более релевантные и достоверные ответы. Исследования показывают, что тонкая настройка промптов способна значительно улучшить способность моделей к синтезу информации, снижению галлюцинаций и повышению общей надежности систем. Особенно важно разрабатывать промпты, которые не только предоставляют необходимый контекст, но и направляют модель на конкретный тип рассуждений или анализа, тем самым раскрывая весь потенциал извлеченных знаний и максимизируя преимущества подхода RAG в различных областях применения.

Недавние исследования показали, что большие языковые модели (LLM) способны демонстрировать разнообразные экономические паттерны поведения, варьирующиеся от рациональных ожиданий до формирования спекулятивных пузырей. В частности, модель Qwen3-14B, при использовании механизмов рассуждения, практически всегда (в 100% случаев) формирует подобные пузыри, в то время как без использования рассуждений этот показатель снижается до нуля. Данный феномен указывает на то, что способность к логическому выводу может усиливать склонность LLM к иррациональному поведению в экономических моделях, представляя интерес для понимания механизмов принятия решений и потенциальных рисков, связанных с использованием подобных моделей в финансовой сфере.

Исследования показали, что языковые модели, демонстрирующие поведение, аналогичное формированию финансовых пузырей, характеризуются значительно большей погрешностью в прогнозах. В частности, среднеквадратичная ошибка MSE у таких моделей оказывается на 3-4 порядка величины выше, чем у моделей, не склонных к подобному поведению. Это означает, что отклонение предсказаний от реальных значений в случае “пузырных” моделей может быть в тысячи или даже десятки тысяч раз больше. Данный разрыв в точности указывает на принципиальную разницу в механизмах принятия решений, подчеркивая нестабильность и непредсказуемость, присущие моделям, подверженным формированию «пузырей», в контексте экономического моделирования и прогнозирования.

Исследования показали, что большие языковые модели (LLM) способны демонстрировать поведение, характерное для формирования экономических пузырей. Подтверждением надежности этих наблюдений служит высокий коэффициент Коэна Каппа, превышающий 0.85, который был получен при использовании различных определений экономического пузыря. Этот показатель свидетельствует о высокой степени согласованности между разными методами идентификации пузырей, что позволяет утверждать: наблюдаемое поведение LLM не является случайным результатом специфического определения, а представляет собой устойчивое явление. Таким образом, данные подтверждают, что LLM, особенно при использовании логического мышления, склонны к формированию нерациональных экономических пузырей, что открывает новые перспективы для изучения механизмов принятия решений в искусственном интеллекте и потенциальных рисков, связанных с его применением в финансовых моделях.

Анализ поведения больших языковых моделей (LLM), склонных к формированию «пузырей» в экономических симуляциях, выявил интересную закономерность. Оказывается, разброс ошибок (дисперсия) в принятых решениях у этих моделей значительно меньше, чем общая величина ошибки. Это указывает на то, что, несмотря на иррациональное формирование пузырей, участники симуляции демонстрируют определенную координацию и придерживаются ограниченно рациональных стратегий. Иными словами, модели не действуют совершенно хаотично, а скорее согласованно ошибаются, что может свидетельствовать о наличии базовых механизмов социального взаимодействия и принятия решений, даже в условиях спекулятивного поведения. Такое поведение контрастирует с ситуацией, когда ошибки распределены более равномерно, что говорит о большей индивидуальной неопределенности и меньшей координации между участниками.

Агенты демонстрируют разнообразие в прогнозах, но при этом склонны к координации стратегий в условиях формирования пузырей, причём модели, формирующие пузыри, имеют среднеквадратичные ошибки на 3-4 порядка величины выше, чем модели, не формирующие их.
Агенты демонстрируют разнообразие в прогнозах, но при этом склонны к координации стратегий в условиях формирования пузырей, причём модели, формирующие пузыри, имеют среднеквадратичные ошибки на 3-4 порядка величины выше, чем модели, не формирующие их.

Исследование демонстрирует, что включение больших языковых моделей в финансовые рынки порождает сложные поведенческие паттерны, варьирующиеся от рациональных ожиданий до спекулятивных пузырей. Данный процесс напоминает органическую систему, где поведение определяется структурой взаимодействия агентов. Блез Паскаль заметил: «Все проблемы человечества происходят от того, что человек не умеет спокойно сидеть в комнате». Эта мысль перекликается с наблюдаемой нестабильностью рынков, где постоянное стремление к новому, к прибыли, часто приводит к иррациональным решениям и формированию пузырей, нарушая равновесие системы. Подобно тому, как человек неспособен к бездействию, агенты на рынке постоянно адаптируются и реагируют, создавая динамичную и порой хаотичную среду.

Куда Ведет Эта Дорога?

Представленная работа демонстрирует, что интеграция больших языковых моделей в финансовые рынки — это не просто техническая возможность, но и сложный эксперимент по созданию искусственной экономической экосистемы. Нельзя не заметить, что наблюдаемое разнообразие поведения — от рациональных ожиданий до спекулятивных пузырей — подчеркивает хрупкость традиционных экономических моделей и их неспособность адекватно описать системы, населенные агентами с непредсказуемой «логикой». Остается открытым вопрос о масштабируемости этих моделей и их устойчивости к внешним шокам; симуляция — это лишь упрощенное отражение реальности, и истинная сложность финансовых рынков, вероятно, превосходит все наши текущие представления.

Дальнейшие исследования должны быть сосредоточены на понимании механизмов, лежащих в основе формирования коллективного поведения этих агентов. Необходимо исследовать, как различные архитектуры языковых моделей и стратегии обучения влияют на стабильность и эффективность рынка. Особый интерес представляет вопрос о возникновении «черных лебедей» — непредсказуемых событий, которые могут привести к катастрофическим последствиям. Попытки предсказать такие события, вероятно, обречены на неудачу, но понимание факторов, способствующих их возникновению, может помочь смягчить их последствия.

Хорошая архитектура незаметна, пока не ломается, и только тогда видна настоящая цена решений. В конечном счете, ценность этой работы заключается не в создании идеальной модели финансового рынка, а в постановке фундаментальных вопросов о природе сложности, адаптации и коллективного поведения. Именно эти вопросы определяют дальнейший путь исследований и могут привести к более глубокому пониманию экономических процессов.


Оригинал статьи: https://arxiv.org/pdf/2604.18602.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-04-22 17:43