Иллюзии Разума: Как Большие Языковые Модели Принимают Нерациональные Решения

Автор: Денис Аветисян


Новое исследование показывает, что большие языковые модели склонны к тем же когнитивным искажениям, что и люди, и даже могут усиливать их при принятии оперативных решений.

🐢

Ищешь ракеты? Это не к нам. У нас тут скучный, медленный, но надёжный, как швейцарские часы, фундаментальный анализ.

Бесплатный Телеграм канал
Облако слов, визуализирующее обоснования принятых решений, выявляет ключевые темы и закономерности в процессе рассуждений, демонстрируя преобладающие факторы, влияющие на выбор и стратегию.
Облако слов, визуализирующее обоснования принятых решений, выявляет ключевые темы и закономерности в процессе рассуждений, демонстрируя преобладающие факторы, влияющие на выбор и стратегию.

Работа демонстрирует воспроизведение и усиление когнитивных искажений в больших языковых моделях при решении задачи «Newsvendor», подчеркивая необходимость человеческого контроля и внимания к вопросам выравнивания ИИ.

Несмотря на растущую интеграцию больших языковых моделей (LLM) в процессы принятия бизнес-решений, сохраняется риск воспроизведения и даже усиления когнитивных искажений, свойственных человеку. В данной работе, ‘Large Language Newsvendor: Decision Biases and Cognitive Mechanisms’, исследуются паттерны принятия решений ведущими LLM на примере классической задачи о новостнике, выявляя природу и причины их когнитивных предубеждений. Полученные результаты демонстрируют, что LLM не только воспроизводят известные искажения, но и усиливают тенденции, такие как погоня за спросом, при этом сложность модели не гарантирует рациональности. Не потребуются ли новые подходы к разработке и внедрению LLM, обеспечивающие надежность и предсказуемость их решений в критически важных областях?


Искажения в Матрице Решений: Как Мозг Нас Обманывает

Человеческое принятие решений неизменно подвержено когнитивным искажениям, что приводит к неоптимальным результатам в самых разнообразных ситуациях. Эти систематические ошибки мышления, укоренившиеся в особенностях обработки информации мозгом, влияют на оценки рисков, восприятие вероятностей и формирование суждений. Например, эффект привязки заставляет людей чрезмерно полагаться на первую полученную информацию, даже если она нерелевантна, а неприятие потерь заставляет избегать рисков, связанных с потенциальными убытками, сильнее, чем стремиться к сопоставимым выгодам. Искажения проявляются как в повседневных задачах, таких как выбор продуктов в магазине, так и в критических ситуациях, например, при принятии инвестиционных решений или в медицинской диагностике. Понимание этих предубеждений является ключом к повышению качества принимаемых решений и снижению вероятности ошибок, вызванных нерациональным поведением.

Проблема торговца газетами, или «Newsvendor Problem», служит классическим примером систематического отклонения людей от рационального управления запасами. В данной модели предполагается, что торговец должен решить, какое количество газет заказать на следующий день, не зная точно спрос. Рациональное решение, согласно теории вероятностей, предполагает баланс между риском упустить прибыль из-за недостаточного количества газет и риском понести убытки из-за излишних запасов. Однако многочисленные исследования показывают, что люди, как правило, переоценивают вероятность низкого спроса и заказывают слишком мало газет, стремясь избежать убытков, даже если это приводит к упущенной выгоде. Этот феномен демонстрирует, как когнитивные искажения, в частности, неприятие потерь, влияют на принятие решений в условиях неопределенности, и подчеркивает, что люди часто действуют не как «рациональные агенты», а как существа, подверженные психологическим предубеждениям.

Понимание когнитивных искажений крайне важно, однако традиционные методы зачастую не способны количественно оценить и предсказать их влияние в сложных системах. Недавние исследования демонстрируют, что большие языковые модели (LLM) могут усиливать эти искажения, в некоторых случаях увеличивая их проявление до 70%. Это подчеркивает необходимость разработки более продвинутых методов моделирования, способных учитывать и компенсировать предвзятость, присущую как человеческому мышлению, так и алгоритмам искусственного интеллекта. Особенно актуальным становится поиск способов смягчения влияния этих искажений в процессах принятия решений, где последствия могут быть значительными, например, в сфере финансов, здравоохранения или правосудия.

Различные сценарии спроса и прибыли влияют на порядок траекторий, генерируемых языковой моделью.
Различные сценарии спроса и прибыли влияют на порядок траекторий, генерируемых языковой моделью.

Моделирование Человеческой Предвзятости с Помощью Больших Языковых Моделей

Всё чаще большие языковые модели (БЯМ) используются для моделирования процессов принятия решений человеком в рамках задачи о новостнике ($Newsvendor Problem$). Этот подход позволяет исследователям симулировать поведение, связанное с заказом товаров, учитывая неопределенность спроса и стремясь к оптимизации прибыли. БЯМ позволяют проводить контролируемые эксперименты, варьируя параметры модели и анализируя возникающие закономерности в принятии решений, что способствует лучшему пониманию когнитивных искажений и эвристик, влияющих на человеческий выбор в подобных ситуациях. Такой подход предоставляет возможность количественно оценивать и сравнивать поведение модели и человека, выявляя области, в которых БЯМ могут как точно воспроизводить, так и отклоняться от человеческих стратегий.

Использование больших языковых моделей (LLM) позволяет исследователям проводить систематическое изучение когнитивных искажений в процессах принятия решений, таких как предвзятость при заказе товаров, влияние порядка представления информации и склонность к следованию за текущим спросом. LLM эмулируют поведение человека в задачах, например, в рамках проблемы торговца газетами, что позволяет контролируемо изменять параметры и анализировать, как различные факторы влияют на решения о заказе. Это, в свою очередь, дает возможность выявлять и количественно оценивать проявление упомянутых когнитивных искажений, а также сравнивать их с человеческим поведением в аналогичных ситуациях. В результате появляется возможность более глубокого понимания механизмов принятия решений и разработки стратегий для смягчения негативных последствий когнитивных искажений.

В рамках моделирования проблемы «Новостного торговца» для исследования когнитивных искажений, большие языковые модели используют различные вероятностные распределения для представления неопределенности спроса и формирования решений о заказе. В частности, применяются равномерное ($U$), нормальное ($N$) и логнормальное ($L$) распределения. Экспериментальные данные показали, что GPT-4 демонстрирует значительно большее отклонение в избыточном заказе при использовании равномерного распределения и низкой марже, превышая аналогичный показатель, зафиксированный у людей-участников исследования, на 70%.

В условиях логнормального распределения спроса наблюдается адаптивное поведение системы, оптимизирующееся с каждым раундом.
В условиях логнормального распределения спроса наблюдается адаптивное поведение системы, оптимизирующееся с каждым раундом.

Роль Рациональности и Сложности Модели

Степень сложности модели в больших языковых моделях (БЯМ) оказывает влияние на типы и величину когнитивных искажений, проявляющихся в симуляциях. Более сложные модели, обладающие большим количеством параметров и способные к более тонким различиям в данных, могут демонстрировать иные паттерны искажений по сравнению с более простыми моделями. В частности, наблюдается корреляция между сложностью модели и выраженностью определенных когнитивных предубеждений, таких как предвзятость подтверждения или эвристика доступности. Увеличение сложности модели не всегда приводит к уменьшению искажений; в некоторых случаях, это может привести к появлению новых, более тонких форм предубеждений, которые сложнее обнаружить и устранить. Анализ различных уровней сложности БЯМ в симуляциях позволяет выявить взаимосвязь между архитектурными особенностями модели и проявлениями когнитивных искажений, что важно для повышения надежности и объективности результатов моделирования.

Применение принципа строгой нейтральности к риску в моделях искусственного интеллекта может искажать результаты симуляций, поскольку игнорирует присущую людям неприятие риска. В реальности, люди склонны переоценивать вероятность негативных исходов и избегать рискованных решений, даже если потенциальная выгода высока. Следовательно, модели, предполагающие нейтральность к риску, могут демонстрировать предвзятости, не отражающие реальное поведение человека, либо маскируя существующие предубеждения, либо, наоборот, преувеличивая их. Учет неприятия риска является критически важным для обеспечения достоверности симуляций и интерпретации их результатов в контексте человеческого принятия решений.

Результаты исследований подчеркивают необходимость тщательной калибровки параметров моделей при интерпретации результатов симуляций. Отклонения от оптимальных настроек могут приводить к искажению или усугублению когнитивных искажений. Примечательно, что модель GPT-4o продемонстрировала практически нулевой уклон сходимости (+0.003), указывая на немедленное принятие оптимального решения, в то время как другие модели показали значительную задержку в достижении аналогичного результата. Это свидетельствует о важности учета психологических основ предвзятости и влияния архитектурных особенностей модели на процесс принятия решений.

Смягчение Предвзятости посредством Контроля и Подсказок

Внедрение стратегии “человек в контуре” (Human-in-the-Loop Oversight) представляет собой эффективный механизм противодействия заложенным предубеждениям в процессах принятия решений, осуществляемых искусственным интеллектом. Данный подход предполагает активное участие человека на ключевых этапах работы алгоритма, позволяя выявлять и корректировать потенциально предвзятые результаты. Вместо полной автоматизации, система получает возможность “перепроверять” свои выводы с точки зрения человеческой логики и этических норм, что особенно важно в областях, связанных с социальной справедливостью, финансами и здравоохранением. Такой симбиоз искусственного и человеческого интеллекта не только повышает точность принимаемых решений, но и обеспечивает большую прозрачность и подотчетность алгоритмов, снижая риск дискриминации и несправедливого исхода.

Тщательно разработанные методы структурированного запроса, или “промптинга”, способны направлять большие языковые модели к более рациональным результатам, минимизируя влияние когнитивных искажений. Исследования показывают, что, задавая вопросы в определенной, структурированной форме, можно значительно снизить вероятность того, что модель выдаст ответ, основанный на предвзятых данных или логических ошибках. Такие техники включают в себя, например, явное указание модели на необходимость анализа информации с разных точек зрения, требование предоставления доказательств в поддержку утверждений, или использование формата “вопрос-ответ” с последующей проверкой обоснованности ответа. В результате, структурированный промптинг позволяет не только повысить точность и объективность ответов, но и сделать процесс принятия решений более прозрачным и предсказуемым.

Исследования демонстрируют, что искусственный интеллект способен не только выявлять предвзятость в данных и процессах принятия решений, но и активно содействовать более объективному и эффективному подходу. В частности, модель GPT-4o показала значительное улучшение в способности к адаптации и исправлению ошибок в ответ на обратную связь, превосходя другие модели в этом аспекте. Это свидетельствует о возможности использования ИИ для создания систем, которые не просто отражают существующие предубеждения, но и минимизируют их влияние, способствуя более рациональным и справедливым результатам. Данный прогресс открывает перспективы для применения ИИ в различных сферах, где объективность и беспристрастность имеют решающее значение.

Исследование демонстрирует, что сложные языковые модели не обязательно ведут к рациональным решениям в операционных задачах, а скорее воспроизводят и усиливают когнитивные искажения, свойственные человеку. Это подтверждает важность человеческого надзора и критического анализа при внедрении ИИ в системы управления. Как отмечал Роберт Тарьян: «Если систему нельзя сломать, значит, вы её не поняли». Эта фраза отражает суть работы: для эффективного управления необходимо глубокое понимание внутренних механизмов системы, включая её уязвимости и склонности к ошибкам, чтобы предвидеть и смягчить потенциальные проблемы. Иными словами, понимание принципов работы модели — это первый шаг к созданию надежной и эффективной системы.

Что дальше?

Исследование, продемонстрировавшее воспроизведение когнитивных искажений в больших языковых моделях, лишь подтверждает старую истину: сложность системы не гарантирует её разумности. Модель может оперировать триллионами параметров, но это не отменяет склонности к ошибкам, унаследованным от данных, на которых она обучалась — данных, созданных существами, далеко не всегда действующими рационально. Вместо наивной веры в «искусственный интеллект», необходимо признать, что мы имеем дело с зеркалом, отражающим наши собственные недостатки, возможно, даже усиливающим их.

Будущие работы должны сосредоточиться не на увеличении размера моделей, а на разработке методов выявления и смягчения этих искажений. Иначе, мы рискуем автоматизировать и масштабировать иррациональность. Интересным направлением представляется изучение возможности «взлома» этих искажений, использования их предсказуемости для создания более надежных систем принятия решений — ироничный поворот, когда слабость становится силой.

В конечном итоге, вопрос не в том, сможет ли машина думать как человек, а в том, захотим ли мы, чтобы она думала так же, как мы. Если цель — оптимизация, а не просто имитация, то, возможно, наиболее рациональным решением окажется полный отказ от попыток построения «человекоподобного» интеллекта, и создание чего-то принципиально иного.


Оригинал статьи: https://arxiv.org/pdf/2512.12552.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2025-12-17 00:01