Иллюзии машин: как бороться с выдумками больших языковых моделей

В процессе ответа на вопросы, основанные на базе знаний, система GraphRAG демонстрирует склонность к галлюцинациям, что указывает на присущую ей уязвимость к генерации недостоверной информации при извлечении знаний из графовых структур.

Новое исследование объясняет причины появления ложной информации в системах, использующих графовые базы знаний для улучшения ответов, и предлагает методы обнаружения этих ошибок.

Обучение языковых моделей: как повысить надёжность ответов

Для оценки и смягчения галлюцинаций в системах ответов на вопросы используются три формата задач: краткие ответы с прямой проверкой, длинные ответы с сопоставлением утверждений с предоставленным текстом для выявления внутренних несоответствий, и длинные ответы, в которых утверждения проверяются по результатам поиска, чтобы оценить внешние галлюцинации.

Новый подход с использованием обучения с подкреплением позволяет значительно снизить количество неправдивых или бессмысленных ответов, генерируемых большими языковыми моделями.

Управление рисками в эпоху скачков: новый подход к оптимизации портфеля

Сходимость параметров $μ$, $σ$ и $δ$ демонстрирует стабилизацию модели и указывает на её способность к эффективному обучению, что критически важно для достижения надёжных результатов в условиях хаотичных данных.

Исследование предлагает алгоритм машинного обучения с подкреплением для построения оптимального инвестиционного портфеля в условиях рынков, подверженных резким изменениям и непредсказуемым скачкам.

Иллюзия Рациональности: Как Искусственный Интеллект Ведёт Переговоры

В ходе самоигровых симуляций обнаружена устойчивая подверженность современных передовых моделей, таких как Claude 4.5 Sonnet ($ρ≈0.78$) и Gemini 2.5 Pro ($ρ≈0.91$), когнитивному искажению привязки к начальному значению, что проявляется в тесной корреляции между нормализованной начальной ценой и конечным результатом, несмотря на их продвинутые возможности рассуждения.

Новое исследование показывает, что даже самые мощные модели искусственного интеллекта подвержены когнитивным искажениям и демонстрируют не всегда оптимальное поведение в процессе переговоров.