Искусственный разум против теорем: Новая стратегия поиска ошибок

Автор: Денис Аветисян


Исследователи разработали систему, обученную на больших языковых моделях, способную находить формальные контрпримеры, подтверждающие ложность математических утверждений.

🐢

Ищешь ракеты? Это не к нам. У нас тут скучный, медленный, но надёжный, как швейцарские часы, фундаментальный анализ.

Телеграм канал
Для решения задачи формальной генерации опровергающих примеров, языковая модель сначала выполняет неформальное рассуждение для выявления валидного опровержения заданной проблемы, а затем генерирует соответствующее формальное доказательство, которое автоматически проверяется теоремами (например, Lean 4).
Для решения задачи формальной генерации опровергающих примеров, языковая модель сначала выполняет неформальное рассуждение для выявления валидного опровержения заданной проблемы, а затем генерирует соответствующее формальное доказательство, которое автоматически проверяется теоремами (например, Lean 4).

Предложен фреймворк, использующий синтез данных и многокритериальное обучение для повышения эффективности поиска контрпримеров и формального рассуждения.

Математическое мышление требует не только доказательства истинных утверждений, но и поиска опровергающих примеров для ложных. В работе ‘Learning to Disprove: Formal Counterexample Generation with Large Language Models’ предложен новый подход к обучению больших языковых моделей (LLM) генерации формальных опровергающих примеров, способных быть автоматически проверенными в системе Lean 4. Ключевым нововведением является стратегия символической мутации для синтеза разнообразных обучающих данных и многокритериальная схема обучения, повышающие эффективность поиска и обоснования опровержений. Не откроет ли это путь к созданию более надежных и эффективных систем автоматизированного доказательства теорем и формальной верификации?


Вечная борьба с контрпримерами: вызовы автоматического доказательства

Эффективный поиск опровергающих примеров является краеугольным камнем автоматического доказательства теорем и верификации, однако эта задача исторически представляла значительные трудности. Суть проблемы заключается в необходимости систематического исследования огромного пространства возможных решений, чтобы обнаружить даже единственное противоречие, которое опровергает предложенное утверждение. Традиционные методы часто оказываются неэффективными при работе со сложными системами или абстрактными математическими конструкциями, требуя значительных вычислительных ресурсов и времени. Поиск опровергающих примеров требует не только перебора вариантов, но и способности логически рассуждать, выявлять закономерности и строить контрпримеры, которые удовлетворяют определенным критериям. Именно поэтому разработка алгоритмов и стратегий, способных эффективно генерировать опровергающие примеры, остается актуальной и сложной задачей в области формальной верификации и искусственного интеллекта.

Современные подходы, использующие большие языковые модели (LLM) для поиска контрпримеров, сталкиваются с существенными трудностями, обусловленными спецификой формальной математики. В отличие от задач, где LLM демонстрируют впечатляющие результаты в обработке естественного языка, доказательство теорем требует не просто понимания логических связей, но и абсолютной строгости в каждом шаге рассуждений. LLM, обученные на больших объемах текстовых данных, часто допускают ошибки в логических выводах, особенно когда требуется глубокий анализ и выявление тонких противоречий. Процесс формального доказательства требует последовательного применения аксиом и правил вывода, что выходит за рамки статистического моделирования, на котором основаны LLM. Таким образом, существующие модели демонстрируют недостаточную глубину и rigor, необходимые для успешного решения задач автоматического поиска контрпримеров в формальной математике, и нуждаются в существенной доработке для достижения приемлемого уровня надежности и точности.

Ограниченность обучающих данных и редкое положительное подкрепление существенно затрудняют работу моделей, использующих большие языковые модели (LLM) для поиска контрпримеров в формальной математике. В отличие от задач, где доступно огромное количество размеченных примеров, область формальной верификации характеризуется недостатком данных, поскольку создание корректных контрпримеров требует глубокого понимания математической логики и часто связано с значительными вычислительными затратами. Более того, даже при успешном нахождении контрпримера, модель получает лишь редкое положительное подкрепление, что замедляет процесс обучения и усложняет оптимизацию параметров. Это приводит к тому, что модель испытывает трудности в обобщении полученных знаний и эффективном поиске контрпримеров для новых, более сложных задач, что снижает ее полезность в автоматизированном доказательстве теорем и верификации программного обеспечения.

Обучение на основе контрпримеров использует символьные мутации для создания новых задач, а затем использует два типа вознаграждений - за доказательство мутированной гипотезы и за отказ от исходной - для повышения эффективности и скорости обучения.
Обучение на основе контрпримеров использует символьные мутации для создания новых задач, а затем использует два типа вознаграждений — за доказательство мутированной гипотезы и за отказ от исходной — для повышения эффективности и скорости обучения.

Мутация как ключ к исследованию: расширение пространства поиска

Новый подход использует Стратегию Мутации для генерации новых задач, направленных на поиск контрпримеров, путем исключения гипотез из доказанных теорем. Данная стратегия предполагает намеренное удаление отдельных утверждений, которые уже были подтверждены, что приводит к созданию модифицированных теорем, требующих повторной проверки. Этот процесс позволяет генерировать альтернативные сценарии, которые могут выявить слабые места в текущих логических выводах и, следовательно, способствовать обнаружению контрпримеров, которые были бы недоступны при работе только с исходными, доказанными теоремами. Фактически, мутация создает «искаженные» версии теорем, которые заставляют систему поиска контрпримеров исследовать более широкий спектр возможностей.

Данный метод расширения пространства поиска контрпримеров основан на создании модифицированных задач путем исключения гипотез из доказанных теорем. В результате, пространство возможных контрпримеров увеличивается, что позволяет обнаруживать решения, которые были недоступны при использовании исходного, ограниченного пространства поиска. Это расширение особенно полезно в ситуациях, когда стандартные методы поиска не позволяют найти контрпримеры из-за неполного охвата пространства, и позволяет модели более эффективно фокусировать усилия на поиске решений в расширенной области.

Использование расширенного пространства поиска, созданного за счет мутации проблемных областей, позволяет языковым моделям (LLM) более эффективно концентрировать усилия на решении задач и, как следствие, повышать процент успешных находок. Традиционные методы часто сталкиваются с ограничениями при поиске контрпримеров из-за узкого определения пространства поиска. Расширение этого пространства за счет генерации новых, но валидных проблем, позволяет LLM избегать зацикливания на нерешаемых задачах и направлять ресурсы на более перспективные области, что приводит к статистически значимому увеличению вероятности обнаружения решения.

На представленной схеме демонстрируется реализация нашей системы обучения на контрпримерах, использующей промежуточную подцель, извлеченную из доказательства задачи AIME-II 2001 в системе miniF2F.
На представленной схеме демонстрируется реализация нашей системы обучения на контрпримерах, использующей промежуточную подцель, извлеченную из доказательства задачи AIME-II 2001 в системе miniF2F.

Формальная строгость: верификация с помощью теоремдоказателей

Теорема-доказатель Lean 4 играет ключевую роль в формальной верификации корректности сгенерированных контрпримеров. В процессе автоматизированной проверки, Lean 4 используется для построения и проверки логических рассуждений, подтверждающих или опровергающих выдвинутые гипотезы. Это включает в себя детальный анализ синтаксической и семантической корректности контрпримера относительно исходной теоремы, гарантируя, что обнаруженное противоречие действительно существует и обосновано логически. Использование формальной верификации с Lean 4 позволяет исключить ошибки, возникающие из-за неточностей в ручных проверках или неполноты автоматизированных тестов, обеспечивая высокий уровень надежности и достоверности результатов.

Для генерации и оценки потенциальных доказательств используются модели, такие как Deepseek-Prover-V2 7B и Qwen3 8B. Deepseek-Prover-V2 7B специализируется на формальном доказательстве теорем, генерируя строгие математические доказательства. Qwen3 8B, напротив, применяется для неформального рассуждения и может генерировать более общие, менее формальные доказательства или аргументы. Обе модели используются в процессе верификации, где генерируемые доказательства подвергаются проверке на корректность и полноту с использованием формальных методов, таких как Lean 4 Theorem Prover. Комбинированное использование моделей формального и неформального рассуждения позволяет повысить эффективность и надежность процесса верификации.

Автоформализация представляет собой процесс преобразования задач, сформулированных на естественном языке, в формальный язык, понятный для теоремдоказателей, таких как Lean 4. Этот процесс включает в себя синтаксический и семантический анализ исходного текста, идентификацию ключевых понятий и отношений, а также их трансляцию в логические утверждения и определения. Автоформализация необходима, поскольку теоремдоказатели оперируют с формальными выражениями, требуя четкой и однозначной записи математических утверждений и аксиом для проведения верификации и доказательства корректности. Успешная автоформализация значительно упрощает применение теоремдоказателей к задачам, изначально сформулированным на естественном языке, автоматизируя трудоемкий этап ручного кодирования.

Многокомпонентная функция вознаграждения (Multi-Reward Function) используется для оптимизации процесса обучения моделей, генерирующих доказательства. Она предоставляет вознаграждение не только за успешное доказательство измененной теоремы (mutated theorem), но и за отказ от гипотезы, если доказательство невозможно. Такой подход позволяет модели эффективно исследовать пространство доказательств, избегая бессмысленных попыток доказать ложные утверждения и концентрируясь на действительно проверяемых задачах. Вознаграждение за отказ от гипотезы способствует более эффективному обучению и повышает общую надежность системы верификации.

Кривые Pass@k для пяти нейронных решателей теорем показывают, что производительность практически сходится при <span class="katex-eq" data-katex-display="false">k = 10</span>.
Кривые Pass@k для пяти нейронных решателей теорем показывают, что производительность практически сходится при k = 10.

Влияние на будущее: масштабирование автоматизированного рассуждения

Интеграция стратегии мутации с методами формальной верификации позволила разработать новый подход к генерации контрпримеров. Данная стратегия заключается в целенаправленном внесении небольших изменений в исходные утверждения, что позволяет системе более эффективно исследовать пространство возможных решений и выявлять случаи, когда логические рассуждения приводят к противоречиям. Этот процесс, подобно эволюционному отбору, усиливает способность системы находить критические ошибки и слабые места в доказательствах, значительно повышая эффективность поиска контрпримеров по сравнению с традиционными методами. По сути, мутация служит механизмом для расширения охвата поиска, позволяя системе преодолевать ограничения, связанные с жесткостью формальных правил и сложностью логических выражений.

Для повышения эффективности генерации корректных доказательств, в рамках исследования применялись алгоритмы обучения с подкреплением, в частности, GRPO. Этот метод позволяет модели последовательно улучшать свою способность находить валидные решения, опираясь на обратную связь от процесса верификации. GRPO оптимизирует стратегию поиска доказательств, акцентируя внимание на наиболее перспективных направлениях и отсеивая бесперспективные, что приводит к существенному увеличению вероятности успешной верификации. Благодаря такому подходу, модель демонстрирует значительное превосходство в решении задач, требующих сложного логического вывода и формального доказательства, и эффективно справляется с генерацией обоснованных и корректных доказательств.

Проверка предложенного фреймворка на наборе данных CounterMath продемонстрировала его высокую эффективность в автоматическом доказательстве теорем. Достигнут показатель Pass@1, равный 95%, что означает, что система успешно решила 95 задач больше, чем наиболее сильный конкурент. Этот результат указывает на значительное улучшение в области автоматизированного рассуждения и валидации, позволяя решать более сложные математические задачи с высокой точностью. Успешное решение большего количества задач свидетельствует о превосходстве предложенного подхода в генерации корректных доказательств и, как следствие, о его потенциале для применения в верификации программного обеспечения и разработке надежных систем искусственного интеллекта.

В ходе исследований была продемонстрирована высокая эффективность предложенного подхода к автоматизированному доказательству теорем. Достигнутые показатели Pass@4 и Pass@9, составившие 69 и 63 процента соответственно, позволили решить на 69 и 63 задачи больше, чем у наиболее сильного конкурента. Важным результатом стало значение коэффициента мутации, варьировавшееся от 1.65 до 2.48, что свидетельствует об успешности стратегии синтеза данных и ее способности генерировать разнообразные и полезные примеры для обучения модели. Данные показатели подтверждают, что предложенный метод не только улучшает точность решения задач, но и эффективно использует возможности обучения на сгенерированных данных, обеспечивая значительный прогресс в области автоматического доказательства теорем.

Разработанный подход имеет далеко идущие последствия для верификации программного обеспечения, обнаружения ошибок и создания более надежных систем искусственного интеллекта. Автоматизация процесса доказательства корректности программного кода, усиленная стратегией мутаций и алгоритмами обучения с подкреплением, позволяет не только выявлять существующие дефекты, но и предотвращать их появление на этапе разработки. Это особенно важно для критически важных систем, где надежность и безопасность являются первостепенными задачами. Повышенная способность к генерации валидных доказательств и эффективному поиску контрпримеров открывает новые возможности для автоматизированного тестирования и формальной верификации, что в конечном итоге способствует созданию более устойчивых и безопасных ИИ-систем, способных функционировать в сложных и непредсказуемых условиях.

Исследование демонстрирует, что даже самые изящные теоретические построения нуждаются в проверке на прочность. Авторы предлагают использовать большие языковые модели для генерации формальных опровержений, что, по сути, является автоматизацией поиска ошибок. Это напоминает о старой истине: продакшен всегда найдёт способ сломать элегантную теорию. Как метко заметил Джон Маккарти: «Искусственный интеллект — это попытка сделать машину, которая может думать». Здесь же, по сути, создается машина, способная критически мыслить и находить недостатки в логике. Использование multi-reward обучения — попытка заставить систему не просто генерировать данные, а находить правильные опровержения, что особенно ценно в условиях дефицита данных и разреженных вознаграждений.

Что дальше?

Представленная работа, несомненно, демонстрирует способность больших языковых моделей к генерации формальных опровержений. Однако, следует помнить: каждая элегантная система поиска контрпримеров неизбежно столкнётся с суровой реальностью промышленных задач. Проблема не в отсутствии алгоритма, а в объёме и качестве данных, которые всегда будут ограничены, и в тех самых «костылях», которые продюсеры умудрятся встроить в формальные спецификации. Искусственное увеличение данных — лишь временное решение, а многокритериальная оптимизация — это просто способ усложнить процесс отладки.

В ближайшем будущем следует ожидать смещения фокуса с разработки новых архитектур обучения на методы верификации и валидации генерируемых контрпримеров. Необходимо разработать инструменты, способные автоматически выявлять тривиальные или нерелевантные решения, а также оценивать их практическую ценность. Нам не нужно больше микросервисов для генерации контрпримеров — нам нужно меньше иллюзий относительно их полезности.

В конечном счёте, эта область исследований, как и любая другая, столкнётся с законом убывающей отдачи. Каждое новое улучшение будет даваться всё сложнее, а полученный прирост производительности — всё меньше. Вполне вероятно, что через несколько лет мы будем говорить о «контрпримерах как об искусстве», а не о практическом инструменте формальной верификации.


Оригинал статьи: https://arxiv.org/pdf/2603.19514.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-03-24 03:23