Невидимые помехи: Как обмануть объяснимый ИИ

Процедура преднамеренного искажения объяснений классификатора заключается в замене части признаков исходного изображения (например, собаки) на признаки из другого класса (кошки), при этом маскировка осуществляется на основе наиболее значимых признаков атакующего изображения, а финальное, визуально неотличимое от оригинала, изображение формируется путем взвешенной суммы исходного и модифицированного вариантов, что позволяет изменить объяснения модели без привлечения внимания наблюдателя.

Новое исследование показывает, что даже незначительные изменения в изображениях могут исказить интерпретации, предоставляемые методами объяснимого искусственного интеллекта, не влияя на точность предсказаний.

Скрытые закономерности: новая модель для анализа последовательностей

В статье представлена Belief Net – инновационный подход к обучению скрытых марковских моделей, позволяющий эффективнее выявлять закономерности в последовательных данных.

Очищая данные, усиливаем разум: новый подход к интерпретируемому ИИ

В статье представлена методика DenoGrad, позволяющая снизить уровень шума в данных и повысить эффективность моделей искусственного интеллекта, которые легко понять и объяснить.