Языковые модели в противостоянии: как обеспечить безопасность?

В предложенной схеме состязательного обучения языковых моделей, одна модель (Атакующий) генерирует вариации исходного запроса, а другая (Защитник) отвечает на них, стремясь к безопасности, при этом обе оптимизируются на основе оценок, учитывающих достоверность, соответствие и способность уклоняться от нежелательных ответов.

Новый подход к обучению языковых моделей использует принципы теории игр, чтобы сделать их более устойчивыми к враждебным атакам и гарантировать соответствие этическим нормам.

Злоумышленники не дремлют: новый взгляд на анализ вызовов функций в Android

Удаление дубликатов APK-файлов из наборов данных MalNet-Tiny и CICMalDroid привело к резкому снижению производительности всех протестированных методов, что указывает на критическую зависимость эффективности анализа от разнообразия входных данных.

Исследователи представили масштабный набор данных, демонстрирующий, что существующие методы классификации вредоносного ПО для Android на основе графов вызовов функций устарели и дают завышенные оценки эффективности.

Глубокое обучение без обратного распространения: новый подход к нейросетям

Глубина нейронной сети, исследованная на наборе данных CIFAR-100, демонстрирует зависимость производительности от частоты ортогонализации и обновления FF-матрицы, указывая на возможность оптимизации архитектуры за счет регулирования этих параметров.

Исследователи предложили инновационный алгоритм FOTON, позволяющий обучать глубокие нейронные сети, избегая традиционного процесса обратного распространения ошибки.