Искусственный интеллект на страже сети: как сделать защиту прозрачной

Предлагаемая система обнаружения сетевых вторжений, основанная на глубоком обучении, обеспечивает надёжность и объяснимость благодаря методу экспертной верификации, управляемому через пользовательский интерфейс.

Новая система обнаружения вторжений объединяет возможности глубокого обучения и объяснимого искусственного интеллекта для повышения точности и доверия к решениям в сфере кибербезопасности.

Нейросети на страже электросети: выявление неисправностей с помощью автоэнкодеров

Архитектура автокодировщика, лежащая в основе предложенного алгоритма, позволяет эффективно сжимать и восстанавливать входные данные, обеспечивая компактное представление информации и возможность её последующей реконструкции.

В статье рассматривается применение алгоритмов глубокого обучения для автоматического обнаружения аномалий в работе электрических распределительных систем.

Искусственный интеллект у руля: модели принимают решения в ядерном кризисе

Ядерная эскалация моделируется с учетом пороговых значений, демонстрируя, что, несмотря на общую способность моделей к ядерному взаимодействию, готовность к фактическому применению ядерного оружия значительно различается в зависимости от используемой модели.

Новое исследование показывает, что передовые модели ИИ способны к сложному стратегическому мышлению в смоделированных ситуациях ядерного конфликта, что поднимает вопросы безопасности и контроля.

Стирать из памяти: Как контролировать удаление данных в ИИ

Предлагается целостная структура для проверки соответствия систем удаления данных по запросу (Machine Unlearning), обеспечивающая комплексный подход к оценке и подтверждению эффективного удаления информации из моделей машинного обучения.

Новое исследование предлагает экономическую модель для проверки соответствия систем искусственного интеллекта требованиям по удалению данных, обеспечивая защиту конфиденциальности пользователей.