Telegram VK YouTube Dzen RuTube
Назад

Машина не допустит кибератак

ИИ научился защищать себя и своё окружение

В России разработан метод усовершенствования нейросетей, предназначенный в том числе и для защиты ИИ-систем от кибератак. Проект был представлен на открытой конференции Института системного программирования имени В. П. Иванникова РАН, посвящённой 75-летию отечественных информационных технологий.

Инженер Исследовательского центра доверенного искусственного интеллекта Леонид Старых сообщил, что разрабатываемая платформа доверенного искусственного интеллекта позволяет проверять уязвимости разрабатываемых нейронных сетей и эффективно защищаться от них. Она даёт возможность обучать нейросеть в системе обнаружения объектов, распознавать атакованные области, «закрашивать» их, и при этом сохранять способность обнаруживать объекты, несмотря на потенциальные атаки.

Новый метод направлен на предотвращение попыток обхода систем видеонаблюдения, что повышает их устойчивость к воздействию извне. Платформа также может использоваться для повышения безопасности беспилотников и защиты функции «оплата лицом». Авторы подчёркивают, что в настоящее время отсутствуют платформы, способные обеспечивать проверку и защиту различных моделей машинного обучения, и данное решение позволяет создать защищённые версии широкого спектра алгоритмов машинного обучения, включая области классификации изображений и текста.

Фото: freepik