Воскресенье, 20 апреля в 06:53 UTC+3
Загрузка...

Google Cloud представляет новые инструменты безопасности для защиты от ИИ, независимо от используемой модели


40Опубликовано 07.03.2025 в 15:17Категория: БезопасностьИсточник
Изображение статьи

Google Cloud запустил новый пакет безопасности AI Protection, который помогает идентифицировать, оценивать и защищать активы искусственного интеллекта от уязвимостей. Вскоре ожидаются дополнительные функции по обеспечению безопасности.

Google Cloud представил AI Protection — пакет средств для снижения рисков в области ИИ-работloads и данных, независимо от используемой платформы. Новое предложение предоставит компаниям централизованное представление о состоянии их активов искусственного интеллекта, позволяя управлять рисками и выявлять угрозы до того, как они станут проблемой.

«По мере увеличения использования ИИ безопасность остается одной из главных забот, и мы часто слышим от организаций, что их волнуют риски быстрого внедрения», — отметила Архана Рамамурти (Archana Ramamoorthy), старший директор по управлению продуктами в Google Cloud Security. «Google Cloud стремится помочь нашим клиентам уверенно разрабатывать и запускать ИИ-решения, обеспечивая безопасность, соответствие требованиям и конфиденциальность».

Усиленная защита для ИИ-работloads

AI Protection будет интегрирован в Security Command Center (SCC), предоставляя централизованную систему управления безопасностью активов искусственного интеллекта вместе с другими рисками облачной среды. Основные возможности нового платформы включают AI Inventory Discovery (идентификация и оценку уязвимостей ИИ-активов), AI Asset Security (применение контрольных мер, политик и ограничений для защиты ресурсов ИИ) и Threat Management (предоставление механизмов обнаружения, расследования и реагирования на угрозы, связанные с ИИ).

Кроме того, Google Cloud сообщил о том, что его Sensitive Data Protection (SDP) Enhancements теперь поддерживают Vertex AI датасеты, автоматически выявляя и классифицируя чувствительные обучающие и настраиваемые данные. После выявления чувствительных данных AI Protection будет использовать виртуальные команды SCC для определения потенциальных путей атак на системы ИИ и предложений мер по устранению уязвимостей.

Google Cloud также сообщил, что Model Armor, ключевая функция AI Protection, теперь доступна в общемировом масштабе. Она предназначена для защиты от атак методов подстановки подсказок и разблокировки систем, потери данных и нежелательных URL-адресов, а также оскорбительного контента. Model Armor можно интегрировать в приложения через REST API, Apigee, а вскоре — и через Vertex AI.

Наконец, AI Protection будет внедрять безопасность на основе аналитической информации и исследований как Google, так и Mandiant для защиты систем ИИ. Попытки первичного доступа, повышения привилегий и установления устойчивого подключения к ИИ-работloads можно обнаружить через SCC, а новые детекторы для AI Protection на основе последних оперативных данных «вскоре появятся». Эти инструменты помогут выявлять и управлять угрозами во время выполнения, такими как захват моделей.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.