Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Google Cloud запустил новый пакет безопасности AI Protection, который помогает идентифицировать, оценивать и защищать активы искусственного интеллекта от уязвимостей. Вскоре ожидаются дополнительные функции по обеспечению безопасности.
Google Cloud представил AI Protection — пакет средств для снижения рисков в области ИИ-работloads и данных, независимо от используемой платформы. Новое предложение предоставит компаниям централизованное представление о состоянии их активов искусственного интеллекта, позволяя управлять рисками и выявлять угрозы до того, как они станут проблемой.
«По мере увеличения использования ИИ безопасность остается одной из главных забот, и мы часто слышим от организаций, что их волнуют риски быстрого внедрения», — отметила Архана Рамамурти (Archana Ramamoorthy), старший директор по управлению продуктами в Google Cloud Security. «Google Cloud стремится помочь нашим клиентам уверенно разрабатывать и запускать ИИ-решения, обеспечивая безопасность, соответствие требованиям и конфиденциальность».
AI Protection будет интегрирован в Security Command Center (SCC), предоставляя централизованную систему управления безопасностью активов искусственного интеллекта вместе с другими рисками облачной среды. Основные возможности нового платформы включают AI Inventory Discovery (идентификация и оценку уязвимостей ИИ-активов), AI Asset Security (применение контрольных мер, политик и ограничений для защиты ресурсов ИИ) и Threat Management (предоставление механизмов обнаружения, расследования и реагирования на угрозы, связанные с ИИ).
Кроме того, Google Cloud сообщил о том, что его Sensitive Data Protection (SDP) Enhancements теперь поддерживают Vertex AI датасеты, автоматически выявляя и классифицируя чувствительные обучающие и настраиваемые данные. После выявления чувствительных данных AI Protection будет использовать виртуальные команды SCC для определения потенциальных путей атак на системы ИИ и предложений мер по устранению уязвимостей.
Google Cloud также сообщил, что Model Armor, ключевая функция AI Protection, теперь доступна в общемировом масштабе. Она предназначена для защиты от атак методов подстановки подсказок и разблокировки систем, потери данных и нежелательных URL-адресов, а также оскорбительного контента. Model Armor можно интегрировать в приложения через REST API, Apigee, а вскоре — и через Vertex AI.
Наконец, AI Protection будет внедрять безопасность на основе аналитической информации и исследований как Google, так и Mandiant для защиты систем ИИ. Попытки первичного доступа, повышения привилегий и установления устойчивого подключения к ИИ-работloads можно обнаружить через SCC, а новые детекторы для AI Protection на основе последних оперативных данных «вскоре появятся». Эти инструменты помогут выявлять и управлять угрозами во время выполнения, такими как захват моделей.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...