Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Ведущие специалисты по кибербезопасности на DEF CON, крупнейшей в мире конференции хакеров, предупредили, что текущие методы защиты систем искусственного интеллекта (AI) существенно недостаточны и требуют радикального обновления. Об этом говорится в первом отчете «Альманах хакеров», выпущенном на конференции.
Отчет, подготовленный совместно с инициативой по киберполитике Университета Чикаго, оспаривает эффективность метода «красных команд», при котором специалисты безопасности проверяют AI-системы на уязвимость. Авторы отчета считают, что этот подход сам по себе не в состоянии обеспечить надежную защиту от новых угроз.
«Публичное тестирование AI-моделей невозможно из-за того, что документация для этих моделей фрагментирована, и оценки, которые мы включаем в документацию, недостаточны», — сказал Свен Кэттелл, руководитель сектора AI Village на DEF CON.
Более 500 участников проверили AI-модели во время конференции, и даже новички успешно находили уязвимости. Исследователи призвали принять методологию, подобную системе Общих Уязвимостей и Экспозиций (CVE), используемой в традиционной кибербезопасности с 1999 года. Это позволит создать стандартизированные способы документирования и устранения уязвимостей AI, вместо того чтобы полагаться на периодические проверки безопасности.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...