Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
OpenAI увеличивает выплаты по программе выявления ошибок. Обнаружение уязвимостей с высоким воздействием может принести исследователям 100 000 долларов.
Это происходит в то время, как разрабатывается все больше агентов и систем искусственного интеллекта. OpenAI надеется побудить исследователей безопасности выявлять уязвимости в области безопасности, увеличив вознаграждения за обнаружение ошибок. Гигант в области ИИ сообщил, что он повышает свою программу поощрения за выявление ошибок в сфере безопасности с 20 000 до 100 000 долларов и расширяет охват своей программы грантов в области кибербезопасности, а также разрабатывает новые инструменты для защиты агентов ИИ от вредоносных угроз.
Это следует за недавними предупреждениями о том, что агенты ИИ могут быть взломаны для написания и отправки фишинговых атак, и компания стремится подчеркнуть свою «приверженность поощрению значимых исследований в области безопасности с высоким воздействием, которые помогают нам защищать пользователей и поддерживать доверие к нашим системам».
Пресечение угроз С момента запуска программы грантов в области кибербезопасности в 2023 году OpenAI рассмотрел тысячи заявок и даже профинансировал 28 исследовательских инициатив, что помогло компании получить ценные сведения по вопросам безопасности, таким как автономные средства киберзащиты, инъекции подсказок и безопасная генерация кода.
OpenAI заявляет, что постоянно отслеживает вредоносных субъектов, пытающихся использовать его системы, и выявляет и пресекает направленные кампании. «Мы не просто защищаемся», – сказал компания, – «мы делимся своим опытом с другими лабораториями ИИ, чтобы укрепить наши общие средства обороны. Обмениваясь этими возникающими рисками и сотрудничая в отрасли и правительстве, мы помогаем гарантировать, что технологии ИИ разрабатываются и внедряются безопасно».
OpenAI не единственная компания, которая увеличила свою программу вознаграждений, Google объявил в 2024 году о пятикратном увеличении вознаграждений по программе выявления ошибок, утверждая, что более безопасные продукты затрудняют поиск ошибок, что отражается в более высоких компенсациях.
С появлением более совершенных моделей и агентов, а также с ростом числа пользователей и разработок, неизбежно появляются больше точек уязвимости, которые могут быть использованы злоумышленниками, поэтому отношения между исследователями и разработчиками программного обеспечения важнее, чем когда-либо.
«Мы вовлекаем исследователей и практиков из всего сообщества кибербезопасности», – подтвердила OpenAI. «Это позволяет нам использовать новейшие знания и делиться своими результатами с теми, кто работает над созданием более безопасного цифрового мира. Для обучения наших моделей мы сотрудничаем с экспертами из академических, государственных и коммерческих лабораторий, чтобы определить пробелы в навыках и получить структурированные примеры сложного рассуждения в области кибербезопасности».
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...