Воскресенье, 20 апреля в 02:48 UTC+3
Загрузка...

OpenAI увеличивает вознаграждения за обнаружение уязвимостей в связи с ростом опасений по поводу безопасности


21Опубликовано 30.03.2025 в 20:51Категория: БезопасностьИсточник
Изображение статьи

OpenAI увеличивает выплаты по программе выявления ошибок. Обнаружение уязвимостей с высоким воздействием может принести исследователям 100 000 долларов.

Это происходит в то время, как разрабатывается все больше агентов и систем искусственного интеллекта. OpenAI надеется побудить исследователей безопасности выявлять уязвимости в области безопасности, увеличив вознаграждения за обнаружение ошибок. Гигант в области ИИ сообщил, что он повышает свою программу поощрения за выявление ошибок в сфере безопасности с 20 000 до 100 000 долларов и расширяет охват своей программы грантов в области кибербезопасности, а также разрабатывает новые инструменты для защиты агентов ИИ от вредоносных угроз.

Это следует за недавними предупреждениями о том, что агенты ИИ могут быть взломаны для написания и отправки фишинговых атак, и компания стремится подчеркнуть свою «приверженность поощрению значимых исследований в области безопасности с высоким воздействием, которые помогают нам защищать пользователей и поддерживать доверие к нашим системам».

Пресечение угроз С момента запуска программы грантов в области кибербезопасности в 2023 году OpenAI рассмотрел тысячи заявок и даже профинансировал 28 исследовательских инициатив, что помогло компании получить ценные сведения по вопросам безопасности, таким как автономные средства киберзащиты, инъекции подсказок и безопасная генерация кода.

OpenAI заявляет, что постоянно отслеживает вредоносных субъектов, пытающихся использовать его системы, и выявляет и пресекает направленные кампании. «Мы не просто защищаемся», – сказал компания, – «мы делимся своим опытом с другими лабораториями ИИ, чтобы укрепить наши общие средства обороны. Обмениваясь этими возникающими рисками и сотрудничая в отрасли и правительстве, мы помогаем гарантировать, что технологии ИИ разрабатываются и внедряются безопасно».

OpenAI не единственная компания, которая увеличила свою программу вознаграждений, Google объявил в 2024 году о пятикратном увеличении вознаграждений по программе выявления ошибок, утверждая, что более безопасные продукты затрудняют поиск ошибок, что отражается в более высоких компенсациях.

С появлением более совершенных моделей и агентов, а также с ростом числа пользователей и разработок, неизбежно появляются больше точек уязвимости, которые могут быть использованы злоумышленниками, поэтому отношения между исследователями и разработчиками программного обеспечения важнее, чем когда-либо.

«Мы вовлекаем исследователей и практиков из всего сообщества кибербезопасности», – подтвердила OpenAI. «Это позволяет нам использовать новейшие знания и делиться своими результатами с теми, кто работает над созданием более безопасного цифрового мира. Для обучения наших моделей мы сотрудничаем с экспертами из академических, государственных и коммерческих лабораторий, чтобы определить пробелы в навыках и получить структурированные примеры сложного рассуждения в области кибербезопасности».

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.