Пятница, 22 августа в 04:46 UTC+3
Загрузка...

Небрежная защита ИИ возвращает кибербезопасность в 90-е, утверждают исследователи.


34Опубликовано 13.08.2025 в 11:03Категория: БезопасностьИсточник
Изображение статьи

Риски, связанные с искусственным интеллектом, стали доминирующей темой на конференции по безопасности Black Hat USA 2025, проходившей 6 и 7 августа, как это было и на BSides Las Vegas ранее на этой неделе. Хотя мы не смогли посетить все доклады, посвященные ИИ, мы выбрали три наиболее перспективных, а также приняли участие во внеплощадочной дискуссии, организованной 1Password. Главный вывод: большие языковые модели и ИИ-агенты слишком легко взломать, и многие уроки, полученные в области безопасности за последние 25 лет, были забыты в нынешней гонке за разработкой, использованием и получением прибыли от ИИ.

Нам – не только индустрии кибербезопасности, но и любой организации, внедряющей ИИ в свои процессы – необходимо понимать риски, связанные с ИИ, и разрабатывать способы их смягчения, прежде чем мы столкнемся с теми же уязвимостями, с которыми мы сталкивались во времена президентства Билла Клинтона. "ИИ-агенты похожи на маленького ребенка. За ними нужно следить и убеждаться, что они не делают глупостей", – отметила Венди Натер (Wendy Nather), директор по научным инициативам в 1Password и признанный эксперт в области кибербезопасности. "Мы также наблюдаем приток новых специалистов, которые допускают те же ошибки, что и мы много лет назад". Ее коллега по панели, Джозеф Карсон (Joseph Carson), главный эксперт по безопасности и консультант CISO в Segura, предложил уместную ретроспективную аналогию в отношении преимуществ использования ИИ. "Это как получить гриб в Super Mario Kart", – сказал он. "Он позволяет вам двигаться быстрее, но не делает вас лучшим водителем". Многие недостатки в безопасности ИИ напоминают ранние риски SQL-инъекций, характерные для эпохи развития веб-технологий. "Почему снова появляются эти старые уязвимости? Потому что пространство GenAI наполнено плохими практиками в области безопасности", – заявил Натан Хамиель (Nathan Hamiel), старший директор по исследованиям и ведущий инженер-прототипист в Kudelski Security. "Когда вы развертываете эти инструменты, вы увеличиваете свою поверхность атаки. Вы создаете уязвимости там, где их раньше не было".

Он добавил: "Генеративный ИИ имеет слишком широкую область применения. Один и тот же ИИ, который отвечает на вопросы о Шекспире, помогает вам разрабатывать код. Эта чрезмерная обобщенность приводит к увеличению поверхности атаки". Он подчеркнул: "Не относитесь к ИИ-агентам как к высокоразвитым, сверхинтеллектуальным системам. Относитесь к ним как к пьяным роботам".

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.