Суббота, 10 мая в 01:28 UTC+3
Загрузка...

Искусственный интеллект создает серьезную угрозу безопасности из-за «галлюцинаций» пакетов.


19Опубликовано 30.04.2025 в 00:44Категория: БезопасностьИсточник
Изображение статьи

Новое исследование [PDF] показывает, что сгенерированный искусственным интеллектом код часто ссылается на несуществующие сторонние библиотеки, создавая возможности для атак на цепочку поставок.

Исследователи проанализировали 576 000 образцов кода, полученных из 16 популярных больших языковых моделей, и обнаружили, что 19,7% зависимостей пакето́в – в общей сложности 440 445 – являются "галлюцинациями".

Эти несуществующие зависимости усугубляют атаки, основанные на путанице зависимостей, когда вредоносные пакеты с идентичными названиями легитимных могут проникнуть в программное обеспечение.

Модели с открытым исходным кодом "галлюцинировали" почти в 22% случаев, по сравнению с 5% для коммерческих моделей.

“Как только злоумышленник публикует пакет под галлюцинированным названием, содержащий некоторый вредоносный код, он рассчитывает на то, что модель предложит это название ничего не подозревающим пользователям”, – заявил ведущий исследователь Джозеф Спраклен (Joseph Spracklen).

Тревожно, что 43% галлюцинаций повторялись в нескольких запросах, что делает их предсказуемыми целями.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.