Суббота, 19 апреля в 20:55 UTC+3
Загрузка...

Исследование показало, что 50% сотрудников используют непроверенные ИИ-инструменты.


11Опубликовано 19.04.2025 в 02:18Категория: БезопасностьИсточник
Изображение статьи

Анонимный источник ссылается на отчет SecurityWeek: исследование, проведенное Software AG в октябре 2024 года, показывает, что половина всех сотрудников использует Shadow AI, и большинство из них не прекратят это делать, даже если это будет запрещено. Проблема заключается в легкости доступа к инструментам искусственного интеллекта и в рабочей среде, которая все больше пропагандирует использование ИИ для повышения корпоративной эффективности. Неудивительно, что сотрудники ищут собственные инструменты ИИ для повышения личной эффективности и максимизации возможностей для продвижения по службе.

"Использование ИИ на работе для многих сотрудников интеллектуального труда стало естественным", – говорит Майкл Марриот (Michael Marriott), вице-президент по маркетингу Harmonic Security. "Будь то суммирование заметок со встреч, составление электронных писем клиентам, изучение кода или создание контента, сотрудники действуют быстро". Если официальные инструменты труднодоступны или кажутся слишком ограниченными, они будут использовать все, что доступно, часто через открытую вкладку в браузере.

Практически всегда у сотрудников нет злого умысла (если не считать ошибочное привлечение недобросовестных ИТ-специалистов из Северной Кореи); они просто стремятся быть лучше и добиваться большего. Если для этого требуется использование несанкционированных инструментов ИИ, сотрудники, вероятно, не раскроют свои действия. Причины могут быть сложными, но они сочетают в себе нежелание признавать, что их эффективность обусловлена ИИ, а не природными способностями, и знание того, что использование личного Shadow AI может быть не поощряться. В результате предприятия часто не имеют представления о масштабах Shadow IT и о рисках, которые он может представлять. Согласно анализу Harmonic, ChatGPT является доминирующей моделью генеративного ИИ, используемой сотрудниками, при этом 45% запросов данных поступают из личных учетных записей (например, Gmail). На файлы изображений пришлось 68,3%. В отчете также отмечается, что 7% сотрудников использовали китайские модели ИИ, такие как DeepSeek, Baidu Chat и Qwen.

"В целом, наблюдается небольшое снижение частоты конфиденциальных запросов с Q4 2024 года (с 8,5% до 6,7% в Q1 2025)", – сообщает SecurityWeek. "Однако произошел сдвиг в категориях рисков, которые могут быть подвержены воздействию. Данные клиентов (с 45,8% до 27,8%), данные сотрудников (с 26,8% до 14,3%) и безопасность (с 6,9% до 2,1%) снизились. И наоборот, юридические и финансовые данные (с 14,9% до 30,8%) и конфиденциальный код (с 5,6% до 10,1%) увеличились. PII – новая категория, представленная в Q1 2025, по которой зафиксировано 14,9%".

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.