Суббота, 12 июля в 05:27 UTC+3
Загрузка...

Сообщается о резком увеличении количества материалов, созданных искусственным интеллектом, содержащих сексуальное насилие над детьми, в интернете.


21Опубликовано 11.07.2025 в 10:45Категория: БезопасностьИсточник
Изображение статьи

По данным отчета The New York Times, в интернете наблюдается резкий рост количества материалов с изображениями сексуального насилия над детьми, сгенерированных искусственным интеллектом (AI-CSAM). Исследователи из таких организаций, как Internet Watch Foundation и National Center for Missing & Exploited Children, предупреждают, что этот новый тип AI-CSAM практически неотличим от реальных материалов.

Приведем некоторые цифры. Internet Watch Foundation, некоммерческая организация, занимающаяся расследованием и сбором отчетов о материалах с сексуальным насилием над детьми, в этом году выявила 1286 видео, сгенерированных искусственным интеллектом. Для сравнения, в первой половине 2024 года было выявлено всего два таких видео. Это экспоненциальный рост.

National Center for Missing & Exploited Children подтверждает эти статистические данные. Организация сообщила The New York Times, что в первой половине 2025 года получила 485 000 сообщений об AI-CSAM, включая фотографии и видео. Для сравнения, за весь 2024 год было получено 67 000 сообщений. Это еще один значительный скачок.

"Это как канарейка в шахте", – заявил Дерек Рей-Хилл (Derek Ray-Hill), исполняющий обязанности генерального директора Internet Watch Foundation. "Мы наблюдаем абсолютный цунами".

Эта технология постоянно совершенствуется, поэтому видео и изображения становятся все более реалистичными. Internet Watch Foundation обнаружила интернет-форум, на котором пользователи хвалили реалистичность новых видео. Сообщается, что этот контент распространяется через даркнет, что затрудняет выявление преступников правоохранительным органам.

Важно помнить, как работают генераторы изображений на основе искусственного интеллекта. Они обучаются на реальных изображениях и видео. The New York Times сообщает, что большая часть этого нового потока AI-CSAM включает в себя реальные материалы с сексуальным насилием над детьми, переработанные алгоритмом. Некоторые материалы даже используют реальные фотографии детей, полученные со школьных веб-сайтов и социальных сетей.

Проблема возникла еще на ранних этапах развития этой технологии. В 2023 году исследователи из Stanford Internet Observatory обнаружили сотни примеров материалов с сексуальным насилием над детьми в наборе данных, использованном в ранней версии генератора изображений Stable Diffusion. Stability AI заявляет, что внедрила меры безопасности для повышения стандартов безопасности и "полностью привержена предотвращению неправомерного использования наших технологий, особенно в создании и распространении вредоносного контента, включая AI-CSAM". Это побудило другие компании начать сообщать об AI-CSAM в National Center for Missing & Exploited Children. Amazon сообщила о 380 000 случаях AI-CSAM в первой половине этого года, все из которых были удалены. OpenAI сообщила о 75 000 случаях.

Судебные органы пока не успевают за развитием этой технологии. В прошлом году Министерство юстиции США произвело свой первый известный арест человека, подозреваемого в хранении и распространении AI-CSAM. Недавно житель Великобритании получил 18 месяцев тюремного заключения за использование искусственного интеллекта для создания отвратительных изображений, которые он продавал. "Министерство юстиции рассматривает все формы AI-CSAM как серьезную и возникающую угрозу", – заявил Мэтт Галеотти (Matt Galeotti), глава уголовного отдела Министерства юстиции, The New York Times.

Стоит отметить, что, несмотря на тревожный рост числа случаев, AI-CSAM по-прежнему составляет лишь небольшую часть всех материалов с сексуальным насилием над детьми, выявляемых властями и организациями-наблюдателями. Например, Internet Watch Foundation подтвердила 291 273 сообщения о материалах с сексуальным насилием над детьми в 2024 году, и, как уже отмечалось, только два случая были связаны с AI-CSAM.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.