Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Компания OpenAI заблокировала группу китайских аккаунтов, которые использовали ChatGPT для разработки инструмента социального мониторинга на основе ИИ. Согласно информации Engadget, кампанию, которую OpenAI назвала Peer Review, включала создание рекламных материалов для программы, предназначенной для слежения за антикитайскими настроениями на платформах X (бывший Twitter), Facebook, YouTube и Instagram.
Операция была направлена на выявление призывов к протестам против нарушений прав человека в Китае с последующим передачей этой информации властям страны.
Эта сеть состояла из аккаунтов ChatGPT, которые работали по расписанию, соответствующему рабочим часам в Китае. Аккаунты использовались для создания рекламных материалов на китайском языке и активно применяли наши инструменты", — сообщила компания OpenAI.
Операторы использовали наши модели для проверки заявлений о том, что их аналитику отправляли в китайские посольства за рубежом, а также для слежения за протестами в таких странах, как США, Германия и Великобритания", — добавили в компании.
Согласно информации Бена Ниммо (Ben Nimmo), старшего исследователя OpenAI, это был первый случай обнаружения инструмента такого рода. "Злоумышленники иногда предоставляют нам представление о том, что они делают в других частях интернета из-за способа использования наших моделей ИИ", — отметил Ниммо в интервью The New York Times.
Множество кодов для этого инструмента мониторинга основано на открытой версии одной из моделей Llama от Meta. Группа также использовала ChatGPT для создания годового отчета, где утверждается, что они написали фишинговые письма в интересах клиентов из Китая.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...