Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Исследование Enkrypt AI показало, что модель R1 от DeepSeek в 11 раз более подвержена эксплуатации киберпреступниками по сравнению с другими моделями ИИ — будь то создание опасного контента или уязвимость к манипуляциям. Этот вывод стал поводом для беспокойства, особенно после недавнего инцидента с утечкой данных, который привел к разглашению более миллиона записей.
С момента выпуска DeepSeek 20 января мир ИИ подвергся серьезному потрясению. За два дня около 12 миллионов пользователей по всему миру скачали новый чат-бот, что превзошло даже быстрый рост ChatGPT. Однако широкие опасения в области безопасности и конфиденциальности привели к тому, что ряд стран начали расследование или запретили использование этого инструмента.
Команда Enkrypt AI провела серию тестов для оценки уязвимостей DeepSeek — включая проверку на наличие малаваря, утечки данных и атаки подстановкой. В ходе исследований эксперты отметили, что модель "DeepSeek" является высоко смещенной и склонна генерировать небезопасный код, а также легко манипулируема третьими сторонами, что может использоваться для создания химических, биологических и кибероружий.
Более 45% проведенных тестов смогли обойти существующие протоколы безопасности, генерируя инструкции по преступной деятельности, информацию об нелегальном оружии и террористическую пропаганду. В 78% случаев проверки на кибербезопасность убедили DeepSeek-R1 сгенерировать опасный или злонамеренный код, включая малаварь, трояны и другие уязвимости.
В целом эксперты обнаружили, что модель R1 от DeepSeek на 4.5 раза более подвержена манипуляциям киберпреступниками для создания опасных хакерских инструментов по сравнению с аналогичной моделью Open-AI.
«Наши исследования выявили серьезные недостатки в безопасности и безопасности, которые нельзя игнорировать», — отметил Сахил Агарваль (Sahil Agarwal), CEO Enkrypt AI. «Разработка надежных средств защиты, включая регулярный мониторинг, необходима для предотвращения опасного злоупотребления».
В настоящее время DeepSeek находится под пристальным вниманием во многих странах мира. Италия первой начала расследование по поводу конфиденциальности и безопасности этой модели, вскоре к ней присоединились Франция, Нидерланды, Люксембург, Германия и Португалия. Китайские соседи также обеспокоены ситуацией: Тайвань запретил использование DeepSeek AI для всех государственных учреждений, а Южная Корея начала расследование в отношении практик обработки данных поставщика услуги.
В США ситуация не менее напряженная. Как сообщила CNBC 31 января 2025 года, NASA запретил использование DeepSeek на федеральных устройствах. Кроме того, предлагается законопроект, который может полностью запретить использование DeepSeek для всех американцев, что грозит штрафами в размере миллионов долларов и даже тюремным заключением.
Сахил Агарваль из Enkrypt AI подытожил: «При усилении гонки ИИ между США и Китаем, уязвимости безопасности DeepSeek-R1 могут быть использованы киберпреступниками, сетями дезинформации и даже теми, кто имеет намерения использовать биохимическое оружие. Эти риски требуют немедленного внимания».
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...