Вторник, 4 марта в 13:34 UTC+3
Загрузка...

Австралия и Индия запретили использование DeepSeek на рабочих устройствах


33Опубликовано 17.02.2025 в 12:33Категория: БезопасностьИсточник
Изображение статьи

Австралийское ведомство внутренних дел запретило использование DeepSeek. Министерство финансов Индии также выступило с предупреждением о недопустимости его использования. Возникли опасения по поводу конфиденциальности и безопасности моделей ИИ.

Новый AI-чатбот DeepSeek попадал в заголовки новостей и даже на короткое время стал самым популярным чатботом в мире в течение 10 дней после запуска – обогнав существующие модели, такие как ChatGPT и Gemini. Однако новое исследование утверждает, что чатбот DeepSeek «чрезвычайно уязвим» для атак, что вызвало опасения по поводу национальной безопасности, и привело к тому, что Министерство внутренних дел Австралии запретило использование этой модели на устройствах федерального правительства.

В приказе, обнародованном 4 февраля 2025 года, говорится, что использование продуктов DeepSeek и веб-услуг «представляет неприемлемый уровень риска для безопасности австралийского правительства» и предупреждает, что ведомства должны управлять рисками от «широкого сбора данных» и воздействия данных на «внесудебные указания иностранного правительства, противоречащие австралийскому законодательству».

Следуя этой тенденции, Австралия не одинока. Министерство финансов Индии также попросило своих сотрудников воздержаться от использования любых инструментов ИИ, таких как DeepSeek и ChatGPT, для служебных целей, сославшись на риск утечки конфиденциальных правительственных документов и данных.

Аналогичным образом Военно-морской флот США запретил использование DeepSeek «в любой сфере деятельности» из-за «потенциальных проблем с безопасностью и этикой», а Итальянская служба защиты данных заявила, что она приказала DeepSeek заблокировать свою модель в стране после того, как компания не смогла решить проблемы службы защиты данных, касающиеся политики конфиденциальности, предоставив информацию, которую регулятор сочёл «полностью недостаточной».

Компании по разработке ИИ, такие как ChatGPT и DeepSeek, собирают огромные объемы данных из всех уголков Интернета для обучения своих чатботов и столкнулись с проблемами в связи с законами о защите данных во всем мире. Кроме того, некоторые модели вызывают беспокойство своими политиками конфиденциальности.

Например, OpenAI никогда не просила людей о согласии на использование их данных, и невозможно проверить, какая информация хранится.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.