Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Австралийское ведомство внутренних дел запретило использование DeepSeek. Министерство финансов Индии также выступило с предупреждением о недопустимости его использования. Возникли опасения по поводу конфиденциальности и безопасности моделей ИИ.
Новый AI-чатбот DeepSeek попадал в заголовки новостей и даже на короткое время стал самым популярным чатботом в мире в течение 10 дней после запуска – обогнав существующие модели, такие как ChatGPT и Gemini. Однако новое исследование утверждает, что чатбот DeepSeek «чрезвычайно уязвим» для атак, что вызвало опасения по поводу национальной безопасности, и привело к тому, что Министерство внутренних дел Австралии запретило использование этой модели на устройствах федерального правительства.
В приказе, обнародованном 4 февраля 2025 года, говорится, что использование продуктов DeepSeek и веб-услуг «представляет неприемлемый уровень риска для безопасности австралийского правительства» и предупреждает, что ведомства должны управлять рисками от «широкого сбора данных» и воздействия данных на «внесудебные указания иностранного правительства, противоречащие австралийскому законодательству».
Следуя этой тенденции, Австралия не одинока. Министерство финансов Индии также попросило своих сотрудников воздержаться от использования любых инструментов ИИ, таких как DeepSeek и ChatGPT, для служебных целей, сославшись на риск утечки конфиденциальных правительственных документов и данных.
Аналогичным образом Военно-морской флот США запретил использование DeepSeek «в любой сфере деятельности» из-за «потенциальных проблем с безопасностью и этикой», а Итальянская служба защиты данных заявила, что она приказала DeepSeek заблокировать свою модель в стране после того, как компания не смогла решить проблемы службы защиты данных, касающиеся политики конфиденциальности, предоставив информацию, которую регулятор сочёл «полностью недостаточной».
Компании по разработке ИИ, такие как ChatGPT и DeepSeek, собирают огромные объемы данных из всех уголков Интернета для обучения своих чатботов и столкнулись с проблемами в связи с законами о защите данных во всем мире. Кроме того, некоторые модели вызывают беспокойство своими политиками конфиденциальности.
Например, OpenAI никогда не просила людей о согласии на использование их данных, и невозможно проверить, какая информация хранится.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...