Вторник, 4 марта в 11:38 UTC+3
Загрузка...

Приложение DeepSeek было запрещено в корейских магазинах приложений.


27Опубликовано 19.02.2025 в 19:49Категория: БезопасностьИсточник
Изображение статьи

Комиссия по защите личной информации Южной Кореи временно приостановила загрузку приложения DeepSeek. Компания DeepSeek сотрудничает с властями для достижения соответствия законодательству.

Причина приостановки

Комиссия по защите персональных данных Южной Кореи (PIPC) временно остановила новые загрузки китайского чат-бота DeepSeek. Согласно отчетам TechCrunch, приложение остается доступным для тех, кто уже его установил, и решение не повлияет на текущее использование приложения — однако новые загрузки будут прекращены до тех пор, пока китайская компания не соответствует корейским законам о защите персональных данных.

Южная Корея не является первой страной, в которой были временно заблокированы новые загрузки DeepSeek. В конце января 2025 года модель исчезла из App Store и Google Play Store в Италии после того, как итальянское агентство по защите данных подало жалобу на нарушение приватности и попросило информацию о том, как DeepSeek обрабатывает персональные данные пользователей.

Повторяющиеся проблемы

DeepSeek назначила местного представителя для работы с властями Южной Кореи. Однако агентство по защите данных заявило, что «настойчиво рекомендует» текущим пользователям воздержаться от ввода личных данных до окончательного решения.

Оценка использования и хранения данных

Решение о приостановке загрузок является временным, пока PIPC не завершит оценку использования и хранения данных DeepSeek. Агентство подтвердило, что модель будет доступна для загрузки после соответствия требованиям.

PIPC обнаружила, что DeepSeek передавал данные южнокорейских пользователей компании ByteDance — материнской компании TikTok. Напомним, что TikTok временно был заблокирован в США из-за проблем с приватностью и безопасностью.

Общие проблемы AI-чатботов

DeepSeek не является первым искусственным интеллектом, подвергшимся проверке по поводу проблем с приватностью. Природа Large Language Models (LLM) представляет собой настоящую ловушку для конфиденциальности: они собирают данные со всего интернета для обучения своих моделей без согласия владельцев/авторов использованного контента.

Кроме того, OpenAI никогда не спрашивала у людей разрешения на использование их данных, и невозможно подтвердить, какие именно данные были использованы или сохранены, а также удалить эти данные. Это противоречит принципам GDPR, которые защищают право забвения и гарантируют возможность удаления информации.

Рекомендации по безопасности

Пользователи должны быть особенно внимательны к информации, которую предоставляют чат-боту. Не вводите свои медицинские данные, финансовые сведения или любую другую информацию, которую вы не хотите, чтобы третьи лица знали. Регулярно проверяйте ваши аккаунты на наличие подозрительной активности и сообщайте об этом сразу же.

Примечание

Если вам нужна дополнительная безопасность, рассмотрите использование лучших программ против вирусов и брандмауэров.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.