Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Долгосрочный участник Slashdot по имени шанен тестировал клиентов искусственного интеллекта. Они сообщили, что китайский DeepSeek "оказался отличным в объяснении причин недоверия к нему. Каждая проблема информационной безопасности, которую я когда-либо обдумывал или слышал о ней, и даже больше."
Затем они задались вопросом, существует ли цензура со стороны правительства:
Это как если бы бухгалтера спросили о том, сколько будет 2 плюс 2. Закрыв все двери и окна, бухгалтер шепчет на ухо: "Какое число тебе нужно?"
Давайте начнем с вопросов конкретно по DeepSeek. Вы запускали его локально и сравнивали ответы с теми, что предоставляет веб-сайт? Моя гипотеза заключается в том, что результаты должны различаться...
Известно, что DeepSeek избегает обсуждения многих "политических" тем. Это связано с искаженным восприятием мира или цензурой на этапе формирования запросов после обучения модели? Моя гипотеза заключается в том, что модель была обучена на огромном объеме данных, так как удаление всего "плохого" было бы слишком дорого... Может быть, другая AI предварительно фильтровала данные?
Основной вопрос: что нужно для того, чтобы доверять ИИ? "Доверие" может означать разные вещи, включая политики сбора данных. ("Я думаю, большинство из вас доверяют Amazon и его секретным AI больше, чем следует..." предполагает шанен.) Можно ли использовать систему ИИ не беспокоясь о политике хранения данных?
Также был задан вопрос: сколько участников Slashdot прочитали статью Кена Томпсона "Размышления об уверенности в коде", которая поднимает вопрос о том, можно ли доверять коду, который вы сами не создавали. Так что существует ли способ убедиться, что ответы AI точны и надежны, и безопасно ли их использовать? Поделитесь своими мыслями и опытом в комментариях.
Что нужно для того, чтобы доверять ИИ?
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...