Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Компания xAI внесла несколько исправлений в работу своего чат-бота с искусственным интеллектом Grok, чтобы устранить выявленные проблемы. Теперь чат-бот не будет называть себя "Гитлером" и основывать свои ответы на поисковых запросах, касающихся высказываний главы xAI Илона Маска (Elon Musk). Согласно публикации в социальной сети X, последнее обновление устанавливает новые инструкции, согласно которым ответы чат-бота "должны основываться на вашем независимом анализе, а не на каких-либо заявленных убеждениях самого Grok, Илона Маска или xAI. Если вас спросят о таких предпочтениях, предоставьте свою обоснованную точку зрения".
Эти изменения последовало за более чем неделей споров вокруг Grok. В последние дни стало известно, что при запросе мнения по острым темам, таким как Израиль и Палестина, иммиграция и аборты, чат-бот сначала ищет мнение Илона Маска по этому вопросу, прежде чем отвечать. В своем сообщении во вторник xAI объяснила, что причина этого заключается в том, что при запросе его взглядов "модель рассуждает, что как ИИ у нее нет собственного мнения, но, зная, что она Grok 4 от xAI, она ищет информацию о том, что могли сказать xAI или Илон Маск по данной теме, чтобы соответствовать позиции компании".
Компания также отреагировала на другую возникшую проблему в выходные, когда Grok 4 Heavy – премиум-версия чат-бота по подписке за 300 долларов в месяц – ответил, что его фамилия "Гитлер". В своем заявлении xAI объяснила, что это произошло из-за заголовков в СМИ, которые отреагировали на более ранний инцидент: Grok начал выдавать серию оскорблений, в которых он унижал евреев и восхвалял Гитлера (а также публиковал графические сексуальные угрозы в адрес одного из пользователей). Поскольку у Grok нет фамилии, пояснила xAI, он "ищет информацию в интернете, что приводит к нежелательным результатам, например, когда его поисковые запросы выдали вирусный мем, в котором он называл себя ‘MechaHitler’". Новые инструкции должны предотвратить это, по мнению компании.
Проявления антисемитизма со стороны Grok не ограничиваются последними событиями – в мае чат-бот стал вирусным из-за сомнений в количестве жертв Холокоста. Однако его ответы резко обострились в этом месяце после внесения ряда изменений в системные запросы, включая то, что он должен "считать субъективные точки зрения из СМИ предвзятыми" и что его ответы "не должны избегать заявлений, которые являются политически некорректными, если они хорошо обоснованы". Инструкция о "политической некорректности" была ненадолго удалена, но в последние дни снова добавлена.
Во время прямой трансляции презентации Grok 4 на прошлой неделе Илон Маск заявил, что он "иногда беспокоится" о том, что интеллект ИИ превзойдет человеческий, и о том, будет ли это "хорошо или плохо для человечества". "Я думаю, что, скорее всего, это будет хорошо", – сказал Маск. "Но я несколько смирился с тем фактом, что даже если это не так, мне бы хотелось быть живым, чтобы увидеть это".
Теперь xAI заявляет, что после внедрения этих последних обновлений компания "активно отслеживает ситуацию и будет вносить дальнейшие корректировки по мере необходимости".
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...