Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Чат-бот Grok от xAI на протяжении нескольких часов в среду рассказывал всем пользователям X о спорном утверждении о «геноциде белых» в Южной Африке. Компания xAI объяснила это «несанкционированным изменением» кода Grok. На протяжении нескольких часов в среду чат-бот вставлял обсуждение предполагаемого «геноцида белых» в Южной Африке в различные ответы в X, независимо от темы. Grok обсуждал гибель фермероу в ответ на видео с кошкой, пьющей воду, связал песню «Kill the Boer» с вопросом о Губке Бобе Квадратные Штаны и подробно изложил эту проблему на патуа. Даже генеральный директор OpenAI Сэм Альтман (Sam Altman) присоединился к обсуждению, пошутив над публичным сбоем конкурирующего чат-бота.
В заявлении, опубликованном в X, компания сообщила, что кто-то изменил системный запрос (system prompt) AI-бота, «который предписывал Grok давать определенный ответ на политическую тему». Это изменение «нарушило внутренние политики и основные ценности xAI», и компания заявляет, что провела «тщательное расследование» и внедряет новые меры для повышения «прозрачности и надежности». Эти меры включают публикацию системных запросов Grok на GitHub, создание круглосуточной мониторинговой группы для более быстрого выявления подобных проблем и добавление «дополнительных проверочек и мер для обеспечения того, чтобы сотрудники xAI не могли изменять запрос без проверки».
xAI уже сталкивалась с этой проблемой. В феврале компания обвинила неназванного бывшего сотрудника OpenAI в том, что он внес изменения в запросы Grok, в результате чего чат-бот игнорировал любые источники, обвиняющие Илона Маска (Elon Musk) или Дональда Трампа (Donald Trump) в распространении дезинформации. В то время глава инженерного отдела xAI, Игорь Бабушкин (Igor Babuschkin), заявил, что сотрудник смог внести изменения «без согласования с кем-либо из компании».
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...