Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Чат-боты не способны мыслить, и все чаще я задаюсь вопросом, могут ли их создатели вообще думать. В середине февраля OpenAI выпустила документ под названием модельная спецификация, в которой описывалось, как ChatGPT должен "думать", особенно в области этики.
Несколько недель спустя люди обнаружили, что чат-бот xAI’s Grok предлагал смертный приговор для своего владельца Илона Маска (Elon Musk) и президента компании Дональда Трампа (Donald Trump). Ведущему инженеру xAI пришлось вмешаться и исправить ситуацию, заменив ответ на утверждение, что "он не имеет права делать такой выбор". Это было необычно тем, что кто-то из работающих над ИИ принял правильное решение. Я сомневаюсь, что это стало прецедентом.
Фундаментальный вопрос этики — и, пожалуй, всей философии — заключается в том, как жить до того момента, когда умрешь. Какой должна быть хорошая жизнь? Это чрезвычайно сложный вопрос, который люди обсуждают уже несколько тысячелетий.
Я не могу поверить, что мне нужно это объяснять, но невероятно глупо, что OpenAI считает себя способной дать ответы на эти вопросы, как это показывает модельная спецификация. Фреймворк этики ChatGPT, вероятно, является наиболее подробным описанием коммерческого чат-бота в этой области...
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...