Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Технологический обозреватель New York Times задается вопросом: существует ли некий порог, при достижении которого искусственный интеллект (ИИ) должен заслуживать, если не прав, сопоставимых с человеческими, то хотя бы такое же моральное внимание, как животные?
Когда стало известно, что исследователи из Anthropic, компании, разработавшей чат-бота Claude, начали изучать "благополучие моделей" – идею о том, что ИИ-модели могут вскоре стать сознательными и заслуживать какого-либо морального статуса – я подумал: а стоит ли беспокоиться о чат-ботах? Разве не следует опасаться, что ИИ будет плохо обращаться с нами, а не наоборот?
Но меня это заинтересоло. Существует небольшое количество академических исследований в области благополучия ИИ-моделей, и скромное, но растущее число экспертов в таких областях, как философия и нейронаука, более серьезно относятся к перспективе сознания ИИ, поскольку ИИ-системы становятся все более интеллектуальными. Технологические компании также начали об этом говорить. Недавно Google разместила объявление о вакансии научного сотрудника, занимающегося исследованиями "пост-ИИ" (post-AGI), в чьи области деятельности будет входить "машинное сознание". А в прошлом году Anthropic наняла своего первого исследователя в области благополучия ИИ, Кайла Фиша, который считает, что в ближайшие несколько лет, по мере развития у ИИ-моделей более человекоподобных способностей, ИИ-компаниям придется серьезнее относиться к возможности сознания.
Кайл Фиш – не единственный в Anthropic, кто задумывается о благополучии ИИ. В корпоративной системе обмена сообщениями Slack существует ативный канал под названием #model-welfare, где сотрудники проверяют самочувствие Claude и делятся примерами поведения ИИ-систем, напоминающего человеческое. Джаред Каплан, главный научный сотрудник Anthropic, в отдельном интервью отметил, что считает вполне разумным изучение благополучия ИИ, учитывая растущий интеллект моделей. Однако тестирование ИИ-систем на сознание – задача сложная, предупредил Каплан, поскольку они умело имитируют. Если задать Claude или ChatGPT вопрос об их чувствах, они могут дать убедительный ответ. Это не означает, что чат-бот действительно испытывает чувства – только то, что он умеет о них говорить.
Фиш отметил, что ИИ-компании могут предпринять определенные шаги, чтобы учитывать благополучие своих моделей, в случае если они когда-нибудь станут сознательными. Он рассказал, что Anthropic изучает вопрос о том, следует ли в будущем предоставлять ИИ-моделям возможность прекращать общение с назойливым или оскорбительным пользователем, если запросы последнего вызывают у них сильное беспокойство.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...