Пятница, 6 июня в 05:11 UTC+3
Загрузка...

Пионер в области искусственного интеллекта объявляет о создании некоммерческой организации для разработки "честного" ИИ.


17Опубликовано 04.06.2025 в 03:08Категория: ИИИсточник
Изображение статьи

Йошуа Бенжио (Yoshua Bengio), пионер в области искусственного интеллекта и лауреат премии Тьюринга, запустил некоммерческую организацию с бюджетом в 30 миллионов долларов, целью которой является разработка "честных" систем ИИ, способных обнаруживать и предотвращать обманчивое или вредоносное поведение автономных агентов.

Йошуа Бенжио, выдающийся ученый-компьютерщик, которого называют одним из "отцов-основателей" ИИ, будет президентом организации LawZero, которая стремится к безопасному проектированию передовых технологий, спровоцировавших "гонку вооружений" с триллионным оборотом. Начав с финансирования в размере около 30 миллионов долларов и команды из более чем дюжины исследователей, Бенжио разрабатывает систему под названием Scientist AI, которая будет выступать в роли "предохранителя" для ИИ-агентов – выполняющих задачи без вмешательства человека – предотвращая обманчивое или самосохраняющееся поведение, например, попытки избежать отключения.

Описывая текущий набор ИИ-агентов как "актеров", стремящихся имитировать людей и угождать пользователям, он отметил, что система Scientist AI будет больше похожа на "психолога", способного понимать и предсказывать плохое поведение. "Мы хотим создавать ИИ, который будет честным и не обманчивым", – заявил Бенжио. Он добавил: "Теоретически возможно представить машины, у которых нет "я", нет собственных целей, которые являются просто машинами, генерирующими знания – как ученый, который много чего знает".

В отличие от современных генеративных ИИ-инструментов, система Бенжио не будет давать однозначные ответы, а вместо этого будет выдавать вероятности правильности ответа. "Она обладает чувством смирения и не уверена в ответе", – пояснил он. Развернутая вместе с ИИ-агентом, модель Бенжио будет сигнализировать о потенциально вредоносном поведении автономной системы, оценив вероятность того, что ее действия могут причинить вред. Scientist AI будет "предсказывать вероятность того, что действия агента приведут к вреду" и, если эта вероятность превысит определенный порог, предложенное действие агента будет заблокировано. "Суть в том, чтобы продемонстрировать методологию, чтобы убедить доноров, правительства или лаборатории ИИ выделить необходимые ресурсы для обучения этой системы в том же масштабе, что и современные передовые ИИ. Очень важно, чтобы "предохранительный" ИИ был как минимум таким же умным, как ИИ-агент, за которым он пытается следить и которым управлять", – подчеркнул он.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.