Воскресенье, 18 мая в 09:12 UTC+3
Загрузка...

Ушла ли бескорыстная OpenAI?


9Опубликовано 18.05.2025 в 02:32Категория: ИИИсточник
Изображение статьи

Исчезновение альтруизма OpenAI, если он когда-либо существовал, очевидно", – утверждает новая статья в журнале The Atlantic, основанная на интервью с более чем 90 нынешними и бывшими сотрудниками, включая руководителей. В ней отмечается, что незадолго до отстранения (и повторного найма) Олтмана он, по-видимому, пытался обойти процессы обеспечения безопасности ради скорости, а сооснователь и главный научный сотрудник OpenAI Илья Сатскевер заявил трем членам совета директоров: "Я не думаю, что Сэм – тот, кто должен держать руку на кнопке для AGI". (Совет директоров уже обнаружил, что Олтман "не был откровенен с ними по ряду вопросов", включая нарушение протоколов Департамента обеспечения безопасности развертывания.)

Основанная на предстоящей книге "Империя ИИ", статья сначала возвращается к лету 2023 года, когда Сатскевер ("мозг, стоящий за большими языковыми моделями, которые помогли создать ChatGPT") встретился с группой новых исследователей:

Сатскевер давно верил, что общий искусственный интеллект (AGI) неизбежен – теперь, когда ситуация в индустрии генеративного ИИ ускоряется, он считал, что появление AGI неизбежно, согласно Джеффу Хинтону, пионеру ИИ, который был его научным руководителем и наставником, и другому человеку, знакомому с мышлением Сатскевера. Окружающих Сатскевера людей охватила мысль об этой грядущей цивилизационной трансформации. Каким будет мир, когда появится высший AGI и превзойдет человечество? И какую ответственность несет OpenAI за обеспечение конечного состояния исключительного процветания, а не исключительных страданий?

К тому времени Сатскевер, который ранее посвящал большую часть своего времени развитию возможностей ИИ, начал уделять половине своего времени вопросам безопасности ИИ. Он казался окружающим его людям одновременно и оптимистом, и пессимистом: более взволнованным и испуганным, чем когда-либо, тем, что грядет. В тот день, во время встречи с новыми исследователями, он изложил план. "Как только мы все попадем в бункер – ", – начал он, по словам присутствовавшего исследователя.

"Простите", – перебил исследователь, – "бункер?"

"Мы обязательно построим бункер, прежде чем выпустим AGI", – ответил Сатскевер. Такая мощная технология, безусловно, вызовет огромный интерес со стороны правительств всего мира. Основные ученые, работающие над этой технологией, должны быть защищены. "Конечно", – добавил он, – "вход в бункер будет открыт для всех сотрудников".

На мой взгляд, эта драма высветила один из самых насущных вопросов нашего поколения: как управлять искусственным интеллектом? Учитывая, что ИИ на пути к перестройке многих других важнейших функций в обществе, этот вопрос на самом деле спрашивает: как мы можем обеспечить лучшее, а не худшее будущее? События ноября 2023 года в самых ясных терминах показали, насколько борьба за власть между крошечной группой элиты Кремниевой долины в настоящее время формирует будущее этой технологии. И результаты этого централизованного подхода к разработке ИИ глубоко тревожны. OpenAI сегодня стала всем тем, чем она не должна была быть...

Автор считает, что OpenAI "стала все более секретной, не только ограничивая доступ к своим исследованиям, но и меняя нормы во всей отрасли, больше не делясь значимыми техническими деталями об ИИ-моделях..."

"В то же время все больше сомнений возникло в отношении истинной экономической ценности генеративного ИИ, включая растущее количество исследований, которые показали, что эта технология не приводит к повышению производительности для большинства работников, а также подрывает их критическое мышление".

``` **Основные изменения и пояснения:** * **`

` теги:** Текст разбит на параграфы с помощью тегов `

`. Это делает текст более читаемым в HTML. * **`

` теги:** Цитата выделена с помощью тега `
`. * **Оптимизация:** Убраны лишние пробелы и переносы строк для более компактного кода. * **Семантичность:** Использование правильных HTML-тегов для структурирования текста. Теперь этот код можно вставить в HTML-файл и он будет отображать текст в структурированном и читаемом виде.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.