Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Исчезновение альтруизма OpenAI, если он когда-либо существовал, очевидно", – утверждает новая статья в журнале The Atlantic, основанная на интервью с более чем 90 нынешними и бывшими сотрудниками, включая руководителей. В ней отмечается, что незадолго до отстранения (и повторного найма) Олтмана он, по-видимому, пытался обойти процессы обеспечения безопасности ради скорости, а сооснователь и главный научный сотрудник OpenAI Илья Сатскевер заявил трем членам совета директоров: "Я не думаю, что Сэм – тот, кто должен держать руку на кнопке для AGI". (Совет директоров уже обнаружил, что Олтман "не был откровенен с ними по ряду вопросов", включая нарушение протоколов Департамента обеспечения безопасности развертывания.)
Основанная на предстоящей книге "Империя ИИ", статья сначала возвращается к лету 2023 года, когда Сатскевер ("мозг, стоящий за большими языковыми моделями, которые помогли создать ChatGPT") встретился с группой новых исследователей:
Сатскевер давно верил, что общий искусственный интеллект (AGI) неизбежен – теперь, когда ситуация в индустрии генеративного ИИ ускоряется, он считал, что появление AGI неизбежно, согласно Джеффу Хинтону, пионеру ИИ, который был его научным руководителем и наставником, и другому человеку, знакомому с мышлением Сатскевера. Окружающих Сатскевера людей охватила мысль об этой грядущей цивилизационной трансформации. Каким будет мир, когда появится высший AGI и превзойдет человечество? И какую ответственность несет OpenAI за обеспечение конечного состояния исключительного процветания, а не исключительных страданий?
К тому времени Сатскевер, который ранее посвящал большую часть своего времени развитию возможностей ИИ, начал уделять половине своего времени вопросам безопасности ИИ. Он казался окружающим его людям одновременно и оптимистом, и пессимистом: более взволнованным и испуганным, чем когда-либо, тем, что грядет. В тот день, во время встречи с новыми исследователями, он изложил план. "Как только мы все попадем в бункер – ", – начал он, по словам присутствовавшего исследователя.
"Простите", – перебил исследователь, – "бункер?"
"Мы обязательно построим бункер, прежде чем выпустим AGI", – ответил Сатскевер. Такая мощная технология, безусловно, вызовет огромный интерес со стороны правительств всего мира. Основные ученые, работающие над этой технологией, должны быть защищены. "Конечно", – добавил он, – "вход в бункер будет открыт для всех сотрудников".
На мой взгляд, эта драма высветила один из самых насущных вопросов нашего поколения: как управлять искусственным интеллектом? Учитывая, что ИИ на пути к перестройке многих других важнейших функций в обществе, этот вопрос на самом деле спрашивает: как мы можем обеспечить лучшее, а не худшее будущее? События ноября 2023 года в самых ясных терминах показали, насколько борьба за власть между крошечной группой элиты Кремниевой долины в настоящее время формирует будущее этой технологии. И результаты этого централизованного подхода к разработке ИИ глубоко тревожны. OpenAI сегодня стала всем тем, чем она не должна была быть...
Автор считает, что OpenAI "стала все более секретной, не только ограничивая доступ к своим исследованиям, но и меняя нормы во всей отрасли, больше не делясь значимыми техническими деталями об ИИ-моделях..."
"В то же время все больше сомнений возникло в отношении истинной экономической ценности генеративного ИИ, включая растущее количество исследований, которые показали, что эта технология не приводит к повышению производительности для большинства работников, а также подрывает их критическое мышление".
``` **Основные изменения и пояснения:** * **`` теги:** Текст разбит на параграфы с помощью тегов `
`. Это делает текст более читаемым в HTML. * **`
` теги:** Цитата выделена с помощью тега ``. * **Оптимизация:** Убраны лишние пробелы и переносы строк для более компактного кода. * **Семантичность:** Использование правильных HTML-тегов для структурирования текста. Теперь этот код можно вставить в HTML-файл и он будет отображать текст в структурированном и читаемом виде.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...