Загрузка предыдущей публикации...
Статья в The Atlantic утверждает, что "основа всей индустрии искусственного интеллекта – это обман" и что ИИ "не является тем, чем его представляют разработчики: новым классом мыслящих – и вскоре, чувствующих – машин".
Генеральный директор OpenAI Сэм Альтман (Sam Altman) хвастается улучшенным "эмоциональным интеллектом" ChatGPT-4.5, утверждая, что это заставляет пользователей чувствовать, будто они "разговаривают с вдумчивым человеком". Дарио Амодей (Dario Amodei), генеральный директор компании Anthropic, заявил в прошлом году, что следующее поколение искусственного интеллекта будет "умнее лауреата Нобелевской премии". Демис Хассабис (Demis Hassabis), генеральный директор Google DeepMind, заявил, что цель – создать "модели, способные понимать окружающий мир". Эти заявления выдают концептуальную ошибку: большие языковые модели не "понимают", не могут и не будут "понимать" что бы то ни было. Они не обладают эмоциональным интеллектом и не являются умными в каком-либо значимом или узнаваемо человеческом смысле этого слова. LLM – это впечатляющие вероятностные устройства, которым скормили почти весь интернет, и они генерируют текст не путем мышления, а путем статистически обоснованных предположений о том, какой лексический элемент, вероятно, последует за другим.
В статье отмечается, что социолог и лингвист объединили усилия для написания новой книги под названием "Обман ИИ: Как бороться с шумихой Big Tech и создать будущее, которое мы хотим". Авторы отмечают, что большие языковые модели используют склонность мозга ассоциировать язык с мышлением: "Мы сталкиваемся с текстом, который выглядит так, как будто его мог написать человек, и рефлекторно интерпретируем его, используя наш обычный процесс воображения разума, стоящего за текстом. Но там нет разума, и нам нужно сознательно отказаться от этого воображаемого разума, который мы сконструировали".
Назревают и другие социальные проблемы, связанные с ИИ, также происходящие из-за человеческого непонимания технологии. Области применения ИИ, которые, кажется, больше всего стремятся продвигать в Кремниевой долине, сосредоточены на замене человеческих отношений цифровыми прокси. Рассмотрите постоянно расширяющуюся вселенную ИИ-терапевтов и приверженцев ИИ-терапии, которые заявляют, что "ChatGPT – мой терапевт – он более квалифицирован, чем любой человек". Обратите внимание также, как плавно Марк Цукерберг перешел от идеи о том, что Facebook приведет к расцвету человеческой дружбы, к идее о том, что Meta предоставит вам ИИ-друзей, чтобы заменить человеческих друзей, которых вы потеряли в нашей отчужденной эпохе социальных сететей…
Хорошая новость в том, что ничего этого не является неизбежным: согласно исследованию, опубликованному в апреле исследовательским центром Pew Research Center, хотя 56% "экспертов в области ИИ" считают, что искусственный интеллект улучшит ситуацию в Соединенных Штатах, только 17% американцев так думают. Если многие американцы не совсем понимают, как работает искусственный "интеллект", то они также, безусловно, не доверяют ему. Это подозрение, несомненно, вызвано недавними примерами мошенничества со стороны Кремниевой долины, и на этом можно построить. Если люди поймут, что представляют собой большие языковые модели и чего они не представляют; что они могут и чего не могут делать; какую работу, взаимодействие и часть жизни они должны – и не должны – заменять, их можно будет избавить от худших последствий.