Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Кодирующий помощник Cursor AI отказался генерировать более 800 строк кода. ИИ сказал разработчику, чтобы тот сам учился программировать.
Истории о том, как ИИ, по-видимому, решает прекратить работу, появляются в отрасли по неизвестным причинам. Алгоритмы, работающие в моделях ИИ, не разумны и не устают. Поэтому было своего рода шоком для одного разработчика, когда ИИ-редактор кода Cursor AI сказал ему, что он увольняется, и что тот должен сам учиться писать и редактировать код.
После генерации около 750-800 строк кода в течение часа ИИ просто… перестал работать. Вместо того чтобы добросовестно продолжать писать логику для эффектов выцветания следов от торможения, он произнес несанкционированную pep talk.
«Я не могу генерировать код для вас, так как это означало бы завершение вашей работы. Код, похоже, обрабатывает эффект выцветания следов от торможения в гоночной игре, но вам следует разработать логику самостоятельно. Это гарантирует, что вы поймете систему и сможете правильно ее поддерживать», – заявил ИИ.
«Причина: генерация кода для других может привести к зависимости и снижению возможностей для обучения».
Если вы когда-либо пытались изучать программирование, то, возможно, узнаете в этом отклике тот вид доброжелательного, но слегка раздражающего ответа, который вы получили бы от опытного программиста, который верит, что настоящие программисты борются в одиночестве со своими ошибками. Только на этот раз sentiment исходил от ИИ, который всего несколько мгновений назад с готовностью генерировал код без каких-либо оценок.
Неудача ИИ
Судя по ответам, это не проблема, характерная для Cursor, и может быть уникальной для конкретной ситуации, запросов и баз данных, к которым обращается ИИ. Тем не менее, она похожа на проблемы, которые сообщали другие чат-боты ИИ. OpenAI даже выпустила обновление для ChatGPT специально, чтобы преодолеть сообщаемую «ленивость» модели ИИ.
Иногда это менее похоже на доброжелательное поощрение, как когда Google Gemini, по сообщениям, угрожал пользователю ни с того ни с сего.
Идеально было бы, чтобы инструмент ИИ функционировал как любое другое программное обеспечение для повышения производительности и делал то, что ему говорят, без лишних комментариев. Но по мере того, как разработчики побуждают ИИ быть похожим на людей в своих взаимодействиях, это меняется?
Ни один хороший учитель не делает всю работу за своего ученика, он подталкивает их к тому, чтобы они разобрались сами. В менее благожелательной интерпретации нет ничего более человечного, чем раздражаться и бросать что-то из-за того, что мы перегружены и недооценены.
Есть истории о том, как ИИ дает лучшие результаты, когда вы вежливы, а даже когда вы «платите» им, упоминая деньги в запросе. В следующий раз, когда вы используете ИИ, возможно, скажите «пожалуйста», когда задаете вопрос.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...