Суббота, 28 июня в 07:33 UTC+3
Загрузка...

Генеральный директор Cloudflare утверждает, что люди не проверяют источники ссылок в чат-ботах с искусственным интеллектом.


20Опубликовано 22.06.2025 в 00:49Категория: ИИИсточник
Изображение статьи

Разработчики генеративного искусственного интеллекта (ИИ) всегда подчеркивают, что их чат-боты содержат ссылки на веб-сайты в ответах, генерируемых для пользователей. Однако генеральный директор Cloudflare, Мэтью Принс (Matthew Prince), сообщил Axios, что трафик, направляемый этими ссылками, неуклонно снижается. По его словам, издатели сталкиваются с экзистенциальной угрозой, поскольку пользователи все больше полагаются на сводки, предоставляемые ИИ, и реже переходят по ссылкам для получения более подробной информации.

Принс рассказал Axios, что десять лет назад Google направлял издателю одного посетителя на каждые две просмотренные страницы. Шесть месяцев назад это соотношение составило один посетитель на шесть страниц, а сейчас – один на восемнадцать. OpenAI направлял издателю одного посетителя на каждые 250 просмотренных страниц шесть месяцев назад, в то время как Anthropic – одного на 6000 страниц. В настоящее время OpenAI направляет одного посетителя на каждые 1500 страниц, а Anthropic – одного на 60 000 страниц.

В последние месяцы доверие пользователей к чат-ботам на основе ИИ возросло. Проблема для издателей заключается в том, что они не получают дохода от рекламы, если пользователи не переходят по ссылкам на их веб-сайты. Поэтому Принс призывает их принять меры для обеспечения справедливой компенсации.

Принс сообщил, что Cloudflare в настоящее время работает над инструментом, который будет блокировать ботов, собирающих контент для больших языковых моделей, даже если на веб-странице уже есть инструкция "no crawl". Напомним, что несколько изданий сообщали в 2024 году, что компании, разрабатывающие ИИ, игнорируют файлы Robots Exclusion Protocol (robots.txt) веб-сайтов и используют их контент для обучения своих технологий.

Cloudflare ищет способы блокировки сборщиков данных с прошлого года. Однако официально AI Labyrinth был представлен только в марте. Этот инструмент использует контент, сгенерированный ИИ, чтобы "замедлить, запутать и потратить ресурсы ИИ-краулеров и других ботов, которые не соблюдают директивы 'no crawl'". Он работает, направляя несанкционированного краулера на серию страниц, сгенерированных ИИ, которые достаточно убедительны, но не содержат фактического контента защищаемого сайта. Таким образом, краулер тратит время и ресурсы впустую.

“Я ежедневно воюю с китайским правительством, российским правительством, иранским, северокорейским, вероятно, американским, израильским, со всеми, кто пытается взломать сайты наших клиентов”, – заявил Принс. “И вы хотите сказать мне, что я не могу остановить какого-то ботаника с корпорацией в Пало-Альто?”

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.