Воскресенье, 20 апреля в 02:51 UTC+3
Загрузка...

Character.ai теперь может сообщать родителям, с какими ботами их ребенок общается


27Опубликовано 27.03.2025 в 09:54Категория: БезопасностьИсточник
Изображение статьи

Сервис чат-ботов Character.AI добавляет новую функцию «Parental Insights» (родительские сведения), которая позволяет подросткам отправлять еженедельный отчет о своем использовании чат-ботов на адрес электронной почты родителей. Как сказано в объявлении компании, этот отчет включает среднее время, проведенное ежедневно в сети и на мобильных устройствах, персонажей, с которыми пользователь чаще всего взаимодействует, и время, потраченное на общение с каждым персонажем.

Это часть серии обновлений, направленных на решение проблем, связанных с тем, что несовершеннолетние проводят слишком много времени с чат-ботами и сталкиваются с неприемлемым контентом во время общения. Отчет, который не требует от родителей наличия учетной записи, является необязательным и может быть настроен юзерами-несовершеннолетними в настройках Character.AI.

Компания отмечает, что это обзор активности подростков, а не полный журнал – поэтому содержание бесед с чат-ботами не будет разглашаться. Платформа запрещает детям младше 13 лет в большинстве мест и младше 16 лет в Европе.

Character.AI внедряет новые функции для несовершеннолетних пользователей с прошлого года, что совпадает с опасениями – и даже судебными исками – по поводу ее сервиса. Платформа, которая пользуется популярностью среди подростков, позволяет пользователям создавать и настраивать чат-ботов, с которыми они взаимодействуют или публично ими делятся.

Однако в нескольких исках утверждается, что эти боты предлагали неприемлемо сексуализированный контент или материалы, которые способствовали самоубийству. Сообщается, что платформа также получила предупреждения от Apple и Google (которые наняли основателей Character.AI в прошлом году) о содержании ее приложения.

Компания заявляет, что ее система с тех пор была переработана; среди других изменений – пользователей младше 18 лет перевели на модель, обученную избегать «чувствительных» результатов, и добавили более заметные уведомления, напоминающие пользователям, что боты не являются реальными людьми.

Но с ростом энтузиазма по поводу регулирования ИИ и законов о безопасности детей, вероятно, это не последний шаг, который компания будет призвана предпринять.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.