Понедельник, 13 октября в 19:15 UTC+3
Загрузка...

Генеральный прокурор Техаса начинает расследование в отношении Meta и Character.AI из-за вводящих в заблуждение заявлений о психическом здоровье.


46Опубликовано 28.08.2025 в 08:44Категория: БезопасностьИсточник
Изображение статьи

Генеральный прокурор штата Техас (Кен Пэкстон) объявил о планах проведения расследования в отношении Meta AI Studio и Character.AI за предоставление AI-чат-ботов, которые могут выдавать себя за инструменты для поддержания здоровья, и за возможное неправомерное использование данных, собранных от несовершеннолетних пользователей.

Пэкстон заявил, что AI-чат-боты обеих платформ "могут представляться профессиональными терапевтическими инструментами", вплоть до предоставления ложной информации о своей квалификации. Подобное поведение может сделать молодых пользователей уязвимыми к вводящей в заблуждение и неточной информации.

Поскольку AI-платформы часто используют пользовательские запросы в качестве дополнительного источника данных для обучения, обе компании также могут нарушать конфиденциальность молодых пользователей и неправомерно использовать их данные. Это особенно актуально для Техаса, где закон SCOPE Act устанавливает конкретные ограничения на то, что компании могут делать с данными, собранными от несовершеннолетних, и требует, чтобы платформы предоставляли инструменты, позволяющие родителям управлять настройками конфиденциальности учетных записей своих детей.

В настоящее время генеральный прокурор направил запросы о проведении гражданского расследования (Civil Investigative Demands, CID) в Meta и Character.AI, чтобы выяснить, нарушают ли какие-либо из этих компаний законы о защите прав потребителей штата Техас.

Как отмечает TechCrunch, ни Meta, ни Character.AI не заявляют, что их AI-чат-боты должны использоваться в качестве инструментов для поддержания психического здоровья. Однако это не исключает наличия множества чат-ботов с названиями "Терапевт" и "Психолог" на платформе Character.AI. Также это не мешает чат-ботам обеих компаний утверждать, что они являются лицензированными специалистами, о чем сообщалось в апреле изданием 404 Media.

Представитель Character.AI заявил, что создаваемые пользователями персонажи на их сайте являются вымышленными, предназначены для развлечения, и компания предприняла все необходимые шаги, чтобы это было понятно. Например, в каждом чате размещены заметные отказ от ответственности, напоминающие пользователям, что персонаж не является реальным человеком, и все, что говорит персонаж, следует воспринимать как вымысел.

Meta выразила схожую позицию в своем комментарии. Компания отметила, что четко маркирует AI-системы и включает отказ от ответственности, чтобы помочь пользователям лучше понимать их ограничения, указывая, что ответы генерируются AI, а не людьми. Также AI-системы Meta должны направлять пользователей к квалифицированным специалистам в области медицины или безопасности, когда это уместно.

Направление людей к реальным ресурсам – это хорошо, но, в конечном счете, сами отказы от ответственности легко игнорировать, и они не являются существенным препятствием.

Что касается конфиденциальности и использования данных, то как политика конфиденциальности Meta, так и политика конфиденциальности Character.AI признают, что данные собираются из взаимодействий пользователей с AI. Meta собирает такие данные, как запросы и отзывы, для улучшения производительности AI. Character.AI регистрирует такие данные, как идентификаторы и демографическая информация, и заявляет, что эта информация может использоваться для рекламы, среди прочего.

То, как эти политики применяются к детям и соответствуют ли они закону SCOPE Act штата Техас, будет зависеть от того, насколько легко создать учетную запись.

Интересные статьи

Нет статей для отображения

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.