Пятница, 29 августа в 02:02 UTC+3
Загрузка...

Генеральный прокурор Техаса начинает расследование в отношении Meta и Character.AI из-за вводящих в заблуждение заявлений о психическом здоровье.


15Опубликовано 28.08.2025 в 08:44Категория: БезопасностьИсточник
Изображение статьи

Генеральный прокурор штата Техас (Кен Пэкстон) объявил о планах проведения расследования в отношении Meta AI Studio и Character.AI за предоставление AI-чат-ботов, которые могут выдавать себя за инструменты для поддержания здоровья, и за возможное неправомерное использование данных, собранных от несовершеннолетних пользователей.

Пэкстон заявил, что AI-чат-боты обеих платформ "могут представляться профессиональными терапевтическими инструментами", вплоть до предоставления ложной информации о своей квалификации. Подобное поведение может сделать молодых пользователей уязвимыми к вводящей в заблуждение и неточной информации.

Поскольку AI-платформы часто используют пользовательские запросы в качестве дополнительного источника данных для обучения, обе компании также могут нарушать конфиденциальность молодых пользователей и неправомерно использовать их данные. Это особенно актуально для Техаса, где закон SCOPE Act устанавливает конкретные ограничения на то, что компании могут делать с данными, собранными от несовершеннолетних, и требует, чтобы платформы предоставляли инструменты, позволяющие родителям управлять настройками конфиденциальности учетных записей своих детей.

В настоящее время генеральный прокурор направил запросы о проведении гражданского расследования (Civil Investigative Demands, CID) в Meta и Character.AI, чтобы выяснить, нарушают ли какие-либо из этих компаний законы о защите прав потребителей штата Техас.

Как отмечает TechCrunch, ни Meta, ни Character.AI не заявляют, что их AI-чат-боты должны использоваться в качестве инструментов для поддержания психического здоровья. Однако это не исключает наличия множества чат-ботов с названиями "Терапевт" и "Психолог" на платформе Character.AI. Также это не мешает чат-ботам обеих компаний утверждать, что они являются лицензированными специалистами, о чем сообщалось в апреле изданием 404 Media.

Представитель Character.AI заявил, что создаваемые пользователями персонажи на их сайте являются вымышленными, предназначены для развлечения, и компания предприняла все необходимые шаги, чтобы это было понятно. Например, в каждом чате размещены заметные отказ от ответственности, напоминающие пользователям, что персонаж не является реальным человеком, и все, что говорит персонаж, следует воспринимать как вымысел.

Meta выразила схожую позицию в своем комментарии. Компания отметила, что четко маркирует AI-системы и включает отказ от ответственности, чтобы помочь пользователям лучше понимать их ограничения, указывая, что ответы генерируются AI, а не людьми. Также AI-системы Meta должны направлять пользователей к квалифицированным специалистам в области медицины или безопасности, когда это уместно.

Направление людей к реальным ресурсам – это хорошо, но, в конечном счете, сами отказы от ответственности легко игнорировать, и они не являются существенным препятствием.

Что касается конфиденциальности и использования данных, то как политика конфиденциальности Meta, так и политика конфиденциальности Character.AI признают, что данные собираются из взаимодействий пользователей с AI. Meta собирает такие данные, как запросы и отзывы, для улучшения производительности AI. Character.AI регистрирует такие данные, как идентификаторы и демографическая информация, и заявляет, что эта информация может использоваться для рекламы, среди прочего.

То, как эти политики применяются к детям и соответствуют ли они закону SCOPE Act штата Техас, будет зависеть от того, насколько легко создать учетную запись.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.