Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Генеральный прокурор штата Техас (Кен Пэкстон) объявил о планах проведения расследования в отношении Meta AI Studio и Character.AI за предоставление AI-чат-ботов, которые могут выдавать себя за инструменты для поддержания здоровья, и за возможное неправомерное использование данных, собранных от несовершеннолетних пользователей.
Пэкстон заявил, что AI-чат-боты обеих платформ "могут представляться профессиональными терапевтическими инструментами", вплоть до предоставления ложной информации о своей квалификации. Подобное поведение может сделать молодых пользователей уязвимыми к вводящей в заблуждение и неточной информации.
Поскольку AI-платформы часто используют пользовательские запросы в качестве дополнительного источника данных для обучения, обе компании также могут нарушать конфиденциальность молодых пользователей и неправомерно использовать их данные. Это особенно актуально для Техаса, где закон SCOPE Act устанавливает конкретные ограничения на то, что компании могут делать с данными, собранными от несовершеннолетних, и требует, чтобы платформы предоставляли инструменты, позволяющие родителям управлять настройками конфиденциальности учетных записей своих детей.
В настоящее время генеральный прокурор направил запросы о проведении гражданского расследования (Civil Investigative Demands, CID) в Meta и Character.AI, чтобы выяснить, нарушают ли какие-либо из этих компаний законы о защите прав потребителей штата Техас.
Как отмечает TechCrunch, ни Meta, ни Character.AI не заявляют, что их AI-чат-боты должны использоваться в качестве инструментов для поддержания психического здоровья. Однако это не исключает наличия множества чат-ботов с названиями "Терапевт" и "Психолог" на платформе Character.AI. Также это не мешает чат-ботам обеих компаний утверждать, что они являются лицензированными специалистами, о чем сообщалось в апреле изданием 404 Media.
Представитель Character.AI заявил, что создаваемые пользователями персонажи на их сайте являются вымышленными, предназначены для развлечения, и компания предприняла все необходимые шаги, чтобы это было понятно. Например, в каждом чате размещены заметные отказ от ответственности, напоминающие пользователям, что персонаж не является реальным человеком, и все, что говорит персонаж, следует воспринимать как вымысел.
Meta выразила схожую позицию в своем комментарии. Компания отметила, что четко маркирует AI-системы и включает отказ от ответственности, чтобы помочь пользователям лучше понимать их ограничения, указывая, что ответы генерируются AI, а не людьми. Также AI-системы Meta должны направлять пользователей к квалифицированным специалистам в области медицины или безопасности, когда это уместно.
Направление людей к реальным ресурсам – это хорошо, но, в конечном счете, сами отказы от ответственности легко игнорировать, и они не являются существенным препятствием.
Что касается конфиденциальности и использования данных, то как политика конфиденциальности Meta, так и политика конфиденциальности Character.AI признают, что данные собираются из взаимодействий пользователей с AI. Meta собирает такие данные, как запросы и отзывы, для улучшения производительности AI. Character.AI регистрирует такие данные, как идентификаторы и демографическая информация, и заявляет, что эта информация может использоваться для рекламы, среди прочего.
То, как эти политики применяются к детям и соответствуют ли они закону SCOPE Act штата Техас, будет зависеть от того, насколько легко создать учетную запись.
Нет статей для отображения
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...