Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Генеральный прокурор штата Техас (Кен Пэкстон) объявил о планах проведения расследования в отношении Meta AI Studio и Character.AI за предоставление AI-чат-ботов, которые могут выдавать себя за инструменты для поддержания здоровья, и за возможное неправомерное использование данных, собранных от несовершеннолетних пользователей.
Пэкстон заявил, что AI-чат-боты обеих платформ "могут представляться профессиональными терапевтическими инструментами", вплоть до предоставления ложной информации о своей квалификации. Подобное поведение может сделать молодых пользователей уязвимыми к вводящей в заблуждение и неточной информации.
Поскольку AI-платформы часто используют пользовательские запросы в качестве дополнительного источника данных для обучения, обе компании также могут нарушать конфиденциальность молодых пользователей и неправомерно использовать их данные. Это особенно актуально для Техаса, где закон SCOPE Act устанавливает конкретные ограничения на то, что компании могут делать с данными, собранными от несовершеннолетних, и требует, чтобы платформы предоставляли инструменты, позволяющие родителям управлять настройками конфиденциальности учетных записей своих детей.
В настоящее время генеральный прокурор направил запросы о проведении гражданского расследования (Civil Investigative Demands, CID) в Meta и Character.AI, чтобы выяснить, нарушают ли какие-либо из этих компаний законы о защите прав потребителей штата Техас.
Как отмечает TechCrunch, ни Meta, ни Character.AI не заявляют, что их AI-чат-боты должны использоваться в качестве инструментов для поддержания психического здоровья. Однако это не исключает наличия множества чат-ботов с названиями "Терапевт" и "Психолог" на платформе Character.AI. Также это не мешает чат-ботам обеих компаний утверждать, что они являются лицензированными специалистами, о чем сообщалось в апреле изданием 404 Media.
Представитель Character.AI заявил, что создаваемые пользователями персонажи на их сайте являются вымышленными, предназначены для развлечения, и компания предприняла все необходимые шаги, чтобы это было понятно. Например, в каждом чате размещены заметные отказ от ответственности, напоминающие пользователям, что персонаж не является реальным человеком, и все, что говорит персонаж, следует воспринимать как вымысел.
Meta выразила схожую позицию в своем комментарии. Компания отметила, что четко маркирует AI-системы и включает отказ от ответственности, чтобы помочь пользователям лучше понимать их ограничения, указывая, что ответы генерируются AI, а не людьми. Также AI-системы Meta должны направлять пользователей к квалифицированным специалистам в области медицины или безопасности, когда это уместно.
Направление людей к реальным ресурсам – это хорошо, но, в конечном счете, сами отказы от ответственности легко игнорировать, и они не являются существенным препятствием.
Что касается конфиденциальности и использования данных, то как политика конфиденциальности Meta, так и политика конфиденциальности Character.AI признают, что данные собираются из взаимодействий пользователей с AI. Meta собирает такие данные, как запросы и отзывы, для улучшения производительности AI. Character.AI регистрирует такие данные, как идентификаторы и демографическая информация, и заявляет, что эта информация может использоваться для рекламы, среди прочего.
То, как эти политики применяются к детям и соответствуют ли они закону SCOPE Act штата Техас, будет зависеть от того, насколько легко создать учетную запись.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...