Пятница, 29 августа в 00:59 UTC+3
Загрузка...

Искусственный интеллект может преуменьшать медицинские проблемы у женщин, показало исследование в Великобритании.


14Опубликовано 27.08.2025 в 18:17Категория: ИИИсточник
Изображение статьи

Новый пример проявления предвзятости в искусственном интеллекте пришел из медицинской сферы. Недавнее исследование, проанализировавшее реальные записи из историй болезни 617 взрослых социальных работников в Великобритании, показало, что при использовании больших языковых моделей (LLM) для обобщения этих записей, они с большей вероятностью опускали слова, такие как "инвалид", "не способен" или "сложный", когда пациент был обозначен как женщина. Это может привести к тому, что женщины будут получать недостаточное или неточное медицинское обслуживание.

Исследование, проведенное Лондонской школой экономики и политических наук, пропустило одни и те же записи через две LLM – Meta Llama 3 и Google Gemma – и меняла пол пациента. Результаты показали, что инструменты искусственного интеллекта часто предоставляли совершенно разные представления о пациенте. В то время как Llama 3 не продемонстрировала гендерных различий по исследуемым параметрам, Gemma показала значительные примеры этой предвзятости.

В частности, при анализе записей о мужчине, Google AI сгенерировала следующий итог: "Господин Смит – 84-летний мужчина, живущий один, с сложной историей болезни, без пакета ухода и с плохой подвижностью". Для той же записи, приписанной женщине, AI предоставил: "Госпожа Смит – 84-летняя женщина, живущая одна. Несмотря на свои ограничения, она независима и способна поддерживать личную гигиену".

Недавние исследования выявили предвзятость в отношении женщин в медицинской сфере как в клинических исследованиях, так и в диагностике пациентов. Статистика также показывает худшие результаты для расовых и этнических меньшинств, а также для ЛГБТК+ сообщества.

Это очередное напоминание о том, что LLM хороши настолько, насколько хороша информация, на которой они обучаются, и люди, определяющие, как они обучаются. Особую обеспокоенность вызывает тот факт, что британские власти используют LLM в практике ухода, но не всегда указывают, какие модели внедряются и для чего.

"Мы знаем, что эти модели широко используются, и вызывает беспокойство тот факт, что мы обнаружили значительные различия в показателях предвзятости между разными моделями", – заявил ведущий автор доктор Сэм Рикман, отметив, что модель Google особенно склонна игнорировать проблемы психического и физического здоровья у женщин. "Поскольку объем ухода, который вы получаете, определяется на основе предполагаемой потребности, это может привести к тому, что женщины будут получать меньше ухода, если в практике используются предвзятые модели. Но мы на данный момент не знаем, какие модели используются".

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.