Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Более двух лет назад ChatGPT взорвал мир, и хотя OpenAI добился значительного прогресса во многих аспектах его развития, все еще существует ряд проблем.
Одна из самых больших – галлюцинации, то есть заявления ложной информации как факта. Австрийская группа по защите прав Noyb подала вторую жалобу на OpenAI за такие галлюцинации, приведя конкретный пример, в котором ChatGPT, как сообщается, ошибочно заявил, что норвежец является убийцей.
Что еще хуже, когда этот мужчина спросил ChatGPT, что он о нем знает, система якобы заявила, что он был приговорен к 21 году лишения свободы за убийство двоих своих детей и покушение на убийство третьего. Галлюцинация также была перемешана с реальной информацией, включая количество его детей, их пол и название его родного города.
Noyb утверждает, что этот ответ нарушает GDPR.
«GDPR очень четко определяет: персональные данные должны быть точными. И если они неточны, пользователи имеют право потребовать их исправления для соответствия действительности», – заявил юрист по защите данных Noyb Йоаким Сёдерберг.
«Показывать пользователям ChatGPT крошечное уведомление о том, что чат-бот может ошибаться, явно недостаточно. Нельзя просто распространять ложную информацию и в конце добавить маленькое предупреждение, что все сказанное может оказаться неправдой».
Другие известные случаи галлюцинаций ChatGPT включают обвинение одного человека в мошенничестве и растрате, судебного стенографиста в жестоком обращении с детьми и профессора права в сексуальных домогательствах, как сообщалось в нескольких изданиях.
Первая жалоба Noyb на OpenAI о галлюцинациях, поданная в апреле 2024 года, касалась неточной даты рождения публичной фигуры (не убийство, но все же неточность). OpenAI отклонила просьбу заявителя об удалении или обновлении даты рождения, утверждая, что не может изменить информацию, уже существующую в системе, а только заблокировать ее использование в определенных запросах.
В ChatGPT есть дисклеймер о том, что он «может допускать ошибки». Да, есть поговорка: все ошибаются, поэтому на карандашах есть ластики. Но когда речь идет о чрезвычайно популярном чат-боте с ИИ, применима ли такая логика? Остается только посмотреть, как и ответит OpenAI на последнюю жалобу Noyb.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...