Суббота, 17 мая в 19:55 UTC+3
Загрузка...

Антропик обвиняет Claude AI в «неловшей и непреднамеренной ошибке» в юридическом документе.


21Опубликовано 16.05.2025 в 20:48Категория: ИИИсточник
Изображение статьи

Компания Anthropic прокомментировала обвинения в использовании сфабрикованного источника в судебном разбирательстве с музыкальными издателями, заявив, что ее чат-бот Claude допустил "честную ошибку цитирования". Неверная цитата была включена в документ, представленный научным сотрудником Anthropic Оливией Чен (Olivia Chen) 30 апреля, в рамках защиты AI-компании от претензий, что для обучения Claude использовались тексты песен, защищенные авторским правом. Адвокат, представляющий Universal Music Group, ABKCO и Concord, заявил на слушании, что источники, на которые ссылается документ Чен, являются "полной фальсификацией" и предположил, что они были "сгенерированы" AI-инструментом Anthropic.

В ответ, представленный в четверг, адвокат Anthropic Ивана Дуканович (Ivana Dukanovic) заявила, что оспариваемый источник был подлинным и что Claude действительно использовался для форматирования юридических цитат в документе. Хотя неверные номера томов и страниц, сгенерированные чат-ботом, были обнаружены и исправлены в ходе "ручной проверки цитирования", Anthropic признает, что ошибки в формулировках остались незамеченными. Дуканович отметила, что, "к сожалению, несмотря на предоставление правильного названия публикации, года издания и ссылки на указанный источник, возвращенная цитата содержала неточное название и неправильных авторов", и что эта ошибка не является "фальсификацией авторитета".

Компания принесла извинения за неточность и путаницу, вызванные ошибкой цитирования, назвав ее "неловкой и непреднамереной ошибкой". Это один из многих растущих примеров того, как использование AI-инструментов для юридических цитат вызывает проблемы в залах суда. На прошлой неделе судья в Калифорнии раскритиковал две юридические фирмы за то, что они не раскрыли, что AI использовался для создания дополнительного брифа, изобилующего "ложной" информацией, которой "не существовало". Эксперт по дезинформации признался в декабре, что ChatGPT сгенерировал фиктивные цитаты в юридическом документе, который он представил.

Загрузка предыдущей публикации...

Загрузка следующей публикации...

Предыдущие новости в категории

Загрузка предыдущих новостей...

Следующие новости в категории

Загрузка следующих новостей...

Мы отбираем новости из проверенных источников, обрабатываем их с помощью современных AI-технологий и публикуем на сайте, созданном с использованием искусственного интеллекта. Все материалы принадлежат их авторам, а контент проходит дополнительную проверку на достоверность. Возможны ошибки в тексте, так как нейросеть тоже имеет свойство ошибаться. Все изображения являются фантазией нейросети, совпадение с реальными предметами и личностями маловероятно.

© 2025 NOTid . QAter . AI service.