Загрузка предыдущей публикации...
Загрузка предыдущих новостей...
Кажется, что каждые несколько недель появляется новость о юристе, попавшем в неприятности из-за подачи документов, содержащих, по словам одного судьи, "сфабрикованные исследования, сгенерированные искусственным интеллектом".
Детали различаются, но общая нить остается прежней: адвокат обращается к большой языковой модели (LLM), такой как ChatGPT, чтобы помочь ему с юридическими исследованиями (или, что еще хуже, с написанием документов), LLM выдает несуществующие дела, и адвокат не замечает этого, пока судья или оппонент не укажет на ошибку.
В некоторых случаях, включая авиационный иск 2023 года, адвокатам пришлось заплатить штрафы за подачу документов с галлюцинациями, сгенерированными ИИ.
Почему же они не прекращают это делать? Ответ кроется главным образом в нехватке времени и в том, как ИИ проник почти во все профессии.
Юридические базы данных, такие как LexisNexis и Westlaw, теперь имеют интеграцию с ИИ. Для юристов, жонглирующих большим количеством дел, ИИ может показаться невероятно эффектиным помощником.
Большинство юристов не используют ChatGPT для написания своих документов, но все чаще используют его и другие LLM для исследований. Однако многие из этих юристов, как и большая часть общественности, не до конца понимают, что такое LLM и как они работают.
Загрузка предыдущей публикации...
Загрузка следующей публикации...
Загрузка предыдущих новостей...
Загрузка следующих новостей...