Старший адвокат в Австралии принес извинения судье за представление документов по делу об убийстве, содержащих фальшивые цитаты и несуществующие судебные решения, сгенерированные искусственным интеллектом.
Эта ошибка в Верховном суде штата Виктория является очередной в ряде казусов, вызванных искусственным интеллектом в системах правосудия по всему миру.
Адвокат защиты Риши Натвани, обладающий престижным юридическим титулом королевского советника, взял на себя «полную ответственность» за предоставление неверной информации в материалах по делу подростка, обвиняемого в убийстве, согласно судебным документам, которые Associated Press просмотрела в пятницу.
«Мы глубоко сожалеем и нам стыдно за то, что произошло», — сказал Натвани судьи Джеймсу Эллиотту в среду от имени команды защиты.
Ошибки, вызванные искусственным интеллектом, привели к 24-часовой задержке в решении дела, которое Эллиот надеялся завершить в среду. В четверг Эллиот принял решение, что клиент Натвани, которого нельзя идентифицировать, поскольку он несовершеннолетний, не виновен в убийстве из-за психических расстройств.
Сфальсифицированные материалы содержали вымышленные цитаты из выступления перед законодательным органом штата и несуществующие ссылки на дела, якобы из Верховного суда.
Ошибки обнаружены сотрудниками Эллиотта, которые не смогли найти эти дела и попросили адвокатов защиты предоставить копии.
Адвокаты признали, что цитаты «не существуют» и что представление содержало «вымышленные цитаты», говорится в судебных документах.
Адвокаты объяснили, что проверили точность начальных цитат и ошибочно предположили, что другие тоже будут правильными.
Представления тоже были отправлены прокурору Даниелю Порседду, не проверившему их точность.
Судья отметил, что Верховный суд в прошлом году опубликовал рекомендации по использованию адвокатами искусственного интеллекта.
«Недопустимо использовать искусственный интеллект, если результат такого использования не проверен независимо и тщательно», — сказал Эллиотт.
В судебных документах не указано, какую систему генеративного искусственного интеллекта использовали адвокаты.
В подобном деле в США в 2023 году федеральный судья наложил штраф в размере 5000 долларов на двоих адвокатов и юридическую фирму после того, как ChatGPT обвинили в представлении вымышленных юридических исследований по делу об авиационной травме.
Судья П. Кевин Кастель заявил, что они действовали недобросовестно. Однако он принял во внимание их извинения и принятые меры по исправлению ситуации.
Позже в том же году в юридических документах, представленных адвокатами Майкла Коэна, бывшего личного адвоката президента США Дональда Трампа, было приведено больше вымышленных судебных решений, созданных искусственным интеллектом. Коэн взял на себя вину, сказав, что не отдавал себе отчета, что инструмент Google, который он использовал для юридических исследований, также способен на так называемые галлюцинации ИИ.
Судья Высшего суда Великобритании Виктория Шарп предупредила в июне, что предоставление фальшивых материалов, как настоящих, может считаться неуважением к суду или, в «наиболее тяжких случаях», препятствием правосудию, которое карается максимальным наказанием в виде пожизненного заключения.