ІСТИНА І ТРАДИЦІЇ

Австралійський адвокат вибачився за помилки, допущені штучним інтелектом у справі про вбивство (ВІДЕО)

Велика Епоха
(Youtube/скриншот)

Старший адвокат в Австралії вибачився перед суддею за подання документів у справі про вбивство, які містили фальшиві цитати та неіснуючі судові рішення, згенеровані штучним інтелектом.

Ця помилка у Верховному суді штату Вікторія є черговою в низці казусів, спричинених штучним інтелектом у системах правосуддя по всьому світу.

Адвокат захисту Ріші Натвані, який має престижний юридичний титул королівського радника, взяв на себе «повну відповідальність» за подання невірної інформації в матеріалах у справі підлітка, обвинуваченого у вбивстві, згідно з судовими документами, які Associated Press переглянула в п'ятницю.

«Ми глибоко шкодуємо і нам соромно за те, що сталося», — сказав Натвані судді Джеймсу Елліотту в середу від імені команди захисту.

Помилки, спричинені штучним інтелектом, призвели до 24-годинної затримки у вирішенні справи, яку Елліот сподівався завершити в середу. У четвер Елліот ухвалив рішення, що клієнт Натвані, якого не можна ідентифікувати, оскільки він є неповнолітнім, не винен у вбивстві через психічні розлади.

Сфальсифіковані матеріали містили вигадані цитати з промови перед законодавчим органом штату та неіснуючі посилання на справи, нібито з Верховного суду.

Помилки були виявлені співробітниками Елліотта, які не змогли знайти ці справи та попросили адвокатів захисту надати копії.

Адвокати визнали, що цитати «не існують» і що подання містило «вигадані цитати», йдеться в судових документах.

Адвокати пояснили, що перевірили точність початкових цитат і помилково припустили, що інші також будуть правильними.

Подання теж були надіслані прокурору Даніелю Порседду, який не перевірив їх точність.

Суддя зазначив, що Верховний суд минулого року опублікував рекомендації щодо використання адвокатами штучного інтелекту.

«Неприпустимо використовувати штучний інтелект, якщо результат такого використання не перевірено незалежно та ретельно», — сказав Елліотт.

У судових документах не вказано, яку систему генеративного штучного інтелекту використовували адвокати.

У подібній справі в США у 2023 році федеральний суддя наклав штраф у розмірі 5000 доларів на двох адвокатів та юридичну фірму після того, як ChatGPT звинуватили у поданні вигаданих юридичних досліджень у справі про авіаційну травму.

Суддя П. Кевін Кастель заявив, що вони діяли недобросовісно. Однак він взяв до уваги їхні вибачення та вжиті заходи для виправлення ситуації.

Пізніше того ж року в юридичних документах, поданих адвокатами Майкла Коена, колишнього особистого адвоката президента США Дональда Трампа, було наведено більше вигаданих судових рішень, створених штучним інтелектом. Коен взяв на себе провину, сказавши, що не усвідомлював, що інструмент Google, який він використовував для юридичних досліджень, також здатний на так звані галюцинації ШІ.

Суддя Вищого суду Великої Британії Вікторія Шарп попередила в червні, що надання фальшивих матеріалів, як справжніх, може вважатися неповагою до суду або, в «найбільш тяжких випадках», перешкоджанням правосуддю, що карається максимальним покаранням у вигляді довічного ув'язнення.