Топ-юридична фірма визнає «галюцинації» ШІ у поданні про банкрутство, пов’язаному з ймовірною шахрайською мережею

Коротко

  • Юридична фірма Sullivan & Cromwell визнала, що нещодавня подача у високопрофільній справі містила «галюцинації» штучного інтелекту.
  • У фірмі заявили, що вихідні дані AI не були належним чином перевірені і містили сфабриковані посилання.
  • Справа стосується зусиль судових ліквідаторів, призначених судом, щодо пред’явлення позовів, пов’язаних із санкціонованою компанією Prince Group.

Юридична фірма Sullivan & Cromwell визнала у суді банкрутства США, що нещодавня подача у високопрофільній справі містила помилки, згенеровані штучним інтелектом, включаючи сфабриковані посилання. «Ми глибоко шкодуємо, що це сталося», — написав керівник з реструктуризації фірми Ендрю Дітдеріч судді Мартіну Гленну, зазначивши, що документ містив «галюцинації» AI, які створювали вигадані авторитети та спотворювали існуючі. Це розкриття було зроблено у листі до суду банкрутства США Південного округу Нью-Йорка, де фірма представляє судових ліквідаторів, призначених у Британських Віргінських островах. Помилки з’явилися у позові від 9 квітня, і фірма заявила, що під час підготовки не дотримувалися правил щодо використання AI.

Справа стосується зусиль цих ліквідаторів щодо пред’явлення позовів, пов’язаних із Prince Group та її власником Чен Чжі. Прокурори стверджують, що Чен керував шахрайськими схемами, спрямованими на жертв по всьому світу, і намагалися повернути мільярди доларів у криптовалюті, які, за їхніми словами, пов’язані з цією діяльністю. Його затримали раніше цього року в Камбоджі, а згодом повернули до Китаю. Через процедури за главою 15 у США, ліквідатори прагнуть визнання своєї влади діяти від імені кредиторів та ймовірних жертв. Prince Group, зареєстрована у Британських Віргінських островах, була пов’язана американськими органами з масштабними шахрайськими операціями у Південно-Східній Азії та під санкціями Великої Британії та США. Згідно з виправленою подачею, подання від 9 квітня неправильно цитувало судову практику у кількох місцях і містило посилання, які не підтверджували висловлювання, що їм приписували, а деякі з них взагалі не мали підстав. Фірма відкликала оригінальний позов і подала оновлену версію. Адвокати Prince Group і Чена з Boies Schiller Flexner спочатку виявили помилки. Вони заявили, що мовлення, приписане до Кримінального кодексу США, не можна знайти, а кілька авторитетів були неправильно охарактеризовані або неправильно ідентифіковані. В одному випадку, за їхніми словами, цитований випадок стосувався іншого рішення в іншому окрузі.

 У окремій подачі відповідачі заявили, що щонайменше 28 посилань були помилковими, включаючи цитати, приписані суду, яких не існує. Вони стверджували, що час виправлення був упередженим, оскільки оновлений документ з’явився після того, як вони подали заперечення, і попросили суд відкласти заплановане слухання і провести статусну конференцію. Sullivan & Cromwell заявила, що її політика вимагає від юристів проходження навчання перед використанням інструментів AI і незалежної перевірки всіх результатів. «Перед тим, як будь-який юрист фірми отримає доступ до генеративних інструментів AI, він повинен пройти два обов’язкові модулі навчання, завершення яких відстежується і перевіряється. Навчання постійно наголошує на ризиках AI «галюцинацій», включаючи сфабриковані посилання на справи, неправильне тлумачення авторитетів і неточні цитати», — йдеться у заяві. «Він навчає юристів «нічого не довіряти і все перевіряти» і чітко зазначає, що невиконання незалежної перевірки AI-генерованих результатів є порушенням політики фірми.» Фірма заявила, що більш широкий огляд виявив додаткові дрібні проблеми з підготовкою інших подань, які вона пов’язала з людською помилкою, а не з AI. Вона не назвала юристів, які готували оригінальний позов. AI у суді Інцидент додає до зростаючого списку помилок, пов’язаних із AI, у юридичній практиці, оскільки фірми тестують інструменти, спрямовані на прискорення досліджень і підготовки документів. Останнім часом суди санкціонували або критикували юристів за подання документів із сфабрикованими або неточними посиланнями, створеними AI. В Австралії одного юриста позбавили можливості працювати як головного юриста через використання AI минулого року. Юридичні школи починають вимагати навчання з цієї технології, а старші судді попереджають, що неправильне використання може вплинути на цілісність процесу.

Останні рішення також розглядали, як AI вписується у існуючі правові рамки, зокрема, чи захищені взаємодії з такими інструментами привілеєм. Водночас деякі суди тестують системи AI для допомоги у керуванні великими навантаженнями справ.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити