Адвокати попереджають, що чати з штучним інтелектом можуть бути використані в суді після нового рішення щодо привілеїв у Нью-Йорку

robot
Генерація анотацій у процесі

  • Більше ніж з десяток провідних юридичних фірм США попередили клієнтів, що розмови з чат-ботами на базі ШІ можуть бути доступні в суді.
  • Попередження з’явилися після рішення суду у Нью-Йорку, що чати обвинуваченого у шахрайстві з Anthropic’s Claude не захищені привілеєм адвокатської таємниці або доктриною робочого продукту.

Юридичні фірми США швидко попереджають клієнтів, що розмови з чат-ботами на базі ШІ можуть стати публічними, коли справа доходить до суду. Терміновість зумовлена рішенням судді Джеда Ракофа у Нью-Йорку, який постановив, що Брэдлі Хепнер, колишній голова банкрутської фінансової компанії GWG Holdings, має передати федеральним прокурорам 31 документ, створений за допомогою Anthropic’s Claude, у рамках розслідування щодо цінних паперів та провокаційних шахрайств. Ракоф встановив, що між користувачем і Claude не існує адвокатсько-клієнтських відносин, і будь-яка конфіденційність була скасована через обмін інформацією з платформою. Юридичні фірми починають включати попередження у договори з клієнтами Reuters повідомляє, що понад десяток великих американських фірм вже випустили рекомендації, радячи клієнтам бути обережними з юридичними обговореннями, що стосуються чат-ботів, таких як Claude і ChatGPT. Деякі фірми пішли далі і закріпили ці попередження безпосередньо у угодах про співпрацю. Наприклад, нью-йоркська фірма Sher Tremonte зазначила у недавньому договорі з клієнтом, що розкриття привілейованих комунікацій третій стороні у вигляді платформи ШІ може позбавити привілею адвокатської таємниці. Це суттєвий зсув. Те, що кілька місяців тому було переважно внутрішнім застереженням юристів, тепер оформлюється у клієнтській документації. Одне рішення, але ширший юридичний сигнал Рішення Ракофа не є єдиним судовим поглядом на цю проблему. У той самий день суддя-магістрат у Мічигані постановив, що розмови позивача, який представляє себе сам, у ChatGPT можуть розглядатися як особистий робочий продукт і не підлягають обов’язковому наданню. Однак, юридичні радники поки що вважають, що випадок у Нью-Йорку є більш важливим попереджувальним сигналом. Глибша проблема полягає не так у ШІ, як у конфіденційності. Як зазначає Reuters, Anthropic та OpenAI у своїх умовах вказують, що дані користувачів можуть бути передані третім сторонам, включаючи урядові органи, у деяких випадках. Для юристів це робить старе правило особливо актуальним: не обговорюйте свою справу з кимось, крім вашого адвоката, а тепер це включає і чат-бота.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити