Рішення зобов’язує OpenAI надати 20 мільйонів чат-логів після місяців суперечок щодо приватності, збереження та обсягу.
Суддя Она Т. Ванг постановила, що вибірка є “пропорційною” до потреб справи, щоб з’ясувати, чи відтворювали відповіді ChatGPT контент Times.
Ця справа приєднується до зростаючої хвилі позовів щодо авторського права, спрямованих на те, як AI-лабораторії отримують і використовують навчальні дані.
Арт, мода та розваги від Decrypt.
Відкрийте SCENE
Федеральний суддя ухвалив, що OpenAI має передати орієнтовно 20 мільйонів деідентифікованих логів ChatGPT The New York Times та іншим позивачам, що ще більше піддає компанію з розробки ШІ ризикам у справах про авторське право та управління даними.
Наказ, виданий у середу в Нью-Йорку, відхиляє клопотання OpenAI про блокування передачі чат-логів користувачів і зобов’язує компанію передати ці логи в межах захисної процедури.
Результат цієї справи може вплинути на те, як технологічні компанії на зразок OpenAI, Anthropic і Perplexity добувають навчальні дані, ліцензують контент та встановлюють обмеження на те, що їхні системи можуть видавати.
Хоча суд “визнає, що питання приватності користувачів OpenAI є щирими”, ці міркування “є лише одним із факторів у аналізі пропорційності і не можуть переважати у випадку очевидної релевантності та мінімального навантаження”, написала суддя США Она Т. Ванг.
Decrypt звернувся за коментарями до обох сторін.
Наказ випливає з поточного позову Times, у якому стверджується, що моделі OpenAI тренувалися на захищеному авторським правом новинному контенті без дозволу. Позов було подано у грудні 2023 року.
У січні минулого року OpenAI оскаржила вимоги NYT і подала зустрічний позов, стверджуючи, що видання “не розповідає всієї історії”.
Пізніше суд визнав, що вибірка з 20 мільйонів чат-логів є “пропорційною до потреб справи”, щоб оцінити, чи копіювали відповіді ChatGPT матеріали NYT.
Протягом останнього року суперечка загострилася: позивачі наполягали на широкому доступі до даних, а OpenAI попереджала, що масове розкриття цих матеріалів створить проблеми з приватністю та операційні труднощі.
У червні OpenAI зазнала ще однієї невдачі, коли суд зобов’язав компанію зберігати широкий спектр даних користувачів ChatGPT для цієї справи, включаючи чати, які користувачі могли вже видалити.
Через кілька місяців, у жовтні, суперечка спалахнула знову: суд звернув увагу на подання OpenAI від 20 жовтня (ECF 679), яке оскаржувало надання вибірки з 20 мільйонів логів, і зобов’язав обидві сторони подати пояснення щодо причин їхньої незгоди.
Тоді суддя попросила сторони пояснити, як ця суперечка пов’язана з попередніми питаннями щодо видалених логів та чи відмовилась OpenAI від попередніх домовленостей про те, що компанія зобов’язувалася надати.
Наприкінці минулого місяця OpenAI офіційно оскаржила це рішення і попросила окружного суддю скасувати ухвалу судді з питань відкриття доказів.
Компанія стверджувала, що рішення є “очевидно помилковим” і “непропорційним”, оскільки воно змусить компанію розкрити мільйони приватних розмов користувачів, згідно з судовим документом, яким з Decrypt поділився представник OpenAI.
Ця суперечка виникає в межах ширшого наступу на AI-лабораторії: автори, новинні організації, музичні видавництва та репозиторії коду намагаються з’ясувати, наскільки далеко поширюється чинне законодавство про авторське право, коли моделі поглинають і відтворюють захищені матеріали.
Суди по всій США та Європі зараз розглядають подібні позови.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
OpenAI зобов'язали передати 20 млн журналів ChatGPT у справі NYT про авторське право
Коротко
Арт, мода та розваги від Decrypt.
Відкрийте SCENE
Федеральний суддя ухвалив, що OpenAI має передати орієнтовно 20 мільйонів деідентифікованих логів ChatGPT The New York Times та іншим позивачам, що ще більше піддає компанію з розробки ШІ ризикам у справах про авторське право та управління даними.
Наказ, виданий у середу в Нью-Йорку, відхиляє клопотання OpenAI про блокування передачі чат-логів користувачів і зобов’язує компанію передати ці логи в межах захисної процедури.
Результат цієї справи може вплинути на те, як технологічні компанії на зразок OpenAI, Anthropic і Perplexity добувають навчальні дані, ліцензують контент та встановлюють обмеження на те, що їхні системи можуть видавати.
Хоча суд “визнає, що питання приватності користувачів OpenAI є щирими”, ці міркування “є лише одним із факторів у аналізі пропорційності і не можуть переважати у випадку очевидної релевантності та мінімального навантаження”, написала суддя США Она Т. Ванг.
Decrypt звернувся за коментарями до обох сторін.
Наказ випливає з поточного позову Times, у якому стверджується, що моделі OpenAI тренувалися на захищеному авторським правом новинному контенті без дозволу. Позов було подано у грудні 2023 року.
У січні минулого року OpenAI оскаржила вимоги NYT і подала зустрічний позов, стверджуючи, що видання “не розповідає всієї історії”.
Пізніше суд визнав, що вибірка з 20 мільйонів чат-логів є “пропорційною до потреб справи”, щоб оцінити, чи копіювали відповіді ChatGPT матеріали NYT.
Протягом останнього року суперечка загострилася: позивачі наполягали на широкому доступі до даних, а OpenAI попереджала, що масове розкриття цих матеріалів створить проблеми з приватністю та операційні труднощі.
У червні OpenAI зазнала ще однієї невдачі, коли суд зобов’язав компанію зберігати широкий спектр даних користувачів ChatGPT для цієї справи, включаючи чати, які користувачі могли вже видалити.
Через кілька місяців, у жовтні, суперечка спалахнула знову: суд звернув увагу на подання OpenAI від 20 жовтня (ECF 679), яке оскаржувало надання вибірки з 20 мільйонів логів, і зобов’язав обидві сторони подати пояснення щодо причин їхньої незгоди.
Тоді суддя попросила сторони пояснити, як ця суперечка пов’язана з попередніми питаннями щодо видалених логів та чи відмовилась OpenAI від попередніх домовленостей про те, що компанія зобов’язувалася надати.
Наприкінці минулого місяця OpenAI офіційно оскаржила це рішення і попросила окружного суддю скасувати ухвалу судді з питань відкриття доказів.
Компанія стверджувала, що рішення є “очевидно помилковим” і “непропорційним”, оскільки воно змусить компанію розкрити мільйони приватних розмов користувачів, згідно з судовим документом, яким з Decrypt поділився представник OpenAI.
Ця суперечка виникає в межах ширшого наступу на AI-лабораторії: автори, новинні організації, музичні видавництва та репозиторії коду намагаються з’ясувати, наскільки далеко поширюється чинне законодавство про авторське право, коли моделі поглинають і відтворюють захищені матеріали.
Суди по всій США та Європі зараз розглядають подібні позови.