ChatGPT 8 місяців тому заблокував акаунт стрільця, але не повідомив поліцію, згодом він вбив 8 людей, Altman вибачився

Канада, провінція Британська Колумбія, Тумблер Рідж, у цьому році у лютому стала свідком стрілянини, яка забрала життя 8 людей, а потім було розкрито, що OpenAI ще за 8 місяців до події заблокувала акаунт стрільця Rootselaar через «ситуації, пов’язані з насильством із застосуванням зброї», але через «відсутність негайної загрози» не повідомила поліцію. Генеральний директор OpenAI Сам Альтман вибачився у листі минулого тижня.
(Передісторія: судовий процес проти OpenAI за позовом Маска: вимога скасувати перехід у комерційну компанію, відсторонити Альтмана, вимога компенсації у 134 мільярди доларів)
(Додатковий контекст: OpenAI оприлюднила п’ять основних конституцій AGI: Штучний інтелект не може бути монополізований кількома особами, жертви можуть бути виправдані для досягнення більшої стійкості)

Зміст статті

Перемикач

  • 8 місяців мовчання
  • Хто встановлює поріг для повідомлення?
  • Зміни та незмінності

10 лютого 2026 року у віддаленому містечку Тумблер Рідж, провінція Британська Колумбія, сталася стрілянина. 18-річний Джессі Ван Рутселар спочатку вбив матір і 11-річного брата у себе вдома, а потім пішов до місцевої середньої школи, внаслідок чого загинуло 8 осіб, і він сам покінчив із життям.

Після розслідування було розкрито: ще за 8 місяців до події OpenAI заблокувала акаунт Ван Рутселара через те, що він у діалогах «описував ситуації, пов’язані з насильством із застосуванням зброї», але не повідомила поліцію.

8 місяців мовчання

У червні 2025 року автоматична система виявлення зловживань ChatGPT і людські модератори разом позначили акаунт Ван Рутселара, і він був заблокований. За словами OpenAI, тоді також обговорювалося внутрішнє рішення щодо повідомлення поліції.

Результатом обговорення стало: не повідомляти.

OpenAI заявила, що рішення модераторів базувалося на тому, що поведінка акаунта «не досягала порогу для створення негайної та достовірної загрози серйозних тілесних ушкоджень іншим», тому не було активовано процес повідомлення правоохоронних органів. Після блокування ця справа залишилася всередині компанії. Акаунт був закритий, але сигнал не був переданий.

Лише після стрілянини у лютому 2026 року OpenAI самостійно зв’язалася з канадськими органами.

Хто встановлює поріг для повідомлення?

«Негайна та достовірна загроза» — це внутрішній стандарт OpenAI, який визначають команда безпеки, юридичний відділ і політична команда компанії. Вони вирішують, у яких випадках потрібно повідомляти поліцію. Цей стандарт не підлягає зовнішньому контролю і не має публічно оприлюднених методик його налаштування.

Акаунт Ван Рутселара відповідав стандарту «потрібно заблокувати», але не відповідав стандарту «потрібно повідомити», і ці дві межі у внутрішній логіці OpenAI розділені.

23 квітня Сам Альтман написав вибачливого листа, який вперше опублікувала місцева газета Тумблер Рідж TumblerRidgeLines. У листі він написав:

Страждання вашої спільноти важко уявити.

Останні кілька місяців я думав про вас. Щиро вибачаюся за те, що не повідомили правоохоронні органи у червні, коли акаунт був заблокований.

Перед публікацією листа Альтман особисто спілкувався з мером Тумблер Рідж Даррелом Краковкою та губернатором Британської Колумбії Девідом Ебі. Ебі 24 квітня поширив цей лист у соцмережах і додав коментар: «Вибачення — це необхідно, але для сімей у Тумблер Рідж цього недостатньо.»

Зміни та незмінності

OpenAI оголосила, що посилить стандарти для повідомлення правоохоронним органам, щоб більше ситуацій акаунтів активували процес повідомлення. Міністр штату Канади з питань штучного інтелекту Еван Соломон заявив, що Альтман погодився налагодити прямий контакт із Королівською канадською поліцією (RCMP) і додати механізм, який направлятиме користувачів із ознаками кризи до місцевих служб підтримки.

Канада наразі оцінює необхідність додаткового законодавчого регулювання обов’язків платформ ШІ щодо повідомлень.

Але парадокс у тому, що багато хто може сказати щось під впливом емоцій (ти ж, мабуть, теж колись говорив щось на кшталт «хочу померти» для зняття напруги?), і через це їх можуть повідомити, а потім люди почнуть боятися відкриватися ШІ (можливо, і не так погано?).

Зараз ця проблема не стосується технічних можливостей OpenAI. ChatGPT виявив проблему, людські модератори її побачили, але питання у тому, хто визначає цю межу? Хто її пояснює? Як знайти баланс?

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити