Щойно я помітив, що як Anthropic, так і OpenAI досить суттєво змінили свої обіцянки щодо безпеки. У Anthropic було просто опущено ключову обіцянку з політики відповідального зростання — конкретно: обіцянку призупинити тренування ШІ, якщо заходи з зменшення ризиків недостатні. Джаред Каплан, головний науковий директор Anthropic, пояснює це реальністю висококонкурентного ринку. Одностороння пауза під тиском конкуренції просто непрактична.



Аналогічно з OpenAI: місія була переформульована, і слово «безпечний» було опущено. Замість цього тепер акцент робиться на тому, що ШІ має приносити користь людству. Це, звичайно, відповідає очікуванням інвесторів і політиків, але також показує, наскільки прагматично ці компанії тепер мислять.

Це цікаво з точки зору часу: Anthropic зараз завершує раунд фінансування на 30 мільярдів доларів і оцінюється в 380 мільярдів. OpenAI прагне до 100 мільярдів із підтримкою Amazon, Microsoft і Nvidia. Це ясно показує, чому такі формулювання щодо безпеки опускаються — тиск дуже великий.

Ще один момент: Anthropic відмовив Pentagon у повному доступі до Claude, що спричинило напруженість із міністром оборони США Пітом Хегсетом. Це піднімає питання щодо оборонних контрактів і показує, що питання безпеки та геополітична реальність іноді суперечать одне одному. Цікаво спостерігати, як ця галузь зараз переосмислює себе.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити