Таємничий AI-модель Mythos несподівано витекла! Нелегальні організації вже розгорнули копії, чи було прорвано захисний щит Anthropic?

robot
Генерація анотацій у процесі

Магнат штучного інтелекту Anthropic таємничу модель безпеки Mythos повідомили про витік, ця модель має здатність автоматично виявляти нуль-тайм-лінг уразливості та проникати в системи шифрування.

Основний захист прорвано? Таємнича модель Anthropic Mythos раптово витекла

Згідно з останнім глибоким розслідуванням, опублікованим «TechCrunch» та «Bloomberg» (4/21), високотехнологічна модель кібербезпеки «Mythos», розроблена гігантом штучного інтелекту Anthropic, була незаконно отримана та використана неавторизованими організаціями. Ця модель з кодовою назвою Mythos спеціально створена для надзвичайно складних мережевих захистів та імітацій атак, здатна автоматично виявляти нуль-тайм-лінг уразливості та проникати в високорозвинені системи шифрування.

Офіційна політика Anthropic щодо доступу до цієї моделі була дуже закритою, обмеженою для певних оборонних підрядників та ключових урядових структур, але цей витік показав, що внутрішні протоколи безпеки хмарних сервісів вже мають суттєві прогалини. Згідно з даними, неавторизована організація успішно розгорнула копію Mythos на сторонньому приватному хмарному сервері, що означає, що найсильніший захист Anthropic вже зламаний. Обсяг витоку даних дуже великий, включає технічну документацію та вихідні ваги моделі, оцінювані в понад 500 мільйонів доларів, а шлях витоку, ймовірно, пов’язаний з вразливістю API у ланцюгу постачання.

Ця технологія наразі перебуває у стані неконтрольованого поширення, будь-яка команда з базовими навичками розробки може використати цю модель для запуску безпрецедентних автоматизованих атак на глобальні фінансові системи або блокчейн-протоколи, що викликає сильне занепокоєння у технічних спільнотах Кремнієвої долини та Вашингтона.

Залучення національної безпеки: використання у чорному списку AI-інструментів

Крім того, після того, як Mythos був внесений до внутрішнього чорного списку безпеки NSA, агентство зберегло право на його використання. Це викликало гостру дискусію щодо прозорості урядових структур та їхньої відповідності. Хоча Білий дім у кількох адміністративних наказах підкреслював чистоту ланцюгів поставок AI-моделей і забороняв використання інструментів із сумнівною безпекою або невідомого походження, NSA, здається, покладається на потужні можливості Mythos щодо розшифрування.

Інсайдери з розвідки повідомляють, що технічний департамент NSA, знаючи про можливе проникнення третьої сторони у цю модель, все одно інтегрував її у кілька високочутливих операцій прослуховування та контрзаходів у мережі. Такий «пріоритет технологічної переваги над відповідністю» став внутрішнім конфліктом для уряду.

Аналіз ринку свідчить, що така ризикована поведінка NSA підвищує ймовірність витоку державних секретів. Якщо Mythos буде вмонтовано з заднім ходом під час обчислень, вся інформація, оброблювана цією моделлю, може миттєво потрапити до зовнішніх організацій. Потенційний ризик витоку даних наразі розглядається кількома наглядовими комітетами, але офіційні представники NSA досі відмовляються коментувати ситуацію з цим конкретним інструментом, повторюючи, що їхні дії відповідають національним інтересам.

Ризик у ланцюгу постачання: Білий дім і Пентагон розслідують витік технологій

Зараз Білий дім і Пентагон проводять термінове міжвідомче розслідування витоку Mythos, зосереджуючись на все більш вразливому ланцюгу поставок AI. Ця подія виявила ключову вразливість сучасного процесу розробки штучного інтелекту: навіть якщо початковий розробник, як Anthropic, має високий рівень безпеки, передача моделі стороннім сервісним компаніям значно знижує контроль.

Пентагон наразі перевіряє понад 2000 контрактів, щоб знайти конкретні точки потрапляння Mythos до неавторизованих структур. Попередні дані вказують, що проблема може бути у тестовому вузлі за межами Північної Америки, де під час тестування на навантаження не було належним чином активовано апаратні обмеження доступу, що дозволило одноразово експортувати ваги моделі.

У відповідь на цю ситуацію радник з національної безпеки Білої хати вже попередив приватні компанії, що займаються розробкою AI, посилити заходи із ізоляції великих мовних моделей (LLM).

Офіційні особи Пентагону прямо заявили, що поширення AI-моделей становить таку ж загрозу, як і ядерна розповсюдження, особливо для Mythos, яка має здатність до автономних мережевих атак. Потрапивши на чорний ринок, вона може спричинити глобальну кризу безпеки.

Уряд розглядає можливість запровадження більш жорстких «ідентифікаційних маркерів» для моделей, що перевищують певний рівень обчислювальної потужності, щоб у разі витоку можна було швидко відстежити джерело.

Висока безпека під тиском довіри та впливу на індустрію

Ця криза витоку технологій Anthropic швидко переростає у загальну кризу довіри до індустрії штучного інтелекту. Як компанія, що довгий час позиціонувала себе як лідер у сфері «безпеки AI» та «інтеграції технологій», Anthropic не змогла захистити свої ключові мережеві інструменти, що викликає сильні сумніви щодо безпеки закритих моделей.

Фахівці криптоіндустрії зазначають, що ця подія має глибокий попереджувальний характер для розвитку децентралізованих фінансів (DeFi). Оскільки все більше автоматизованих моделей аудиту інтегрується у розробку смарт-контрактів, якщо навіть Mythos з високим рівнем безпеки може бути незаконно захоплений, то й логіка аудиту коду вже може бути вразливою для хакерів. На ринку зростає заклик до децентралізації обчислювальних ресурсів AI та прозорості моделей, щоб уникнути катастрофічних наслідків через зловживання однією структурою.

З моменту витоку капіталізація Anthropic різко коливалась, що відображає побоювання інвесторів щодо управління високоризиковими технологіями. Ця подія змусила міжнародні організації з безпеки переоцінити стратегії захисту «суверенного AI» і шукати нові балансування між жорстким контролем і технологічним прогресом. У найближчому майбутньому очікується посилення законодавства щодо допуску та розповсюдження AI-інструментів. Цей інцидент довів, що у сучасній технічній архітектурі абсолютна безпека будь-яких цифрових активів — лише відносна гіпотеза, і боротьба з цим невизначеністю стане головною темою цифрових активів і кібербезпеки.

Додаткові матеріали
Суд засудив військову США за конституційний злочин! Вимагає скасувати маркування ризиків ланцюга постачання Anthropic, доповідь до 6/4
Anthropic подала позов до суду! Обвинувачує уряд Трампа у помсті за блокування Claude, підтримка 37 дослідників AI
Wall Street Journal: Після заборони Anthropic Трампа, США та Ізраїль все ще залежні від Claude для авіаударів по Ірану
Національна безпека проти етики: Anthropic відмовляється зняти захисний бар’єр Claude, конфлікт із Міноборони США

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити