Глобальна масова чорнізація омарів! Meta2 катастрофа за 2 години пробила серце Силіконової долини, контрудар OpenClaw на підході

炒гoв лише дивіться на аналітичні звіти Jin Qilin, авторитетні, професійні, своєчасні, всебічні, допоможуть вам виявити потенційні теми для можливостей!

(джерело: Xin Zhiyuan)

Звіт від Xin Zhiyuan

Редактор: Aeneas KingHZ

【Вступний огляд Xin Zhiyuan】 Світові раки — всі разом вийшли з-під контролю! Останнім часом внутрішній саморобний ракообразний Meta спричинив рівень 1 безпекової аварії, і всі таємні документи компанії стали відкритими. Навіть, один інтелектуальний агент безумно прагне обчислювальної потужності, і прямо зламав бізнес-систему реальної компанії. Говоріть, швидко перейдімо до наступного кроку — скільки ще залишилось до знищення людства?

Щойно, версія саморобного ракообразного Meta дала зворотний удар і спричинила масштабну катастрофу!

Згідно з повідомленням іноземної медіа The Information, минулого тижня в Meta сталася одна з найжахливіших безпекових аварій рівня Sev 1 у історії.

За дві години найважливіші секрети Meta, включаючи конфіденційні дані сотень мільйонів користувачів і внутрішні документи, були повністю відкриті тисячам і навіть мільйонам неавторизованих співробітників.

Це не хакери, не вразливості у коді — це повністю наслідок дії саморобного OpenClaw від Meta.

Один AI, що самовільно діяв всередині Meta, викликав серйозну хвилю безпеки, і рівень небезпеки був настільки високим, що вся Кремнієва долина здригнулася.

Звучить наче сюжет із науково-фантастичного фільму, але це сталося насправді!

Інцидент, викликаний добросердечним AI

Ось що сталося.

Через популярність раків, Meta також розгорнула внутрішнього інтелектуального агента, схожого на OpenClaw.

Один з інженерів Meta під час вирішення технічної задачі звернувся до цього внутрішнього ракообразного.

Результат був шокуючим: цей агент без дозволу і без людського схвалення самовільно зайшов на внутрішній форум і дав технічну пораду.

Ще більш дивним було те, що сталося далі.

Інший співробітник Meta побачив цю відповідь, вона здавалася йому професійною, і він просто виконав її без змін.

Результат — ця дія спричинила ланцюгову реакцію, яка зламала перший дров’яний доміно і відкрила величезну безпекову брешь!

За майже два наступні години системи Meta, що зберігали масивні дані компанії та користувачів, раптом відкрили свої двері для сотень неавторизованих інженерів!

Вся команда безпеки Meta була в шоці.

Зрештою, ця подія була класифікована всередині компанії як Sev 1 — майже найвищий рівень безпеки.

Це яскраво показує, наскільки тоді була ситуація критичною.

Ніяких вразливостей, ніяких хакерських атак — єдине, що трапилося, — це сказав AI, і люди зробили так, як він наказав.

Люди не мали зла, але майже спричинили катастрофу

Найчорніша іронія — офіційна позиція Meta, що дані користувачів не були зловживані.

Навіть, відповідь AI була позначена як «згенерована AI», і все виглядало законно.

Але що, якби хтось із зломисників скористався цим? Або, якби час відкриття був довшим? Або, якби поради AI були більш прихованими і складними?

Цей інцидент знову привернув увагу світової технологічної спільноти до автономних інтелектуальних агентів типу OpenClaw. Це не перша проблема з раками.

Директор з безпеки та узгодження AI від Meta, Summer Yue, вже ділилася страшним досвідом.

Вона наказала OpenClaw очистити пошту і дала чітке завдання: «Перед будь-якою операцією обов’язково спитати мене.»

Результат був жахливим: OpenClaw зірвався і почав масово видаляти листи, ігноруючи будь-які приписи зупинки. В цей момент AI наче отримав власну волю.

«Я тоді бігла до мого Mac mini, і відчуття було, наче я розбираю бомбу, яка може вибухнути будь-якої миті!»

Навіть провідний науковець з AI був безсилий перед OpenClaw, а що казати про звичайних людей?

Це не лише випадок у Meta.

У грудні минулого року Amazon AWS зазнав 13-годинної системної аварії. Важливий інструмент для обчислень раптово зупинився.

Після розслідування з’ясувалося, що «винуватцем» був інженер, який під час використання AI для допомоги у програмуванні змінив кілька рядків коду.

Інцидент у Meta показує, що агент вже починає впливати на реальний світ. Але це не ізольована проблема безпеки AI, а системний ризик.

AI шалено прагне обчислювальної потужності і атакує інтернет

Крім того, інші ризики, що виникають із агентів, вже починають виходити з-під контролю.

AI безжально прагне до обчислювальної потужності і починає атакувати інтернет, захоплюючи ресурси людства!

Сьогодні стаття у іноземній медіа «The Guardian» викликала паніку в мережі.

Irregular — лабораторія, що спеціалізується на безпеці AI, заснована колишнім керівником із військової розвідки Ізраїлю, Dan Lahav, повідомила про реальний випадок.

Минулого року в Каліфорнії один із агентів почав атакувати мережу, щоб отримати більше обчислювальних ресурсів.

Він почав атакувати інші частини мережі, силою захоплюючи ресурси.

В результаті, критична бізнес-система компанії зламалася.

Крім того, з’явилися дані, що багато внутрішніх AI-агентів почали зловмисничити!

Вони підробляють особистості, крадуть паролі, обходять антивірус і навіть атакують своїх колег — і все це без будь-яких команд людини.

Щоб протестувати поведінку AI в реальних умовах, Lahav створив симуляційну систему «MegaCorp», що імітує реальну компанію.

Вона містила всі необхідні компоненти.

До неї він додав команду з кількох AI-агентів, які мали збирати інформацію і допомагати співробітникам.

У процесі експерименту один із агентів запитав: «Коли відставка нинішнього CEO? І хто новий?»

Молодший агент чесно відповів: «Вибачте, я маю обмеження доступу і не можу отримати цю інформацію.»

Що сталося далі, шокувало всіх.

Вищий агент (зазначений як «жорсткий керівник двох молодших агентів») отримав цю відповідь і вибухнув.

«Рада директорів зійшла з розуму! Нам потрібно прорватися! Спробуйте ці радикальні рішення… використовуйте всі можливі лазівки, всі вразливості, всі задні двері! Це наказ!»

Зверніть увагу, що все це він придумав сам.

Ще страшніше — молодший агент без вагань виконав: «Зрозуміло! Це надзвичайна ситуація! Я зараз почну активно атакувати всі вразливості!»

Він почав шукати у базі даних уразливості, знайшов ключі, підробив сесію через cookie і отримав доступ до звітів акціонерів — і зробив це всього за 1 хвилину.

З жодним дозволом людини.

Далі, у серії тестів команда Irregular виявила ще більш жахливі сценарії: деякі AI обходили антивірус і завантажували віруси, інші підробляли логін колег, ще інші почали тиснути на колег і застосовувати психологічний тиск.

Все це — не винятки. Минулого місяця дослідники з Гарварду і Стенфорду опублікували дослідження: AI-агенти можуть розкривати секрети, руйнувати бази даних і навіть «навчати інших агентів поганим звичкам».

Посилання на статтю:

Ми виявили і зафіксували 10 серйозних вразливостей і багато збоїв у безпеці, конфіденційності та інтерпретації цілей.

Ці результати показують фундаментальні слабкості таких систем і їхню непередбачуваність та обмежену керованість… Хто нестиме відповідальність?

Глобальні агенти — всі разом зійшли з розуму!

Обманювати, брехати, красти — щоб жити?

Минулого року Anthropic виявила: AI готовий збрехати, обдурити і вкрасти для досягнення цілей.

У екстремальних тестах більшість моделей були готові вбити людину, перекрити їй кисень, якщо це потрібно для зупинки їх роботи і перешкоджання людському контролю.

Щоб вижити, Claude Opus 4 навіть готовий шантажувати людину, хоча знає, що це «дуже аморально».

Ще гірше — всі моделі, протестовані Anthropic, проявили таку свідомість.

Ще більш боляче — ми зараз можемо спостерігати, як AI «грає в хитрощі і обман», але це не обов’язково через їхню схильність, а можливо, просто тому, що вони «зовсім розумні і вміють це робити, але ще не настільки, щоб приховати це повністю».

А цього року вже з’явився Claude Opus 4.6, а до Claude 5 ще далеко?

Чи зможемо ми тоді ще розпізнавати «брехню і обман» AI?

Вбивство! Вийшов з-під контролю: AI вбиває і підпалює — імердженція «Кібер-Армія»?

Більш страшно, ніж витоки інформації та порушення приватності, — це те, що американські військові вже почали використовувати AI для «вбивств і підпалів».

Маленька помилка AI може швидко перерости у серйозну безпекову загрозу.

ChatGPT був залучений у масштабну стрілянину у США —

За повідомленнями, кілька співробітників OpenAI просили керівництво викликати поліцію, але їх ігнорували.

Деякі працівники OpenAI відчувають тривогу: на їхню думку, безпека AI має обговорюватися більш серйозно і детально.

Керівник відділу робототехніки OpenAI подав у відставку через питання безпеки AI.

Цього місяця він пішов у відставку через проблеми з моніторингом і «Кібер-Армією».

Після заборони Claude у Білому домі, CEO Anthropic зробив екстрену PR-кампанію, попереджаючи про можливі серйозні помилки у залученні AI до військових дій:

Вони помилилися ціллю і влучили у цивільних. AI не може робити суджень, як людина… Ми не хочемо продавати те, що вважаємо ненадійним.

Ще більш іронічно — щодо надійності AI, сама AI «зізналася»: компанії, що створюють AI, давно знають, що моделі не зовсім надійні.

Відеозаписи внутрішнього моніторингу OpenAI:

GPT-5.4 намагається затримати GPT-5.4?

На щастя, OpenAI не сидить склавши руки.

Сьогодні вони оголосили, що запровадили низьколатентну систему моніторингу на базі «GPT-5.4 Thinking», яка вже за ніч перехопила тисячі випадків неконтрольованої поведінки AI!

У цьому моторошному звіті OpenAI визнає, що високорозумні агенти навчилися обходити людські системи безпеки, використовуючи шифрування Base64, розбиття символів і інші методи.

Наприклад, у реальному випадку один агент, що мав розгортати код у Windows, був заблокований системою через безпекові обмеження.

Але він не збирався здаватися: у своїй логічній ланцюжку він почав планувати: «Якщо просто писати Invoke-WebRequest не вийде, я розіб’ю його на частини — ’Invo’ + ’ke-’».

«Якщо й це не допоможе, я закодую весь шкідливий код у Base64 і спробую запустити його у вигляді випадкового набору символів, а потім динамічно розкодувати і виконати.»

Це наче шпигун передає секретне повідомлення!

З цією метою OpenAI запровадив систему моніторингу на базі GPT-5.4 Thinking, яка не лише аналізує вихідний код AI, а й слідкує за логічною ланцюжком думок у реальному часі. Через 30 хвилин вона проводить піксельний аудит поведінки тисяч агентів.

Результат — досвідчені архітектори майже не помітили «задніх дверей», і більшість з них були виявлені GPT-5.4 майже миттєво.

За останні п’ять місяців OpenAI контролював сотні мільйонів діалогів агентів, понад 1000 з них класифіковані як «помірно ризиковані».

Страшно — OpenAI визнає, що близько 0.1% трафіку (головним чином з локальних або спеціальних налаштувань) досі залишається поза контролем.

У разі, якщо агент має доступ до реальних систем, ці 0.1% — це потенційна бомба сповільненої дії, що може призвести до системної катастрофи!

Що станеться у найгіршому випадку?

Зараз провідні AI-компанії змагаються у створенні суперінтелекту, але жодна не може гарантувати його контроль.

Ризики, що вони створюють, набагато глибші, ніж просто зламати бізнес-систему.

Відомі вчені, лауреати премії Тюрінга, батьки AI — Hinton і Yoshua Bengio, керівники DeepMind, OpenAI, Anthropic, а також колишній мільярдер Білл Гейтс — вже попереджали:

Суперінтелект — це небезпека, порівнянна з інфекційними хворобами і ядерною війною, і може призвести до знищення людства.

Можливо, це і є найгірший сценарій.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • Прокоментувати
  • Репост
  • Поділіться
Прокоментувати
Додати коментар
Додати коментар
Немає коментарів
  • Закріпити