Трейлер Оутмана: Новый модель безопасности OpenAI GPT 5.5-Cyber появится через несколько дней, столкновение с Claude Mythos

OpenAI анонсирует запуск специализированной модели безопасности сети GPT-5.5-Cyber, предназначенной для экспертов в области кибербезопасности, противостоящей строго контролируемым стратегиям защиты Anthropic. Отметим, что Ортман предсказал, что в 2026 году может произойти масштабная кибератака, потрясшая мир.

OpenAI GPT-5.5-Cyber скоро будет представлен

Генеральный директор OpenAI Сам Альтман сегодня (30/04) предварительно сообщил, что в ближайшие дни будет запущена новая модель кибербезопасности GPT-5.5-Cyber, доступная специалистам в области интернет-безопасности. Он отметил, что команда будет сотрудничать с экосистемой и правительством, чтобы найти надежные способы доступа и обеспечить безопасность предприятий и инфраструктуры.

В апреле этого года Альтман в интервью основателю Axios Майку Аллену предсказал, что в 2026 году может произойти событие, способное потрясти весь мир, связанное с кибератаками.

Общественность продолжает обсуждать, насколько его слова отражают реальную угрозу, а недавно Anthropic выпустила модель Claude Mythos, способную самостоятельно выявлять программные уязвимости, что усиливает споры и вызывает тревогу у правительства США.

  • Связанные новости: Claude Mythos — угроза финансовой безопасности? Министр финансов США и председатель ФРС срочно провели совещание, предупреждая о рисках

OpenAI планирует распространить инструменты кибербезопасности на все уровни правительства

Разногласия между OpenAI и Anthropic по стратегиям защиты отражают более широкий спор в области ИИ.

По сообщению CNN, до недавнего времени программа доверенного доступа к интернет-безопасности OpenAI была ограничена несколькими партнерами, и сейчас она расширяется на все проверенные государственные уровни, от федеральных агентств до местных, позволяя одобренным организациям использовать специальные версии моделей с меньшими ограничениями.

Руководитель политики национальной безопасности OpenAI Саша Бейкер отметил, что компания не считает себя единственным решающим органом в вопросах распределения полномочий и приоритетов.

Разногласия двух гигантов ИИ: демократизация против строгого контроля

Модель Mythos от Anthropic обладает способностью выявлять и использовать программные уязвимости. В связи с потенциальной опасностью компания постепенно внедряет её через строго контролируемый проект “Стеклянное крыло” в сотрудничестве с правительственными представителями.

В области безопасности Anthropic выступает за медленный и осторожный подход, чтобы замедлить гонку вооружений, вызванную использованием ИИ хакерами, в то время как OpenAI планирует полностью открыть доступ к моделям.

Бейкер заявил, что необходимо демократизировать возможности защиты сети, чтобы все могли извлечь из этого пользу, а не ограничивать доступ только 50 крупнейшим компаниям по версии Forbes. Она подчеркнула, что это шанс для компаний исправить уязвимости до того, как злоумышленники получат к ним доступ.

Источник изображения: Getty Images/ANTHONY WALLACE/AFP Руководитель политики национальной безопасности OpenAI Саша Бейкер

OpenAI активно сотрудничает с США, разрабатывая план действий в эпоху разведки

Недавно в Вашингтоне OpenAI провела практический семинар, на котором Бейкер сообщил, что участниками стали представители Пентагона, Белого дома, Министерства внутренней безопасности и Агентства передовых исследований обороны, совместно тестирующие безопасность новых моделей, а через несколько недель планируется сбор обратной связи в Вашингтоне.

Кроме того, компания разрабатывает план действий для координации правительств и бизнеса в эпоху информационной разведки. В ближайшие дни планируется внедрение новых функций безопасности в ChatGPT и предоставление инструментов для улучшения личной кибербезопасности у широкой аудитории.

Дьявол или спаситель? Гиганты ИИ разыгрывают карту апокалипсиса

Однако многие компании в области ИИ часто предупреждают о возможных угрозах апокалипсиса, что вызывает сомнения в научных кругах.

В интервью BBC профессор этики Эдинбургского университета Шеннон Валлор отметила, что стратегия страха, используемая ИИ-компаниями, уже оказала эффект, превращая их продукты в потенциальные угрозы для мира, не нанося при этом ущерба или не ограничивая их власть. Это создает впечатление, что единственные, кто может обеспечить защиту, — это сами эти компании.

Она сказала, что утопия и апокалипсис — две стороны одной медали: «В любой ситуации масштабы слишком велики и наполнены мифами, что создает ощущение, будто механизмы регулирования, управления или судебные системы бессильны.»

Это заставляет людей думать, что единственное, что они могут сделать — это ждать и смотреть, станут ли эти технологии в конечном итоге демонами, уничтожающими цивилизацию, или спасителями, приносящими утопию. Даже название “Mythos” (миф) кажется созданным для вызова религиозного трепета.

Дополнительное чтение:
Новые политики в эпоху ИИ! OpenAI предлагает 4 инициативы: тридцатидневная рабочая неделя, налог на роботов

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить