Белый дом обвиняет Китай в «промышленном масштабе» кражи данных у американских моделей ИИ

Вкратце

  • Белый дом заявил, что иностранные организации, в основном в Китае, проводят «промышленные» кампании по копированию американских моделей ИИ.
  • Официальные лица сообщили, что злоумышленники используют прокси-аккаунты и джейлбрейк для извлечения возможностей моделей и конфиденциальных данных.
  • В меморандуме призывается федеральным агентствам и частному сектору разработать меры защиты и привлечь иностранных участников к ответственности.

Белый дом в четверг предупредил, что «иностранные организации» якобы проводят «промышленные» кампании по копированию возможностей американских моделей искусственного интеллекта, используя такие тактики, как джейлбрейк и сети фальшивых аккаунтов для извлечения конфиденциальной информации и воспроизведения их работы. В меморандуме под названием «Враждебное дистилляция американских моделей ИИ» помощник президента по науке и технологиям и директор Офиса науки и технологий Майкл Кратсиос заявил, что правительство США располагает информацией о скоординированных усилиях по дистилляции передовых систем ИИ США. «США имеют доказательства того, что иностранные организации, в основном в Китае, проводят промышленные кампании по дистилляции, чтобы украсть американский ИИ», — написал Кратсиос в X. «Мы предпримем меры для защиты американских инноваций.»

По словам администрации президента Дональда Трампа, кампании используют «десятки тысяч прокси-аккаунтов» для уклонения от обнаружения и эксплуатации техник джейлбрейка для систематического извлечения возможностей, что известно как атака дистилляции.

США имеют доказательства того, что иностранные организации, в основном в Китае, проводят промышленные кампании по дистилляции, чтобы украсть американский ИИ. Мы предпримем меры для защиты американских инноваций.

Эти иностранные организации используют десятки тысяч прокси и джейлбрейк… pic.twitter.com/kSp1FReI7J

— Директор Майкл Кратсиос (@mkratsios47) 23 апреля 2026

Атака дистилляции — это метод обучения меньшей модели ИИ на основе выходных данных более крупной. Эта проблема становится все более актуальной среди американских компаний, работающих в области ИИ. В феврале Anthropic обвинила китайские лаборатории DeepSeek, Moonshot и MiniMax в извлечении миллионов ответов Claude — с помощью примерно 24 000 мошеннических аккаунтов — для обучения конкурирующих систем. Модели, созданные в результате несанкционированных кампаний дистилляции, могут не достигать полного уровня производительности оригиналов. Тем не менее, они могут выглядеть сопоставимыми по некоторым тестам при значительно меньших затратах.

Администрация предупредила, что атаки дистилляции также могут устранить меры безопасности и другие контрольные механизмы, предназначенные для того, чтобы системы ИИ оставались «идеологически нейтральными и ориентированными на поиск правды».  Администрация Трампа заявила, что федеральные агентства будут сотрудничать с американскими компаниями ИИ для усиления защиты передовых моделей, координировать действия с частным сектором для разработки мер против масштабных кампаний дистилляции и искать способы привлечения иностранных участников к ответственности. Хотя в меморандуме признается, что законная дистилляция может помочь создать меньшие, более эффективные модели с открытым исходным кодом и открытыми весами, он отмечает, что несанкционированные попытки копирования американских систем ИИ переходят границу. «В систематическом извлечении и копировании инноваций американской промышленности нет ничего инновационного», — говорится в меморандуме. Офис науки и технологий не сразу ответил на запрос о комментарии от Decrypt.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить