Компания AI Anthropic ищет эксперта по оружию для предотвращения «misuse» пользователями

Компания Anthropic, занимающаяся искусственным интеллектом, ищет эксперта по химическому оружию и взрывчатым веществам высокой мощности, чтобы предотвратить «катастрофическое неправильное использование» своего программного обеспечения.

Другими словами, она опасается, что её инструменты ИИ могут подсказать, как изготовить химическое или радиоактивное оружие, и хочет привлечь специалиста, чтобы обеспечить достаточную безопасность.

В объявлении на LinkedIn компания указывает, что кандидат должен иметь минимум пять лет опыта в области «защиты от химического оружия и/или взрывчатых веществ», а также знание «радиологического распространения устройств» — так называемых грязных бомб.

Компания сообщила BBC, что эта роль похожа на другие чувствительные позиции, которые она уже создала.

Anthropic — не единственная компания в сфере ИИ, использующая такую стратегию.

Аналогичная вакансия размещена разработчиком ChatGPT — компанией OpenAI. На её сайте по поиску работы указана вакансия исследователя по «биологическим и химическим рискам» с зарплатой до 455 000 долларов (около 335 000 фунтов стерлингов), что почти вдвое больше, чем предлагает Anthropic.

Однако некоторые эксперты выражают тревогу по поводу рисков такого подхода, предупреждая, что он может дать ИИ-инструментам информацию о оружии — даже если им было указано не использовать её.

«Безопасно ли вообще использовать системы ИИ для обработки информации о чувствительных химических веществах и взрывчатых веществах, включая грязные бомбы и другие радиологические оружия?» — сказала доктор Стэффани Хэр, исследователь технологий и со-ведущая программы BBC «AI Decoded».

«Для этого типа работы не существует международных договоров или других нормативных актов, регулирующих использование ИИ с такими видами оружия. Всё это происходит скрытно.»

Индустрия ИИ постоянно предупреждает о потенциальных экзистенциальных угрозах, которые могут исходить от её технологий, но попыток замедлить развитие не предпринималось.

Проблема стала особенно актуальной, поскольку правительство США призывает компании в сфере ИИ, одновременно ведя войну в Иране и военные операции в Венесуэле.

LinkedIn

Объявление компании Anthropic о поиске эксперта по химическому оружию и взрывчатым веществам высокой мощности для работы в её политической команде

Anthropic предпринимает судебные иски против Министерства обороны США, которое признало её цепочкой поставок риска, поскольку компания настаивала, что её системы не должны использоваться в полностью автономных вооружениях или для массового наблюдения за американцами.

Соучредитель Anthropic Дарио Амодеи в феврале заявил, что технология ещё недостаточно развита и не должна использоваться для таких целей.

Белый дом заявил, что американская армия не будет управляться технологическими компаниями.

Риск-оценка ставит американскую компанию в один ряд с китайской телекоммуникационной компанией Huawei, которая также была занесена в черный список по причинам национальной безопасности.

OpenAI заявил, что согласен с позицией Anthropic, но затем заключил собственный контракт с правительством США, который, по их словам, ещё не начат.

Искусственный интеллект компании Anthropic, называемый Клод, пока не был выведен из эксплуатации и всё ещё интегрирован в системы, предоставляемые Palantir, и используется США в войне с Ираном и Израилем.

Крупные технологические компании поддерживают Anthropic в борьбе против администрации Трампа

Anthropic подает в суд на правительство США за признание её риском

Лидер в области безопасности ИИ заявляет, что «мир в опасности» и уходит, чтобы изучать поэзию

Подпишитесь на нашу рассылку Tech Decoded, чтобы следить за главными технологическими новостями и трендами мира. Не в Великобритании? Подписывайтесь здесь.

Искусственный интеллект

Военное

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить