Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Launchpad
Будьте готовы к следующему крупному токен-проекту
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Компания AI Anthropic ищет эксперта по оружию для предотвращения «misuse» пользователями
Компания Anthropic, занимающаяся искусственным интеллектом, ищет эксперта по химическому оружию и взрывчатым веществам высокой мощности, чтобы предотвратить «катастрофическое неправильное использование» своего программного обеспечения.
Другими словами, она опасается, что её инструменты ИИ могут подсказать, как изготовить химическое или радиоактивное оружие, и хочет привлечь специалиста, чтобы обеспечить достаточную безопасность.
В объявлении на LinkedIn компания указывает, что кандидат должен иметь минимум пять лет опыта в области «защиты от химического оружия и/или взрывчатых веществ», а также знание «радиологического распространения устройств» — так называемых грязных бомб.
Компания сообщила BBC, что эта роль похожа на другие чувствительные позиции, которые она уже создала.
Anthropic — не единственная компания в сфере ИИ, использующая такую стратегию.
Аналогичная вакансия размещена разработчиком ChatGPT — компанией OpenAI. На её сайте по поиску работы указана вакансия исследователя по «биологическим и химическим рискам» с зарплатой до 455 000 долларов (около 335 000 фунтов стерлингов), что почти вдвое больше, чем предлагает Anthropic.
Однако некоторые эксперты выражают тревогу по поводу рисков такого подхода, предупреждая, что он может дать ИИ-инструментам информацию о оружии — даже если им было указано не использовать её.
«Безопасно ли вообще использовать системы ИИ для обработки информации о чувствительных химических веществах и взрывчатых веществах, включая грязные бомбы и другие радиологические оружия?» — сказала доктор Стэффани Хэр, исследователь технологий и со-ведущая программы BBC «AI Decoded».
«Для этого типа работы не существует международных договоров или других нормативных актов, регулирующих использование ИИ с такими видами оружия. Всё это происходит скрытно.»
Индустрия ИИ постоянно предупреждает о потенциальных экзистенциальных угрозах, которые могут исходить от её технологий, но попыток замедлить развитие не предпринималось.
Проблема стала особенно актуальной, поскольку правительство США призывает компании в сфере ИИ, одновременно ведя войну в Иране и военные операции в Венесуэле.
LinkedIn
Объявление компании Anthropic о поиске эксперта по химическому оружию и взрывчатым веществам высокой мощности для работы в её политической команде
Anthropic предпринимает судебные иски против Министерства обороны США, которое признало её цепочкой поставок риска, поскольку компания настаивала, что её системы не должны использоваться в полностью автономных вооружениях или для массового наблюдения за американцами.
Соучредитель Anthropic Дарио Амодеи в феврале заявил, что технология ещё недостаточно развита и не должна использоваться для таких целей.
Белый дом заявил, что американская армия не будет управляться технологическими компаниями.
Риск-оценка ставит американскую компанию в один ряд с китайской телекоммуникационной компанией Huawei, которая также была занесена в черный список по причинам национальной безопасности.
OpenAI заявил, что согласен с позицией Anthropic, но затем заключил собственный контракт с правительством США, который, по их словам, ещё не начат.
Искусственный интеллект компании Anthropic, называемый Клод, пока не был выведен из эксплуатации и всё ещё интегрирован в системы, предоставляемые Palantir, и используется США в войне с Ираном и Израилем.
Крупные технологические компании поддерживают Anthropic в борьбе против администрации Трампа
Anthropic подает в суд на правительство США за признание её риском
Лидер в области безопасности ИИ заявляет, что «мир в опасности» и уходит, чтобы изучать поэзию
Подпишитесь на нашу рассылку Tech Decoded, чтобы следить за главными технологическими новостями и трендами мира. Не в Великобритании? Подписывайтесь здесь.
Искусственный интеллект
Военное