Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 30 моделей ИИ, без дополнительных затрат (0%)
Мне только что стало ясно, что и Anthropic, и OpenAI довольно значительно изменили свои обещания по безопасности. В Anthropic было просто опущено одно ключевое обещание из руководства по ответственному росту — конкретно: обещание приостанавливать обучение ИИ, если меры по снижению рисков окажутся недостаточными. Джаред Каплан, главный научный директор Anthropic, объясняет это реальностью высококонкурентного рынка. Односторонняя пауза под давлением конкуренции просто непрактична.
Похожая ситуация у OpenAI: миссия была переформулирована, и слово «безопасный» было исключено. Вместо этого теперь акцент делается на том, что ИИ должен приносить пользу человечеству. Это, конечно, соответствует ожиданиям инвесторов и политиков, но также показывает, насколько прагматично теперь мыслят эти компании.
Интересно, что по времени: Anthropic сейчас завершает раунд финансирования на сумму 30 миллиардов долларов и оценивается в 380 миллиардов. OpenAI стремится достичь до 100 миллиардов, при поддержке Amazon, Microsoft и Nvidia. Ясно, почему такие формулировки по безопасности были опущены — давление огромное.
Еще один момент: Anthropic отказалась предоставить Пентагону полный доступ к Claude, что вызвало напряженность с министром обороны США Питом Хегсетом. Это поднимает вопросы о оборонных контрактах и показывает, что опасения по поводу безопасности и геополитическая реальность иногда противоречат друг другу. Интересно наблюдать, как эта отрасль сейчас переопределяет свои границы.