Google, ускорение перехода к «активному ИИ»… с TPU 8 в качестве ядра, ставка на единую платформу прокси

robot
Генерация тезисов в процессе

Промышленное использование искусственного интеллекта(AI)рынок быстро меняет фокус. Аналитика показывает, что мы переходим от этапа ответов на вопросы и генерации контента к эпохе “умных агентов AI”, которые выполняют реальные задачи и помогают в принятии решений. Генеральный директор Google Cloud Томас Куриян(Thomas Kurian) подчеркнул, что эта перемена — не просто добавление функций, а необходимость полного переосмысления инфраструктуры и общей архитектуры программного обеспечения.

На недавно прошедшей конференции “Google Cloud Next 2026” компания продемонстрировала следующее поколение TPU 8, платформу данных и AI, а также платформу для умных агентов. Основная идея ясна: от полупроводников до облачной инфраструктуры, стека данных, AI-моделей и приложений — всё должно быть объединено в единую систему, чтобы стабильно функционировали масштабные “действующие AI”. Рыночные оценки свидетельствуют, что Google уже активно борется за лидерство в “полностековом AI”.

TPU 8 выходит на передний план, по сути, как борьба за “единую платформу”

На первый взгляд, самым заметным анонсом является TPU 8. Несмотря на то, что Google заявил о значительных улучшениях в производительности и масштабируемости нового чипа, основной интерес индустрии сосредоточен не только в технических характеристиках полупроводника, а в его стратегическом значении. Потому что TPU — это ядро, позволяющее Google быстрее и дешевле управлять своими AI-сервисами.

Однако это трудно назвать прямым противостоянием с Nvidia. Многие разработчики и компании по-прежнему используют экосистему CUDA Nvidia, и Google не стремится исключить её, а скорее расширяет выбор. Иными словами, TPU — это скорее способ Google более тесно связать аппаратное и программное обеспечение для поиска дифференциации, а не оружие для замены Nvidia.

Аналитики и отраслевые эксперты отмечают, что основной акцент в этом релизе — не сам TPU 8, а то, как Google связывает его с платформой данных, передовыми AI-моделями и платформой для умных агентов. Это означает, что Google начал объединять полупроводники, данные, AI-модели и задачи в единую, плавную структуру.

От “SaaS” к “сервисному программному обеспечению”

Эти изменения также подрывают существующую структуру программной индустрии. В прошлом, переходя от локального развертывания к SaaS(SaaS), менялись только способы доставки и операционные модели; сейчас аналитика говорит о том, что программное обеспечение эволюционирует в стадию “сервисного ПО”, которое напрямую приносит бизнес-результаты.

Ключевым элементом этой трансформации является AI-агент. Проблема в том, что если агент ограничен системами отдельных отделов, его ценность будет очень ограниченной. Можно автоматизировать простые повторяющиеся задачи, но трудно добиться повышения эффективности всей компании — сокращения времени найма и адаптации, устранения узких мест в выставлении цен и сборе платежей.

В конечном итоге, компаниям нужен “умный слой”, связывающий различные данные и бизнес-системы. Запущенная Google “Knowledge Catalog” (Каталог знаний) можно считать началом этого направления. Его структура предназначена для объединения аналитических и операционных данных компании в единую систему, чтобы AI мог понимать “что происходит сейчас”.

Конкуренция за платформу данных, расширяющаяся до “цифровых двойников”

Отрасль считает, что зрелая стадия платформ данных — это не просто генерация отчетов, а создание “цифровых двойников” предприятий. Цифровой двойник — это цифровое отображение в реальном времени сотрудников, активов, процессов и деятельности компании. Для AI-агентов, чтобы принимать решения и действовать на основе актуального состояния предприятия, необходима именно такая структура.

На ранних этапах основное внимание уделялось данным и отчетам на уровне отделов. Затем появление платформ BigQuery, Snowflake, Databricks расширило возможности самостоятельного анализа, но у каждого отдела всё равно оставались свои “истины” данных. Следующий этап — это моделирование событий и операционных данных в реальном времени, что позволяет более точно отображать деятельность предприятия.

Salesforce и SAP также работают в этом направлении, но Google, интегрируя BigQuery, Spanner и слой метаданных, в редких случаях среди крупных облачных провайдеров, обладает платформой данных, способной конкурировать с Snowflake и Databricks, и получила признание. Стратегия умных агентов строится именно на этой базе данных.

Ключ к распространению агентов — “безопасное выполнение”

Самая сложная часть внедрения AI в бизнес — это соединение гибкости генеративного AI с строгой надежностью корпоративных систем. AI хорошо умеет генерировать текст и идеи, но реальные бизнес-процессы требуют четких правил, прозрачных разрешений, возможности аудита и ответственности. Поэтому отрасль считает, что для эффективной работы агентов необходимо наложить “слой детерминированного исполнения” поверх “творческих” возможностей.

Например, даже если агент достигает цели, необходимо одновременно определить, при каких условиях допускается выполнение определенных действий, что должно быть выполнено до и после, и как фиксировать результаты. Только при наличии такой структуры можно создать “безопасный AI”, а не просто “умный AI”.

В этом процессе важны концепции корпоративных знаний, правил поведения, цифровых двойников в реальном времени и платформ автономного управления. Проще говоря, AI должен выйти за рамки простых таблиц Excel и панелей мониторинга, уметь исследовать реальное состояние и связи внутри компании и действовать в рамках правил.

Преимущества и ограничения Google очевидны

Google достиг значительных успехов в области извлечения метаданных, управления происхождением данных, построения неструктурированных знаний в виде графов и оценки многошаговых агентов. Особенно ценится его функция сбора ошибок агентов и предложений по их улучшению, что считается шагом вперед по сравнению с простыми демонстрациями и приближением к стадии “операционного AI”.

Но есть и сложности. Самая большая — это интеграция разрозненных систем, где один и тот же объект, например “клиент”, может иметь разные определения в CRM, финансах, службе поддержки и логистике. Тогда AI сложно понять, что это один и тот же субъект. Некоторые считают, что одних правил качества данных и бизнес-терминов недостаточно, нужны также правила, отражающие реальные бизнес-процессы.

Еще одна проблема — захват “почему” у экспертов. Google усиливает демонстрацию того, как AI приходит к выводам, но этого недостаточно для замены опытных сотрудников. В большинстве случаев исключения, противоречия, приоритеты и контекстные оценки всё равно требуют человеческого опыта.

Кодирование агентов — следующий этап конкуренции

Еще один фронт борьбы за рынок агентов — это “кодирование”. Отрасль считает, что самый быстрый путь к универсальному интеллектуальному агенту — это создание кодирующих агентов. Потому что для взаимодействия с внешним миром агентам нужно вызывать разные инструменты, а для этого важны навыки написания, изменения и выполнения кода.

Примеры — Claude Code от Anthropic, Codex от OpenAI. Google не выводит отдельный продукт для кодирования на передний план, а интегрирует его в свои платформы.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Закрепить