Обложка статьи: Почему Claude на Vertex AI становится базовым стеком для длинных AI-агентов
Обложка статьи: Почему Claude на Vertex AI становится базовым стеком для длинных AI-агентов

Почему Claude на Vertex AI становится базовым стеком для длинных AI-агентов

TL;DR

Claude на Vertex AI продвигают не как «ещё один способ вызвать модель», а как стек для длинных и сложных агентных задач в корпоративной среде. Ключевая идея простая: когда агент живёт не 30 секунд, а часами, и работает не с одним API, а с несколькими системами, вам уже нужны не только сильные ответы модели, но и нормальная инфраструктура, безопасность, доступы и управляемость. Именно поэтому связка Claude + Vertex AI сейчас выглядит для enterprise интереснее, чем просто «подключили модель к приложению».

Что произошло

На Google Cloud Next 2026 Anthropic отдельно вынесла тему Claude on Vertex AI. Формулировка у них показательная: большинство AI-агентов деградируют, когда задача становится длинной и ветвящейся, а Claude, по их словам, специально проектируется под эту проблему.

Это уже другой уровень разговора. Если раньше модели в enterprise обсуждали как помощников для чата или summarization, то теперь акцент сместился на:

  • long-running agents;
  • branching workflows;
  • работу через несколько систем;
  • корпоративные требования к безопасности и инфраструктуре.

Почему одной сильной модели уже мало

Как только агент начинает делать реальную работу, сразу всплывают не LLM-магические, а очень земные вопросы:

  • где хранится контекст;
  • кто и как выдаёт доступы;
  • где идут логи;
  • как ограничить действия;
  • как встроить это в текущий стек;
  • как гарантировать, что данные остаются в нужном периметре.

Вот почему большой рынок сейчас смотрит не просто на «самую умную модель», а на сочетание модели и платформы исполнения.

Vertex AI здесь даёт именно инфраструктурный слой:

  • управление окружением;
  • интеграцию с Google Cloud;
  • enterprise security;
  • масштабирование;
  • более понятный путь к боевому использованию.

Что Anthropic подчёркивает в кейсе

Anthropic на странице события приводит кейс Palo Alto Networks:

  • 20–30% прироста скорости разработки;
  • 3 500 разработчиков, которых удалось быстрее ввести в рабочий ритм;
  • 70% ускорения выполнения задач для junior-разработчиков.

Даже если смотреть на эти цифры осторожно, сам тип метрик важен. Это не «качество ответа в вакууме», а метрики внедрения:

  • velocity;
  • onboarding;
  • time-to-task.

Именно такие показатели и решают, идёт ли инструмент в прод или остаётся игрушкой для innovation-демо.

Для кого это реально интересно

1. Для команд, где агент должен жить внутри текущей инфраструктуры

Если у компании уже есть Google Cloud, проще завести модель туда, где уже есть:

  • IAM;
  • контроль окружений;
  • внутренние политики;
  • интеграция с данными;
  • привычные процессы безопасности.

2. Для продуктов с длинным execution loop

Если ваш агент:

  • не просто отвечает в чате,
  • а читает контекст,
  • строит план,
  • трогает несколько систем,
  • и возвращается в цикл снова и снова,

тогда вопрос orchestration становится почти важнее самой модели.

3. Для enterprise, где demo-магия быстро заканчивается

В компаниях редко выигрывает самый красивый AI-демо-сценарий. Выигрывает то, что:

  • проходит security review;
  • не ломает текущий стек;
  • интегрируется без полугода самописной прослойки;
  • масштабируется без ручного шаманства.

Почему это выглядит как новый default-паттерн

Скорее всего, в ближайший год многие corporate AI-агенты будут строиться именно так:

  1. сильная frontier-модель;
  2. облачная платформа с enterprise controls;
  3. слой orchestration и tool use;
  4. ограниченный периметр доступа;
  5. постепенный rollout по use cases.

То есть рынок уходит от идеи «дадим модели доступ ко всему и посмотрим». Вместо этого складывается более взрослый шаблон:

  • сначала ограниченный сценарий;
  • потом измеримые метрики;
  • потом масштабирование.

Claude на Vertex AI хорошо ложится в этот шаблон.

Где легко ошибиться

Ошибка 1. Думать, что дело только в модели

На практике long-running agent ломается чаще не на reasoning, а на:

  • доступах;
  • интеграциях;
  • плохом контексте;
  • неясных правах на действия;
  • хрупких tool chains.

Ошибка 2. Путать чат с агентом

Если пользователь просто задаёт вопрос в интерфейсе, вам может хватить гораздо более простого стека. Но если агент должен сам ходить по системам и выполнять работу, требования растут резко.

Ошибка 3. Начинать с самого сложного use case

Правильнее начинать с сценариев, где:

  • высока цена рутины;
  • есть понятный процесс;
  • результат можно измерить;
  • риски ограничены.

С чего начинать команде

Хороший стартовый shortlist выглядит так:

  1. Возьмите один процесс на 5–20 шагов, который сейчас раздражает людей.
  2. Ограничьте набор систем, с которыми агент может работать.
  3. Определите метрику: скорость, качество, доля ручной работы, onboarding.
  4. Прогоните пилот на узкой группе пользователей.
  5. Только после этого решайте, нужен ли full-scale rollout.

Вывод

Самый важный сигнал из истории с Claude на Vertex AI не в том, что «ещё одну модель добавили в облако». Сигнал в другом: enterprise-рынок уже думает об AI-агентах как о долгоживущих рабочих системах, а не о продвинутом чате.

И если вы строите продукт или внутренний инструмент, где агент должен реально работать, а не впечатлять на демо, то вопрос «на какой платформе это исполнять» становится почти таким же важным, как вопрос «какую модель выбрать».

Где следить дальше

Быстрые разборы, новые инструменты и свежие наблюдения я публикую в Telegram: t.me/il_chum

Источники

  • https://www.anthropic.com/events/anthropic-at-google-cloud-next-2026