TL;DR
Claude на Vertex AI продвигают не как «ещё один способ вызвать модель», а как стек для длинных и сложных агентных задач в корпоративной среде. Ключевая идея простая: когда агент живёт не 30 секунд, а часами, и работает не с одним API, а с несколькими системами, вам уже нужны не только сильные ответы модели, но и нормальная инфраструктура, безопасность, доступы и управляемость. Именно поэтому связка Claude + Vertex AI сейчас выглядит для enterprise интереснее, чем просто «подключили модель к приложению».
Что произошло
На Google Cloud Next 2026 Anthropic отдельно вынесла тему Claude on Vertex AI. Формулировка у них показательная: большинство AI-агентов деградируют, когда задача становится длинной и ветвящейся, а Claude, по их словам, специально проектируется под эту проблему.
Это уже другой уровень разговора. Если раньше модели в enterprise обсуждали как помощников для чата или summarization, то теперь акцент сместился на:
- long-running agents;
- branching workflows;
- работу через несколько систем;
- корпоративные требования к безопасности и инфраструктуре.
Почему одной сильной модели уже мало
Как только агент начинает делать реальную работу, сразу всплывают не LLM-магические, а очень земные вопросы:
- где хранится контекст;
- кто и как выдаёт доступы;
- где идут логи;
- как ограничить действия;
- как встроить это в текущий стек;
- как гарантировать, что данные остаются в нужном периметре.
Вот почему большой рынок сейчас смотрит не просто на «самую умную модель», а на сочетание модели и платформы исполнения.
Vertex AI здесь даёт именно инфраструктурный слой:
- управление окружением;
- интеграцию с Google Cloud;
- enterprise security;
- масштабирование;
- более понятный путь к боевому использованию.
Что Anthropic подчёркивает в кейсе
Anthropic на странице события приводит кейс Palo Alto Networks:
- 20–30% прироста скорости разработки;
- 3 500 разработчиков, которых удалось быстрее ввести в рабочий ритм;
- 70% ускорения выполнения задач для junior-разработчиков.
Даже если смотреть на эти цифры осторожно, сам тип метрик важен. Это не «качество ответа в вакууме», а метрики внедрения:
- velocity;
- onboarding;
- time-to-task.
Именно такие показатели и решают, идёт ли инструмент в прод или остаётся игрушкой для innovation-демо.
Для кого это реально интересно
1. Для команд, где агент должен жить внутри текущей инфраструктуры
Если у компании уже есть Google Cloud, проще завести модель туда, где уже есть:
- IAM;
- контроль окружений;
- внутренние политики;
- интеграция с данными;
- привычные процессы безопасности.
2. Для продуктов с длинным execution loop
Если ваш агент:
- не просто отвечает в чате,
- а читает контекст,
- строит план,
- трогает несколько систем,
- и возвращается в цикл снова и снова,
тогда вопрос orchestration становится почти важнее самой модели.
3. Для enterprise, где demo-магия быстро заканчивается
В компаниях редко выигрывает самый красивый AI-демо-сценарий. Выигрывает то, что:
- проходит security review;
- не ломает текущий стек;
- интегрируется без полугода самописной прослойки;
- масштабируется без ручного шаманства.
Почему это выглядит как новый default-паттерн
Скорее всего, в ближайший год многие corporate AI-агенты будут строиться именно так:
- сильная frontier-модель;
- облачная платформа с enterprise controls;
- слой orchestration и tool use;
- ограниченный периметр доступа;
- постепенный rollout по use cases.
То есть рынок уходит от идеи «дадим модели доступ ко всему и посмотрим». Вместо этого складывается более взрослый шаблон:
- сначала ограниченный сценарий;
- потом измеримые метрики;
- потом масштабирование.
Claude на Vertex AI хорошо ложится в этот шаблон.
Где легко ошибиться
Ошибка 1. Думать, что дело только в модели
На практике long-running agent ломается чаще не на reasoning, а на:
- доступах;
- интеграциях;
- плохом контексте;
- неясных правах на действия;
- хрупких tool chains.
Ошибка 2. Путать чат с агентом
Если пользователь просто задаёт вопрос в интерфейсе, вам может хватить гораздо более простого стека. Но если агент должен сам ходить по системам и выполнять работу, требования растут резко.
Ошибка 3. Начинать с самого сложного use case
Правильнее начинать с сценариев, где:
- высока цена рутины;
- есть понятный процесс;
- результат можно измерить;
- риски ограничены.
С чего начинать команде
Хороший стартовый shortlist выглядит так:
- Возьмите один процесс на 5–20 шагов, который сейчас раздражает людей.
- Ограничьте набор систем, с которыми агент может работать.
- Определите метрику: скорость, качество, доля ручной работы, onboarding.
- Прогоните пилот на узкой группе пользователей.
- Только после этого решайте, нужен ли full-scale rollout.
Вывод
Самый важный сигнал из истории с Claude на Vertex AI не в том, что «ещё одну модель добавили в облако». Сигнал в другом: enterprise-рынок уже думает об AI-агентах как о долгоживущих рабочих системах, а не о продвинутом чате.
И если вы строите продукт или внутренний инструмент, где агент должен реально работать, а не впечатлять на демо, то вопрос «на какой платформе это исполнять» становится почти таким же важным, как вопрос «какую модель выбрать».
Где следить дальше
Быстрые разборы, новые инструменты и свежие наблюдения я публикую в Telegram: t.me/il_chum
Источники
- https://www.anthropic.com/events/anthropic-at-google-cloud-next-2026