Google пересматривает архитектуру своих тензорных процессоров (TPU), разделяя функции обучения (training) и инференса (inference) на два специализированных чипа. Это стратегическое решение направлено на повышение эффективности работы с растущим числом автономных AI-агентов.
Специализация TPU для Эпохи AI-Агентов
Google анонсировала изменения в восьмом поколении своих TPU. Вместо универсального процессора компания выпускает две отдельные линейки чипов: одна оптимизирована для обучения моделей, а другая — для инференса (работы, или вывода, готовых моделей). По словам представителей Google, такое разделение позволит сообществу разработчиков получить более специализированные и эффективные инструменты.
«С ростом числа AI-агентов мы определили, что сообществу выгодно использовать чипы, индивидуально специализированные для нужд обучения и обслуживания», — заявил Амин Вадхат, старший вице-президент Google по ИИ и инфраструктуре.
Конкурентный Ландшафт AI-Вычислений
Хотя Google остается крупным клиентом Nvidia, компания активно развивает собственную экосистему полупроводников. В отрасли наблюдается тренд на разработку кастомных чипов для ИИ среди ведущих технологических гигантов:
- Apple: Интегрирует компоненты нейронного движка в собственные чипы iPhone.
- Microsoft: Анонсировала второе поколение AI-чипов.
- Meta: Работает с Broadcom над несколькими версиями процессоров для ИИ.
- Amazon: Ранее представила чипы Inferentia и Trainium.
Google первой начала использовать собственные процессоры для ИИ в 2015 году, а сдавать их в аренду облачным клиентам — в 2018 году.
