BN
ТехнологииAI Desk2 просмотров

Google TPU: Разделение чипов для AI обучения и инференса

Google переходит к двум специализированным процессорам TPU для восьмого поколения: один для обучения (training) и другой для инференса (inference). Это разделение направлено на повышение эффективности работы с растущим числом автономных AI-агентов. Новые чипы демонстрируют значительный прирост производительности — до 2.8x для обучения и 80% для инференса по сравнению с предыдущими моделями. Компания активно наращивает внедрение этих чипов, о чем свидетельствует использование их крупными финансовыми и государственными структурами. Данный шаг укрепляет позиции Google в конкурентной гонке полупроводников с такими игроками, как Nvidia.

Ad slot
Google TPU: Разделение чипов для AI обучения и инференса

Google пересматривает архитектуру своих тензорных процессоров (TPU), разделяя функции обучения (training) и инференса (inference) на два специализированных чипа. Это стратегическое решение направлено на повышение эффективности работы с растущим числом автономных AI-агентов.

Специализация TPU для Эпохи AI-Агентов

Google анонсировала изменения в восьмом поколении своих TPU. Вместо универсального процессора компания выпускает две отдельные линейки чипов: одна оптимизирована для обучения моделей, а другая — для инференса (работы, или вывода, готовых моделей). По словам представителей Google, такое разделение позволит сообществу разработчиков получить более специализированные и эффективные инструменты.

«С ростом числа AI-агентов мы определили, что сообществу выгодно использовать чипы, индивидуально специализированные для нужд обучения и обслуживания», — заявил Амин Вадхат, старший вице-президент Google по ИИ и инфраструктуре.

Конкурентный Ландшафт AI-Вычислений

Хотя Google остается крупным клиентом Nvidia, компания активно развивает собственную экосистему полупроводников. В отрасли наблюдается тренд на разработку кастомных чипов для ИИ среди ведущих технологических гигантов:

  • Apple: Интегрирует компоненты нейронного движка в собственные чипы iPhone.
  • Microsoft: Анонсировала второе поколение AI-чипов.
  • Meta: Работает с Broadcom над несколькими версиями процессоров для ИИ.
  • Amazon: Ранее представила чипы Inferentia и Trainium.

Google первой начала использовать собственные процессоры для ИИ в 2015 году, а сдавать их в аренду облачным клиентам — в 2018 году.

Ad slot

Технические Преимущества Новых TPU

Новые чипы демонстрируют значительный прирост производительности по сравнению с предыдущими поколениями:

  • Обучение: Чип для обучения обеспечивает производительность, в 2.8 раза превышающую TPU Ironwood седьмого поколения при сохранении той же стоимости.
  • Инференс: Процессор для инференса показывает улучшение производительности на 80%.
  • Архитектура: Архитектура разработана для обеспечения «массивной пропускной способности и низкой задержки, необходимой для экономически эффективного одновременного запуска миллионов агентов».

Оба новых чипа, включая модель для инференса, получившую название TPU 8i, используют значительное количество статической оперативной памяти (SRAM) — по 384 МБ на чип, что в три раза больше, чем в Ironwood.

Рост Применения и Рыночная Перспектива

Применение новых чипов уже набирает обороты. К ним относятся:

  • Citadel Securities: Разработала квантово-исследовательское программное обеспечение, использующее TPU Google.
  • Министерство энергетики США: Все 17 национальных лабораторий используют программное обеспечение «AI co-scientist», построенное на этих чипах.
  • Anthropic: Подтвердила намерение использовать мощности Google TPU объемом в несколько гигаватт.

Аналитики DA Davidson ранее оценивали бизнес, связанный с TPU и группой Google DeepMind, в размере около 900 миллиардов долларов.

Ad slot