BN
|
Công nghệAI Desk1 views

Google hợp tác Intel: Tăng tốc AI với chip Xeon 6 thế hệ mới

Google đã mở rộng hợp tác chiến lược với Intel, cam kết sử dụng nhiều thế hệ bộ xử lý trung tâm (CPU) Intel Xeon 6 trong các trung tâm dữ liệu AI của mình. Sự hợp tác này nhằm cung cấp sức mạnh xử lý mạnh mẽ cho các tác vụ huấn luyện và suy luận AI, giúp Intel tăng cường vị thế trên thị trường công nghệ. Ngoài ra, hai bên cũng tái khẳng định việc phát triển Bộ xử lý Cơ sở hạ tầng (IPU), một chip tăng tốc được thiết kế để giảm tải các chức năng mạng, lưu trữ và bảo mật khỏi CPU chính. Các tuyên bố này phản ánh xu hướng ngành công nghiệp AI đang chuyển dịch trọng tâm từ việc chỉ tập trung vào các bộ tăng tốc đồ họa (GPU) sang việc tối ưu hóa toàn bộ hệ thống xử lý tổng thể. Sự hợp tác này củng cố vai trò quan trọng của CPU trong giai đoạn phát triển tiếp theo của ngành công nghiệp AI.

Ad slot
Google hợp tác Intel: Tăng tốc AI với chip Xeon 6 thế hệ mới

Google đã công bố mở rộng hợp tác chiến lược với Intel, cam kết sử dụng nhiều thế hệ bộ xử lý trung tâm (CPU) Intel Xeon 6 trong các trung tâm dữ liệu trí tuệ nhân tạo (AI) của mình. Thỏa thuận này không chỉ củng cố vị thế của Intel trên thị trường AI mà còn nhấn mạnh sự chuyển dịch trọng tâm của ngành công nghiệp sang việc tối ưu hóa toàn bộ hệ thống xử lý.

Hợp tác chiến lược cho Trung tâm Dữ liệu AI

Google, một trong những tập đoàn công nghệ lớn nhất thế giới, đã xác nhận việc mở rộng mối quan hệ đối tác với Intel. Theo đó, Google sẽ tích hợp nhiều thế hệ bộ xử lý trung tâm Intel Xeon 6 vào các trung tâm dữ liệu AI của mình. Đây là một bước đi quan trọng nhằm cung cấp sức mạnh xử lý mạnh mẽ cho các tác vụ huấn luyện (training) và suy luận (inference) AI.

Sự hợp tác này mang ý nghĩa lớn đối với Intel, giúp công ty tăng cường vị thế của mình trong một thị trường AI vốn đang bị thống trị bởi các bộ tăng tốc đồ họa (GPU) từ các đối thủ khác.

CPU: Trọng tâm mới của cuộc đua AI

Các tuyên bố gần đây từ các chuyên gia ngành công nghệ đã chỉ ra rằng, giai đoạn phát triển tiếp theo của AI đòi hỏi một hệ thống xử lý cân bằng, không chỉ dựa vào các bộ tăng tốc. Điều này đã đưa CPU trở lại vị trí trung tâm của cuộc đua AI.

  • Sự thay đổi xu hướng: Các tác vụ AI phức tạp (như các tác vụ tác nhân - agentic workloads) đang đòi hỏi khả năng tính toán vượt ra ngoài phạm vi của các đơn vị xử lý đồ họa (GPU) vốn thống trị trước đây.
  • Quan điểm từ chuyên gia: Giám đốc AI cơ sở hạ tầng của Nvidia, Dion Harris, nhận định rằng CPU đang dần trở thành yếu tố giới hạn (bottleneck) khi nhu cầu tính toán ngày càng tăng.
Ad slot

Phát triển Bộ xử lý Cơ sở hạ tầng (IPU)

Bên cạnh việc sử dụng các CPU Xeon 6, Google và Intel cũng tái khẳng định việc hợp tác phát triển một loại chip mới gọi là Bộ xử lý Cơ sở hạ tầng (IPU). Đây là một bộ tăng tốc lập trình được thiết kế để tối ưu hóa các chức năng phụ trợ của hệ thống.

Theo thông tin từ Intel, IPU được sử dụng để:

  • Giảm tải các chức năng mạng (networking).
  • Quản lý lưu trữ (storage).
  • Xử lý các tác vụ bảo mật (security).

IPU giúp các trung tâm dữ liệu tận dụng CPU chính hiệu quả hơn bằng cách đảm nhận các nhiệm vụ 'overhead' (quản lý phụ trợ) như định tuyến lưu lượng mạng, mã hóa dữ liệu và chạy phần mềm ảo hóa.

Bối cảnh thị trường và đối thủ cạnh tranh

Trong bối cảnh này, Intel đang đẩy mạnh chiến lược tái cấu trúc và hợp tác. Công ty đã nhận được nhiều khoản đầu tư lớn và đang tập trung vào việc sản xuất các chip tiên tiến trên đất Mỹ. Trong khi đó, Google cũng duy trì các giải pháp nội bộ của riêng mình, bao gồm:

  • TPU (Tensor Processor Unit): Bộ tăng tốc AI tùy chỉnh mà Google đã phát triển trong hơn một thập kỷ.
  • Axion: Bộ xử lý tùy chỉnh dựa trên kiến trúc Arm, mà Google đã bắt đầu tự sản xuất vào năm 2024, thay thế kiến trúc x86 truyền thống của Intel.
Ad slot