[Phần 1] Toàn cảnh Keynote Google Cloud Next 2025: AI, đột phá và chiến lược | CMC Telecom

[Phần 1] Toàn cảnh Keynote Google Cloud Next 2025: AI, đột phá và chiến lược

Apr 14, 2025
-
22 views

Nếu các khách hàng đã và đang làm tech và đặc biệt làm với các nền tảng cloud, thì đều biết rằng mỗi năm, các cloud provider đều sẽ tổ chức các event lớn để cập nhật và công bố các xu hướng công nghệ mới cho hệ sinh thái của cloud đó. Với AWS có re:Invent, Microsoft có Ignite, và tuần này, Google đang tổ chức Google Cloud Next 2025 – event lớn nhất năm cho hệ sinh thái Google Cloud. Mục tiêu chính của các event này giới thiệu sản phẩm, dịch vụ, công nghệ mới, cũng như cung cấp sân chơi cho các khách hàng, partner và cộng đồng có thể giao lưu học hỏi lẫn nhau. Ngoài ra, các sự kiện này còn là một chỉ báo rất quan trọng về việc các big tech đang đầu tư và đặt cược vào các xu hướng công nghệ nào.

Năm ngoái, Thomas Kurian – CEO Google Cloud, trong keynote mở đầu event của Next 2024, đã thể hiện rõ ràng rằng: Google đang bằng mọi cách lấy lại vị thế về AI của mình, và đặt cược vào Gemini – LLM in-house của hãng, cũng như phát triển các custom chip, đầu tư vào hạ tầng phần cứng + tích hợp Gemini vào mọi thứ có thể, từ Google Workspace tới Google Cloud.

Và tất nhiên, keynote năm nay từ đầu đến cuối toàn những update về AI. Hãy cùng CMC Telecom điểm lại các công bố tại Keynote năm nay:

1. AI Hypercomputer – Các nâng cấp về hạ tầng phần cứng / Software

Các cải tiến và nâng cấp về hạ tầng cho AI Hypercomputer bao gồm:

Về custom chip, Google cho ra lò TPU Ironwood (Thế hệ thứ 7): đây là TPU mạnh nhất từ trước đến nay của Google, được thiết kế chuyên biệt cho AI Inference (suy luận), với các cải tiến vượt bậc:

  • Hiệu năng vượt trội: Tăng gấp 5 lần năng lực tính toán so với Trillium, tăng gấp 6 lần dung lượng bộ nhớ HBM (High-Bandwidth Memory), giúp xử lý dữ liệu nhanh hơn.
  • Hai tùy chọn cấu hình: 256 chip: dành cho các tác vụ vừa và lớn. 9.216 chip: cấu hình siêu lớn, tạo thành một pod duy nhất với hiệu suất 42.5 exaFLOPS, thuộc hàng mạnh nhất thế giới.
  • Tiết kiệm điện gấp 2 lần so với Trillium, mang lại hiệu quả chi phí cao hơn cho mỗi watt tiêu thụ.
  • Hỗ trợ tốt cho các framework AI phổ biến như PyTorch và JAX, nhờ stack phần mềm đã được Google tối ưu hóa.

Về server Compute Engine, Google công bố 2 dòng VM mới chuyên dùng cho GPU NVDIA bao gồm VM A4 & A4X sử dụng GPU Blackwell B200 và GB200.

Về Network, để hỗ trợ cho các AI workload cần độ trễ cực thấp (ultra-low latency), Google nâng cấp đường Cloud Interconnect và Cross-Cloud Interconnect lên 400 gigabit/giây (400G) băng thông — nhanh gấp 4 lần so với phiên bản cũ 100G.

Về Storage, Google giới thiệu các cải tiến phục vụ cho các tác vụ AI, bao gồm:

  • Hyperdisk Exapools: block storage thế hệ mới do Google Cloud cung cấp, được thiết kế đặc biệt cho workload AI quy mô lớn. Đây là một loại Persistent Disk mới, với hiệu năng cao nhất trong các hyperscaler
  • Cloud Storage Anywhere Cache: giảm độ trễ truy xuất dữ liệu trong bucket regional của Cloud Storage đến 70%, bằng cách cache data tại 1 zone có trong region đó. Phục vụ cho AI inferencing do AI sẽ được đặt gần data hơn → tăng tốc độ inference.
  • Rapid Storage (Cloud Storage): thay vì lưu trữ phân tán trong nhiều vùng như regional bucket, Rapid Storage lưu dữ liệu tại một vùng cụ thể (zone) – là nơi đang chạy mô hình AI bằng TPU hoặc GPU, giảm thời gian truyền tải.

Còn phần 2.

CMC Telecom cam kết hỗ trợ doanh nghiệp của bạn kịp thời

Hãy gửi phản hồi và câu hỏi của bạn cho chúng tôi để được giải đáp