Nhu cầu bộ nhớ cho phần cứng AI đang tăng rất nhanh, ở GPU và nay lan mạnh sang cả CPU. Theo thông tin từ nguồn trong ngành được SE Daily dẫn lại, các hãng làm CPU đang tính đến phương án trang bị cho CPU phục vụ AI mức bộ nhớ 300 – 400 GB, cao hơn nhiều so với khoảng 96 – 256 GB DRAM thường thấy trên mỗi chip hiện nay. Xu hướng này được cho là sẽ khiến sức ép lên chuỗi cung ứng DRAM ngày càng nặng hơn trong bối cảnh nguồn cung vẫn chưa theo kịp nhu cầu.
Các nhà sản xuất bộ nhớ hiện hưởng lợi lớn về doanh thu, nhưng đồng thời cũng chưa thể đáp ứng hết lượng đặt hàng. Nhiều hãng đã đẩy nhanh kế hoạch mở rộng nhà máy, song các cơ sở mới vẫn chưa đi vào hoạt động. Samsung thậm chí cho rằng tình hình của ngành DRAM trong năm 2027 có thể còn căng hơn năm 2026. Điều đó cho thấy nguy cơ thiếu hụt DRAM có thể còn kéo dài chừng nào làn sóng AI vẫn tiếp tục tăng nhiệt.
Sự thay đổi lần này gắn với Agentic AI, khi loại mô hình này đòi hỏi năng lực xử lý cao hơn. Trước đây, trung tâm dữ liệu dùng AI thường có tỷ lệ GPU nhiều hơn CPU rất lớn, vào khoảng 8:1. Nay con số đó đã giảm còn 4:1 và trong thời gian tới có thể tiến gần mức 1:1. Nói cách khác, CPU đang trở thành phần cứng được chú ý nhiều hơn, thay vì chỉ đóng vai phụ bên cạnh GPU như trước.
Dù các thuật toán nén đã phần nào giúp giảm áp lực liên quan đến vùng nhớ đệm KV cache, nhu cầu bộ nhớ tổng thể vẫn tiếp tục đi lên. Vì vậy, giới sản xuất đang phải tính đến việc tăng mạnh dung lượng bộ nhớ cho nhóm CPU chuyên xử lý AI. Bản tin của SE Daily chưa nói rõ loại bộ nhớ nào sẽ được dùng trong mốc 300 – 400 GB nói trên. Hiện các nền tảng CPU có thể hỗ trợ tổng dung lượng 4 – 8 TB thông qua DIMM cho cả hệ thống, nhưng đây là bộ nhớ gắn rời ở cấp nền tảng chứ không phải bộ nhớ đi kèm trực tiếp từng chip. Công nghệ MRDIMM sắp tới được kỳ vọng giúp tăng cả dung lượng lẫn băng thông, nhưng về bản chất vẫn là DRAM tách biệt.
Cuộc đua dung lượng bộ nhớ vì thế không còn bó hẹp trong thế giới GPU. NVIDIA chuẩn bị đưa ra chip AI thế hệ mới Vera Rubin với 288 GB HBM từ tám chip bộ nhớ. Ở phía AMD, GPU MI400 được nhắc đến với dung lượng còn lớn hơn, đạt 432 GB. Google cũng vừa công bố TPU thế hệ thứ 8, trong đó phiên bản TPU 8i được cho là sẽ có 288 GB HBM. Khi Intel Xeon và AMD Epyc cho AI bắt đầu dùng DDR5 dung lượng cao tới 400 GB, áp lực thiếu bộ nhớ được dự báo sẽ chưa thể hạ nhiệt.
Một khả năng được đặt ra là một số phiên bản CPU trong tương lai có thể đóng gói kèm HBM, hoặc dùng các chuẩn bộ nhớ mới như HBF hay ZAM đang được phát triển. AMD từng có phiên bản EPYC dùng HBM, vì vậy đây không phải hướng đi hoàn toàn mới. Cách đơn giản hơn là tăng mạnh dung lượng trên mỗi DIMM. Nếu xuất hiện DIMM 400 GB, chỉ riêng một thanh bộ nhớ đã vượt dung lượng của nhiều GPU hiện nay như NVIDIA GB300 hay AMD MI350X, vốn đang ở mức 288 GB HBM3E. Các thế hệ sau còn có thể tiếp tục tăng nhờ chuẩn HBM4 mới.
Vấn đề là càng đẩy mạnh các loại DRAM mật độ cao, nguy cơ thiếu hàng ở các dòng thấp hơn càng rõ. Samsung trước đó đã ngừng sản xuất LPDDR4 để chuyển sang LPDDR5 có lợi nhuận tốt hơn. Với DDR5, thị trường cũng có nhiều biến thể phục vụ các mục đích khác nhau. Nếu ngày càng nhiều dây chuyền phải ưu tiên chip bộ nhớ cao cấp cho AI, các dòng phổ thông sẽ có ít năng lực sản xuất hơn, từ đó khiến tình trạng khan hàng lan sang nhiều phân khúc ngoài AI và kéo giá tăng thêm.
Nguồn: GenK


