Giá bộ nhớ phục vụ AI có thể tiếp tục neo cao lâu hơn dự báo, do các hãng vận hành hạ tầng AI quy mô lớn vẫn xem đây là thành phần quyết định trực tiếp hiệu quả làm việc của GPU.
Một ghi chú nghiên cứu từ Công ty Chứng khoán và Đầu tư Hàn Quốc cho rằng thị trường có thể đang đánh giá thấp vai trò của bộ nhớ trong hệ thống AI. Theo nhận định này, khi dung lượng bộ nhớ tăng lên, GPU có thể được khai thác hiệu quả hơn, từ đó xử lý nhiều tác vụ hơn trong cùng một khoảng thời gian. Điều đó giúp giảm chi phí cho mỗi lần xử lý dữ liệu, nên các công ty AI sẵn sàng chi thêm tiền cho bộ nhớ thay vì chỉ tập trung vào bản thân GPU.
Lập luận chính nằm ở cách dữ liệu được đưa tới GPU. Khi hệ thống có nhiều bộ nhớ hơn, nhiều dữ liệu có thể được giữ ngay gần GPU thay vì phải chuyển qua lại từ thiết bị lưu trữ. Nhờ vậy, GPU giảm thời gian chờ, hoạt động liên tục hơn và toàn bộ hệ thống đạt hiệu suất cao hơn. Báo cáo nhấn mạnh rằng phần lợi thu được từ việc tăng mức sử dụng GPU hiện vẫn đủ lớn để bù cho giá bộ nhớ cao.
Theo công ty nghiên cứu, chính vì lý do này mà các tập đoàn cung cấp dịch vụ đám mây quy mô lớn đã đặt trước năng lực sản xuất trong thời gian dài. Xu hướng đó có thể chưa dừng lại, ngay cả khi thị trường chờ đợi giá giảm hoặc nhu cầu hạ nhiệt. Báo cáo cho biết giá DRAM hiện đã cao gấp khoảng ba lần so với cùng kỳ năm trước, nhưng mức giá này có thể vẫn duy trì do nhu cầu thực tế chưa suy yếu.
Bên cạnh DRAM, nhu cầu mạnh đối với HBM và các mô-đun bộ nhớ khác cũng kéo theo sức mua lớn hơn với NAND. Điều này đi ngược lại quan điểm cho rằng việc đưa NAND vào hệ thống AI sẽ giúp giảm áp lực cho thị trường DRAM. Theo phân tích, NAND có giá thấp hơn DRAM nên khi nhu cầu tăng rất mạnh, các doanh nghiệp vẫn có nhiều dư địa để mua thêm, khiến sức cầu khó giảm nhanh.
Tình trạng nguồn cung HBM còn chặt chẽ cũng đang thúc đẩy các hãng bộ nhớ đổi mới công nghệ. SK hynix là một trong những doanh nghiệp được nhắc tới, khi tìm cách tăng số lớp bộ nhớ trong một chip bằng các kỹ thuật đóng gói mới như liên kết lai, qua đó loại bỏ các điểm tiếp xúc bằng đồng trong cấu trúc đóng gói. Mục tiêu là tăng mật độ bộ nhớ và cải thiện hiệu quả cho các hệ thống AI thế hệ tiếp theo.
Nhìn chung, báo cáo cho rằng bộ nhớ hiện không còn là linh kiện phụ trong cơn sốt AI, mà đã trở thành yếu tố quyết định mức khai thác GPU và hiệu năng toàn hệ thống. Vì vậy, kỳ vọng giá bộ nhớ sớm hạ nhiệt có thể sẽ không dễ thành hiện thực.
Nguồn: GenK


