05/05/2026
Samsung tăng tốc roadmap HBM5: Hướng tới 2nm và mở rộng vai trò trong hệ sinh thái AI
Ngay khi HBM4 vừa bước vào giai đoạn sản xuất hàng loạt, Samsung đã nhanh chóng hé lộ những bước đi tiếp theo trong cuộc đua bộ nhớ cho AI. Với định hướng chuyển sang tiến trình 2nm cho HBM5 và đẩy mạnh sản lượng HBM, hãng đang cho thấy tham vọng dẫn dắt thị trường trong kỷ nguyên tính toán hiệu năng cao.
Theo thông tin công bố tại NVIDIA GTC, Samsung dự kiến sử dụng base die 2nm cho HBM5, thay thế nền tảng 4nm đang dùng trên HBM4 và HBM4E. Đây được xem là bước tiến quan trọng nhằm nâng cao hiệu năng và hiệu suất năng lượng cho các hệ thống AI thế hệ mới.
Không dừng lại ở đó, phiên bản HBM5E sẽ tích hợp DRAM thế hệ 1d làm bộ nhớ xếp chồng. Dù công nghệ này kéo theo chi phí cao hơn, việc áp dụng tiến trình tiên tiến là cần thiết để đáp ứng yêu cầu ngày càng khắt khe của các workload AI. Hiện tại, dòng HBM4 vẫn đang sử dụng DRAM 1c, trong khi 1d DRAM vẫn đang được hoàn thiện trước khi thương mại hóa.
![]()
Song song với lộ trình công nghệ, Samsung cũng đặt mục tiêu tăng mạnh sản lượng HBM. HBM4 được kỳ vọng sẽ chiếm hơn 50% tổng sản lượng HBM của hãng trong thời gian tới, trong khi tổng sản lượng HBM năm nay dự kiến tăng hơn 3 lần so với năm trước.
Một điểm đáng chú ý khác là việc Samsung mở rộng vai trò trong hệ sinh thái của NVIDIA. Tại nhà máy Pyeongtaek, hãng đang tham gia sản xuất chip “Groq 3” chuyên cho inference, với kế hoạch sản xuất hàng loạt từ cuối quý 3 đến đầu quý 4. Đáng chú ý, thiết kế chip này có kích thước lớn trên 700 mm², khiến số lượng chip trên mỗi wafer giảm mạnh, đồng thời sử dụng tỷ lệ SRAM rất cao để tối ưu xử lý ngay trên chip.
Việc tham gia sâu hơn vào sản xuất chip AI cho thấy Samsung không chỉ dừng lại ở vai trò cung cấp bộ nhớ, mà đang từng bước mở rộng sang toàn bộ chuỗi giá trị của hạ tầng AI. Đây được xem là bước đi chiến lược nhằm củng cố vị thế trong cuộc cạnh tranh công nghệ đang ngày càng khốc liệt.

