Giải pháp
12/02/2026
Chia Sẻ RAM giữa các server: Cách CXL và OpenCAPI thay đổi cuộc chơi
Ngành công nghiệp đang chờ đợi bộ nhớ tách rời và chia sẻ giữa nhiều máy chủ trở thành tiêu chuẩn. Tuy nhiên, không phải ai cũng muốn đợi đến khi PCI-Express 6.0, 7.0 hay CXL 3.0 hoàn thiện toàn bộ khả năng sharing ở cấp độ rack hoặc cluster. Một hướng tiếp cận thực tế hơn là tận dụng các công nghệ đã sẵn sàng, kết hợp CXL ở phía máy chủ với OpenCAPI ở phía bộ nhớ, liên kết qua hệ thống switching PCI-Express. Mục tiêu là tạo ra thiết bị memory appliance có thể mở rộng đến...
12/02/2026
TORmem AI Edge Systems: Hiệu năng Inference cấp doanh nghiệp không cần hạ tầng quá mức
AI inference đang dịch chuyển từ trung tâm dữ liệu về gần nơi dữ liệu được tạo ra. Doanh nghiệp,...
06/02/2026
FusionPoD cho AI – Máy chủ làm mát bằng chất lỏng ở quy mô rack
FusionPoD cho AI là giải pháp máy chủ làm mát bằng chất lỏng quy mô rack, áp dụng thiết kế...
02/02/2026
Giải pháp làm mát bằng chất lỏng trực tiếp GIGABYTE (GIGABYTE Direct Liquid Cooling Solution)
Giải pháp Direct Liquid Cooling của GIGABYTE tập trung vào những đột phá đổi mới cho AI, HPC và điện...
28/01/2026
Vì sao hạ tầng compute/GPU/storage truyền thống ngày càng “đốt tiền” và cách giải bài toán bộ nhớ
Sự bùng nổ của AI, phân tích dữ liệu thời gian thực và các workload data-centric đang đẩy bộ nhớ...
28/01/2026
KV Cache đang trở thành “nút thắt cổ chai” thật sự của AI Inference
Trong thời gian gần đây, khi ngày càng nhiều hệ thống AI inference được triển khai ở quy mô lớn,...
28/01/2026
Kỷ nguyên scale-out đang chạm trần: Khi AI buộc hạ tầng phải xoay trục sang memory-centric
Scale-out đang đi tới giới hạn tự nhiên Trong hơn một thập kỷ, scale-out mở rộng theo chiều ngang gần...



