Giải pháp

12/02/2026

Chia Sẻ RAM giữa các server: Cách CXL và OpenCAPI thay đổi cuộc chơi

Ngành công nghiệp đang chờ đợi bộ nhớ tách rời và chia sẻ giữa nhiều máy chủ trở thành tiêu chuẩn. Tuy nhiên, không phải ai cũng muốn đợi đến khi PCI-Express 6.0, 7.0 hay CXL 3.0 hoàn thiện toàn bộ khả năng sharing ở cấp độ rack hoặc cluster. Một hướng tiếp cận thực tế hơn là tận dụng các công nghệ đã sẵn sàng, kết hợp CXL ở phía máy chủ với OpenCAPI ở phía bộ nhớ, liên kết qua hệ thống switching PCI-Express. Mục tiêu là tạo ra thiết bị memory appliance có thể mở rộng đến...

12/02/2026

TORmem AI Edge Systems: Hiệu năng Inference cấp doanh nghiệp không cần hạ tầng quá mức

AI inference đang dịch chuyển từ trung tâm dữ liệu về gần nơi dữ liệu được tạo ra. Doanh nghiệp,...

06/02/2026

FusionPoD cho AI – Máy chủ làm mát bằng chất lỏng ở quy mô rack

FusionPoD cho AI là giải pháp máy chủ làm mát bằng chất lỏng quy mô rack, áp dụng thiết kế...

02/02/2026

Giải pháp làm mát bằng chất lỏng trực tiếp GIGABYTE (GIGABYTE Direct Liquid Cooling Solution)

Giải pháp Direct Liquid Cooling của GIGABYTE tập trung vào những đột phá đổi mới cho AI, HPC và điện...

28/01/2026

Vì sao hạ tầng compute/GPU/storage truyền thống ngày càng “đốt tiền” và cách giải bài toán bộ nhớ

Sự bùng nổ của AI, phân tích dữ liệu thời gian thực và các workload data-centric đang đẩy bộ nhớ...

28/01/2026

KV Cache đang trở thành “nút thắt cổ chai” thật sự của AI Inference

Trong thời gian gần đây, khi ngày càng nhiều hệ thống AI inference được triển khai ở quy mô lớn,...

28/01/2026

Kỷ nguyên scale-out đang chạm trần: Khi AI buộc hạ tầng phải xoay trục sang memory-centric

Scale-out đang đi tới giới hạn tự nhiên Trong hơn một thập kỷ, scale-out mở rộng theo chiều ngang gần...