Thứ Ba, ngày 20 tháng 04 năm 2026
SK Hynix bắt đầu sản xuất SOCAMM2 cho Nvidia

SK Hynix bắt đầu sản xuất SOCAMM2 cho Nvidia

SEONGJUN JO 18:06 20-04-2026
Sản xuất hàng loạt bộ nhớ dành riêng cho CPU AI, ưu tiên cung cấp cho Nvidia Băng thông gấp đôi và hiệu suất năng lượng cải thiện 75% so với bộ nhớ máy chủ hiện tại Cuộc cạnh tranh thị trường CPU AI giữa Samsung và SK Hynix bắt đầu
Sản phẩm SOCAMM2 192GB của SK Hynix dựa trên DRAM LPDDR5X thế hệ thứ 6 (1c) 10nm.
Sản phẩm SOCAMM2 192GB của SK Hynix dựa trên DRAM LPDDR5X thế hệ thứ 6 (1c) 10nm. [Ảnh=SK Hynix]

SK Hynix đã bắt đầu sản xuất hàng loạt bộ nhớ SOCAMM dành cho CPU AI, được tối ưu hóa cho nền tảng AI thế hệ mới của Nvidia, 'Vera Rubin'. Sản phẩm SOCAMM2 192GB này được thiết kế để giảm tắc nghẽn bộ nhớ và tăng tốc độ xử lý hệ thống trong quá trình học và suy luận của các mô hình AI lớn.


SOCAMM2 sử dụng DRAM LPDDR5X thế hệ thứ 6 (1c) 10nm, vốn được dùng trong các thiết bị di động, nhưng đã được điều chỉnh để phù hợp với môi trường máy chủ. Sản phẩm này dự kiến sẽ được sử dụng chủ yếu trong các máy chủ AI thế hệ mới của Nvidia và AMD.


SOCAMM2 có băng thông gấp đôi và hiệu suất năng lượng cải thiện hơn 75% so với RDIMM hiện tại. Nó hoạt động như một quản lý trung gian giữa bộ nhớ HBM và DDR, nâng cao hiệu quả xử lý dữ liệu AI. Trong hệ thống Vera Rubin, CPU Vera kết nối với SOCAMM2 và GPU Rubin kết nối với HBM4 để vận hành AI.


Việc phổ biến SOCAMM2 có thể giảm đáng kể gánh nặng điện năng và làm mát cho các trung tâm dữ liệu AI toàn cầu. SK Hynix cho biết, "SOCAMM2 áp dụng cấu trúc mô-đun dựa trên kết nối ép, giảm lỗi tín hiệu và dễ dàng thay thế, mở rộng bộ nhớ hơn so với phương pháp on-board trước đây."


Ông Kim Joo-sun, Chủ tịch hạ tầng AI của SK Hynix, phát biểu: "Chúng tôi hợp tác với Nvidia để giải quyết tắc nghẽn hạ tầng AI và cung cấp hiệu suất tối ưu, đồng thời đặt ra tiêu chuẩn mới cho hiệu suất bộ nhớ AI với sản phẩm SOCAMM2 192GB."





* Bài viết này được dịch tự động bằng AI.