
SK Hynix đã bắt đầu sản xuất hàng loạt bộ nhớ SOCAMM dành cho CPU AI, được tối ưu hóa cho nền tảng AI thế hệ mới của Nvidia, 'Vera Rubin'. Sản phẩm SOCAMM2 192GB này được thiết kế để giảm tắc nghẽn bộ nhớ và tăng tốc độ xử lý hệ thống trong quá trình học và suy luận của các mô hình AI lớn.
SOCAMM2 sử dụng DRAM LPDDR5X thế hệ thứ 6 (1c) 10nm, vốn được dùng trong các thiết bị di động, nhưng đã được điều chỉnh để phù hợp với môi trường máy chủ. Sản phẩm này dự kiến sẽ được sử dụng chủ yếu trong các máy chủ AI thế hệ mới của Nvidia và AMD.
SOCAMM2 có băng thông gấp đôi và hiệu suất năng lượng cải thiện hơn 75% so với RDIMM hiện tại. Nó hoạt động như một quản lý trung gian giữa bộ nhớ HBM và DDR, nâng cao hiệu quả xử lý dữ liệu AI. Trong hệ thống Vera Rubin, CPU Vera kết nối với SOCAMM2 và GPU Rubin kết nối với HBM4 để vận hành AI.
Việc phổ biến SOCAMM2 có thể giảm đáng kể gánh nặng điện năng và làm mát cho các trung tâm dữ liệu AI toàn cầu. SK Hynix cho biết, "SOCAMM2 áp dụng cấu trúc mô-đun dựa trên kết nối ép, giảm lỗi tín hiệu và dễ dàng thay thế, mở rộng bộ nhớ hơn so với phương pháp on-board trước đây."
Ông Kim Joo-sun, Chủ tịch hạ tầng AI của SK Hynix, phát biểu: "Chúng tôi hợp tác với Nvidia để giải quyết tắc nghẽn hạ tầng AI và cung cấp hiệu suất tối ưu, đồng thời đặt ra tiêu chuẩn mới cho hiệu suất bộ nhớ AI với sản phẩm SOCAMM2 192GB."
* Bài viết này được dịch tự động bằng AI.
© Bản quyền thuộc về Thời báo Kinh tế AJU & www.ajunews.com: Việc sử dụng các nội dung đăng tải trên vietnam. kyungjeilbo.com phải có sự đồng ý bằng văn bản của Aju News Corporation.



