Tối ưu hóa nền tảng 'Vera Rubin' của Nvidia, giải quyết tắc nghẽn AI, tối đa hóa hiệu suất GPU
Bộ nhớ trung gian giữa HBM và DDR5 nổi lên, cải thiện TCO với băng thông cao và tiêu thụ điện năng thấp
![SK Hynix thông báo bắt đầu sản xuất hàng loạt sản phẩm SOCAMM2 192GB dựa trên LPDDR5X thế hệ thứ 6 (1c) 10nm vào ngày 20. [Ảnh=SK Hynix]](https://image.ajunews.com/content/image/2026/04/20/20260420084842824784.jpg)
SK Hynix đã bắt đầu sản xuất hàng loạt bộ nhớ hiệu suất cao tối ưu cho nền tảng AI thế hệ mới của Nvidia, nhằm tăng cường vị thế trong cuộc cạnh tranh hạ tầng AI.
Ngày 20, SK Hynix công bố sản xuất hàng loạt sản phẩm SOCAMM2 192GB, được thiết kế tối ưu cho nền tảng 'Vera Rubin' của Nvidia. Sản phẩm này tập trung giải quyết tắc nghẽn bộ nhớ và tăng tốc độ xử lý hệ thống trong các mô hình AI siêu lớn.
SOCAMM2 là mô-đun bộ nhớ cho máy chủ AI thế hệ mới, áp dụng DRAM LPDDR5X tiết kiệm điện năng thế hệ thứ 6 (1c) 10nm. Được tái cấu trúc từ bộ nhớ di động tiết kiệm điện, sản phẩm này nổi bật với khả năng băng thông cao, tiêu thụ điện năng thấp và khả năng thay thế mô-đun.
Sản phẩm này được tối ưu hóa cho nền tảng Vera Rubin của Nvidia, giúp giảm tắc nghẽn bộ nhớ trong quá trình học và suy luận của các mô hình AI siêu lớn, đồng thời tối đa hóa hiệu suất tính toán của GPU.
Về mặt hiệu suất, SOCAMM2 đạt băng thông gấp đôi và cải thiện hiệu suất năng lượng hơn 75% so với RDIMM cho máy chủ hiện tại. Nó đóng vai trò như một 'lớp trung gian' giữa HBM và DDR5 RDIMM, nâng cao hiệu quả xử lý dữ liệu AI.
Với cấu trúc dựa trên LPDDR, SOCAMM2 giảm đáng kể tiêu thụ điện năng, giảm chi phí điện và làm mát trong vận hành trung tâm dữ liệu. Trong bối cảnh nhu cầu điện năng của trung tâm dữ liệu tăng nhanh do mở rộng hạ tầng AI, sản phẩm này được đánh giá là giải pháp thay thế ý nghĩa về hiệu suất trên mỗi watt và tổng chi phí sở hữu (TCO).
Ngoài ra, cấu trúc mô-đun dựa trên kết nối ép giúp tăng cường độ toàn vẹn tín hiệu và dễ dàng thay thế, mở rộng hơn so với LPDDR gắn trên bo mạch. Điều này tăng cường hiệu quả vận hành và tiện lợi bảo trì máy chủ.
Ngành công nghiệp xem SOCAMM2 là bộ nhớ thế hệ mới lấp đầy khoảng trống giữa HBM và DDR5. Trong cấu trúc HBM đảm nhiệm băng thông siêu cao và DDR5 chịu trách nhiệm dung lượng lớn, SOCAMM2 với đặc tính băng thông cao và tiêu thụ điện năng thấp, đóng vai trò xử lý 'dữ liệu nóng' và bộ đệm dữ liệu trung gian, hoàn thiện cấu trúc bộ nhớ AI.
SK Hynix cho biết nhu cầu bộ nhớ tiết kiệm điện đang tăng nhanh khi thị trường AI chuyển từ học tập sang suy luận. Để đáp ứng nhu cầu của khách hàng CSP toàn cầu, công ty đã ổn định sớm hệ thống sản xuất SOCAMM2.
Kim Joo-sun, Chủ tịch hạ tầng AI của SK Hynix, cho biết: "Chúng tôi sẽ giải quyết tắc nghẽn hạ tầng AI và cung cấp hiệu suất tối ưu thông qua hợp tác chặt chẽ với Nvidia," và "Việc cung cấp SOCAMM2 192GB đã thiết lập tiêu chuẩn mới cho hiệu suất bộ nhớ AI."
Ngoài ra, SK Hynix đang tăng cường tấn công thị trường AI toàn cầu dựa trên danh mục 'bộ nhớ AI toàn diện' bao gồm HBM, DDR5, LPDDR, CXL và SOCAMM. SOCAMM2 là giải pháp bổ sung cho HBM với tiêu thụ điện năng thấp và băng thông cao, dự kiến sẽ đóng vai trò quan trọng trong chu kỳ siêu AI bộ nhớ trong tương lai.
* Bài viết này được dịch tự động bằng AI.
© Bản quyền thuộc về Thời báo Kinh tế AJU & www.ajunews.com: Việc sử dụng các nội dung đăng tải trên vietnam. kyungjeilbo.com phải có sự đồng ý bằng văn bản của Aju News Corporation.



