Thứ Ba, ngày 20 tháng 04 năm 2026
LG Uplus xây dựng nền tảng AI trên AWS, tối ưu hóa GPU và tự động hóa vận hành

LG Uplus xây dựng nền tảng AI trên AWS, tối ưu hóa GPU và tự động hóa vận hành

Ryu Cheongbit 09:36 10-04-2026
Tích hợp toàn bộ quá trình phát triển, triển khai và vận hành AI, tăng cường độ ổn định dịch vụ Đối phó với sự mở rộng của AI tạo sinh, cải thiện hiệu quả hạ tầng AI
Heo Seol, Trưởng nhóm phát triển MLOps của LG Uplus, phát biểu tại sự kiện Ngày Ứng dụng Hiện đại 2026.
Heo Seol, Trưởng nhóm phát triển MLOps của LG Uplus, phát biểu tại sự kiện Ngày Ứng dụng Hiện đại 2026. [Ảnh=LG Uplus]

[Kinh tế Nhật báo] Các nhà mạng di động trong nước đang tăng tốc nâng cao hạ tầng để củng cố năng lực dịch vụ AI. Với sự mở rộng của dịch vụ AI tạo sinh, chi phí vận hành mô hình và gánh nặng hạ tầng tăng lên, dẫn đến việc tích hợp toàn bộ quá trình từ phát triển đến vận hành dịch vụ AI.


Ngày 10 tháng 4, LG Uplus đã công bố tại sự kiện 'Ngày Ứng dụng Hiện đại 2026' do AWS tổ chức về việc xây dựng nền tảng vận hành mô hình AI ổn định cho dịch vụ thực tế.


Sự kiện tập trung vào tự động hóa vận hành hạ tầng sử dụng AI tạo sinh và công nghệ agent. LG Uplus đã chuyển đổi môi trường phát triển AI từ on-premises sang cấu trúc lai kết hợp với đám mây, kết nối hiệu quả toàn bộ quá trình từ phát triển đến vận hành dịch vụ AI.


Nền tảng này giảm thiểu sự gián đoạn giữa các giai đoạn phát triển và vận hành mô hình AI. Trước đây, quá trình học, đánh giá, triển khai và vận hành mô hình AI diễn ra riêng lẻ, gây tốn thời gian và công sức. LG Uplus đã thiết kế cấu trúc để áp dụng mô hình AI vào dịch vụ nhanh hơn.


LG Uplus hướng tới việc duy trì 'trạng thái sẵn sàng của mô hình', cho phép áp dụng AI vào dịch vụ bất kỳ lúc nào. Toàn bộ quá trình từ thu thập dữ liệu, học, đánh giá, triển khai đến vận hành được kết nối thành một đường ống, tạo điều kiện cho nhà phát triển và vận hành sử dụng AI trong môi trường nhất quán.


Để đạt được điều này, LG Uplus đã áp dụng kiến trúc hạ tầng lai dựa trên dịch vụ Kubernetes quản lý của AWS, 'Amazon EKS'. Họ tích hợp hạ tầng GPU on-premises vào các nút lai của cụm Amazon EKS và vận hành mặt phẳng điều khiển Kubernetes như một dịch vụ hoàn toàn quản lý của AWS, giảm gánh nặng vận hành hạ tầng và tập trung vào cải thiện độ ổn định và chất lượng dịch vụ.


Cách sử dụng tài nguyên GPU cũng được cải thiện. Trước đây, GPU thường được phân bổ cố định theo thiết bị, nhưng LG Uplus áp dụng cấu trúc phân bổ linh hoạt theo nhu cầu, giảm thời gian không sử dụng GPU và tối ưu hóa tài nguyên cho học mô hình AI và vận hành dịch vụ.


Với sự mở rộng của dịch vụ AI tạo sinh, tầm quan trọng của vận hành mô hình AI và quản lý hạ tầng ngày càng tăng. Đặc biệt, trong quá trình áp dụng mô hình AI vào dịch vụ thực tế, độ ổn định vận hành và hiệu quả chi phí trở thành yếu tố cạnh tranh chính, khiến việc xây dựng nền tảng vận hành AI trở thành yếu tố cốt lõi để củng cố năng lực cạnh tranh của nhà mạng.


Các nhà mạng đang chuyển từ cấu trúc kinh doanh tập trung vào dịch vụ viễn thông sang mở rộng dịch vụ dựa trên AI. Do đó, việc xây dựng nền tảng tích hợp bao gồm phát triển mô hình AI, vận hành dịch vụ và quản lý hạ tầng trở thành nhiệm vụ quan trọng.


LG Uplus có kế hoạch cung cấp dịch vụ AI nhanh hơn và đồng thời cải thiện độ ổn định và chất lượng vận hành thông qua nền tảng mới này. Đặc biệt, họ sẽ tăng cường năng lực cạnh tranh dịch vụ AI thông qua môi trường phát triển AI bao gồm từ thu thập dữ liệu, phát triển mô hình, triển khai, vận hành đến quản lý tài nguyên GPU.


Ông Kwon Ki-deok, Trưởng phòng AX Engineering Lab của LG Uplus, cho biết: "LG Uplus đang tăng cường năng lực nền tảng kỹ thuật dựa trên vòng đời phát triển AI (AI-DLC) bao gồm từ thu thập dữ liệu, phát triển, triển khai, vận hành đến quản lý GPU để thúc đẩy dịch vụ AX. Chúng tôi sẽ tiếp tục nâng cao chất lượng dịch vụ AI và độ ổn định vận hành thông qua hợp tác kỹ thuật với AWS."





* Bài viết này được dịch tự động bằng AI.