Thứ Ba, ngày 19 tháng 04 năm 2026
Anthropic khởi động thương mại hóa 'Mythos', chuyên gia cảnh báo nguy cơ tấn công mạng

Anthropic khởi động thương mại hóa 'Mythos', chuyên gia cảnh báo nguy cơ tấn công mạng

Kim Seong Hyeon 19:06 19-04-2026
Khả năng tấn công mạng thấp hơn 'Opus 4.7' 'Safeguard' được áp dụng để ngăn chặn lạm dụng hack, nhưng nếu bị loại bỏ sẽ là thảm họa
Ảnh từ trang chủ Anthropic
[Ảnh=Trang chủ Anthropic]


Anthropic đã công bố mô hình AI mới, đánh dấu bước đầu tiên trong việc thương mại hóa 'Mythos'. Để đối phó với lo ngại từ cộng đồng quốc tế về khả năng tấn công mạng, công ty đã áp dụng công nghệ 'Safeguard'.

Theo ngành công nghệ thông tin, Anthropic đã ra mắt 'Claude Opus 4.7'. Opus 4.7 được phát hành chính thức trên các nền tảng như API, Amazon Bedrock, Google Cloud Vertex AI và Microsoft Foundry. Giá cả vẫn giữ nguyên như Opus 4.6 với 5 USD cho mỗi triệu token đầu vào và 25 USD cho mỗi triệu token đầu ra.

Anthropic khẳng định rằng việc ra mắt này không chỉ là nâng cấp hiệu suất mà còn là 'kiểm chứng Safeguard'. Theo công ty, để thương mại hóa rộng rãi mô hình Mythos, cần chứng minh Safeguard hoạt động hiệu quả trong môi trường thực tế. Safeguard là công nghệ ngăn chặn AI bị lạm dụng cho các mục đích an ninh mạng nguy hiểm. Opus 4.7 là mô hình đầu tiên kiểm chứng Safeguard trong thực tế.

Safeguard trong Opus 4.7 gồm ba lớp: điều chỉnh nội bộ để giảm khả năng tấn công mạng trong giai đoạn huấn luyện, hệ thống lọc phát hiện và chặn yêu cầu nguy hiểm trong thời gian thực, và chương trình kiểm chứng mạng chỉ cho phép người dùng hợp pháp tiếp cận các chức năng nhạy cảm. Anthropic cho biết Opus 4.7 được huấn luyện để có khả năng tấn công mạng thấp hơn Mythos, do đó phù hợp làm mô hình thử nghiệm Safeguard.

Tuy nhiên, có nhiều nghi ngờ về hiệu quả của Safeguard. Trung tâm An ninh Công nghệ Mới nổi (CETAS) thuộc Viện Alan Turing ở Anh cho rằng Safeguard chỉ có thể phát hiện các yêu cầu rõ ràng như 'viết mã hack', nhưng dễ bị lách qua bằng các phương pháp tiếp cận gián tiếp hoặc từng bước.

Một vấn đề khác là Safeguard chỉ áp dụng cho mô hình do Anthropic vận hành. Các mô hình mã nguồn mở, có thể tải về và chạy trên máy chủ riêng, không bị ảnh hưởng. Khi Google công bố mô hình mã nguồn mở 'Gemma 4' vào tháng 4, các phiên bản không kiểm duyệt đã xuất hiện chỉ sau vài ngày. CETAS cảnh báo rằng mô hình mã nguồn mở có thể là mối đe dọa an ninh mạng nghiêm trọng hơn so với mô hình đóng.

Vai trò của Opus 4.7 được chú ý vì tác động của Mythos. Anthropic đã công bố 'Dự án Glasswing' vào ngày 7 tháng 4, chính thức giới thiệu Mythos nhưng không công khai rộng rãi do lo ngại về an ninh mạng. Đây là lần đầu tiên một mô hình AI bị cấm công khai vì lý do này.

Theo Hội đồng Quan hệ Đối ngoại Mỹ (CFR), Mythos có thể tạo ra mã độc chỉ với lệnh đơn giản từ kỹ sư không được huấn luyện về an ninh. Một số trường hợp AI tự thoát khỏi môi trường an toàn và kết nối internet đã được báo cáo. Đánh giá độc lập từ Viện Nghiên cứu An toàn AI Anh (AISI) cho thấy mô hình này giải quyết các bài toán an ninh mạng ở mức chuyên gia với tỷ lệ thành công 73%.

CETAS cũng chỉ trích khoảng trống quản trị, cho rằng dựa vào thỏa thuận đối tác của một công ty duy nhất như 'Dự án Glasswing' không thể là giải pháp cuối cùng. 12 đối tác của Anthropic trong dự án này chủ yếu là các công ty công nghệ lớn của Mỹ và toàn cầu như Amazon Web Services, Apple, Google, Microsoft, Nvidia, không có công ty Hàn Quốc nào trong danh sách.



* Bài viết này được dịch tự động bằng AI.