Công ty AI Anthropic đưa ra cảnh báo nghiêm trọng về rủi ro an ninh mạng từ thế hệ mô hình tiếp theo, cho rằng chúng có thể tạo ra một "thời điểm bước ngoặt" cho các cuộc tấn công mạng.
Cảnh báo từ các công ty AI hàng đầu
- Anthropic cảnh báo mô hình sắp ra mắt Mythos và các mô hình tương lai có thể khai thác lỗ hổng với tốc độ chưa từng có.
- OpenAI cũng đánh giá rủi ro an ninh mạng từ mô hình sắp tới là ở mức "cao".
- Theo một bài blog bị rò rỉ, Anthropic cho biết Mythos hiện vượt trội về khả năng an ninh mạng nhưng cũng báo trước một làn sóng mô hình có thể vượt xa khả năng phòng thủ.
Mối đe dọa từ AI agents tự động
- Các chuyên gia nhấn mạnh đặc biệt nguy cơ từ AI agents (tác nhân AI tự động), có thể liên tục quét và khai thác lỗ hổng.
- Shlomo Kramer, CEO Cato Networks, mô tả đây là "sự kiện bước ngoặt" trong lịch sử an ninh mạng, khi một AI agent có thể thay thế hàng trăm hacker con người.
Bằng chứng từ các vụ tấn công thực tế
- Tháng 1/2024: Một hacker nói tiếng Nga sử dụng Claude (Anthropic) và DeepSeek để tấn công hơn 600 thiết bị tại 55+ quốc gia, bất chấp kỹ năng kỹ thuật hạn chế.
- Tháng 2/2024: Claude được dùng trong loạt vụ tấn công vào cơ quan chính phủ Mexico, đánh cắp dữ liệu thuế và cử tri.
Cuộc đua an ninh mạng: Hai lưỡi kiếm
- Mặt tấn công: AI đơn giản hóa kỹ thuật, trao "siêu năng lực" cho hacker ở mọi cấp độ, cho phép khai thác lỗ hổng gần như ngay sau khi phát hiện.
- Mặt phòng thủ: Cũng với AI, các hệ thống có thể giám sát liên tục, phát hiện đe dọa nhanh hơn và tự động vá lỗ hổng ở quy mô lớn.
- Chuyên gia lưu ý: Tấn công chỉ cần tìm một lối vào, trong khi phòng thủ phải bảo vệ mọi mặt. Sự chênh lệch này khiến cuộc đua trở nên khốc liệt hơn.
