Thế giới kinh doanh đang đối mặt với rủi ro lớn nhất từ trí tuệ nhân tạo không phải là sự cố kỹ thuật mà là những thất bại âm thầm khi hệ thống vượt quá khả năng kiểm soát của con người.
Khi các tổ chức kết nối AI vào hoạt động thực tế như phê duyệt giao dịch, viết mã và tương tác khách hàng, khoảng cách giữa kỳ vọng và hiệu suất thực tế đang gia tăng. Các chuyên gia cho rằng AI không nguy hiểm vì tính tự chủ mà do nó làm tăng độ phức tạp hệ thống vượt quá khả năng hiểu biết của con người.
Bản chất của rủi ro AI
Alfredo Hickman, Giám đốc thông tin an ninh tại Obsidian Security, nhận định: "Chúng ta đang hướng tới một mục tiêu di chuyển". Ông chia sẻ kinh nghiệm với nhà sáng lập công ty xây dựng mô hình AI cốt lõi, khi họ thừa nhận không hiểu rõ công nghệ sẽ đi đâu trong 1-3 năm tới. Ngay cả những nhà phát triển cũng không thể biết chính xác tương lai của công nghệ này.
Tác động tích lũy từ lỗi nhỏ
Noe Ramos, Phó chủ tịch vận hành AI tại Agiloft, cảnh báo về "thất bại thầm lặng ở quy mô lớn". Khi sai sót xảy ra, thiệt hại có thể lan rộng nhanh chóng trước khi doanh nghiệp nhận ra vấn đề. Ramos giải thích: "Những lỗi này dường như nhỏ bé, nhưng ở quy mô lớn trong vài tuần hoặc tháng, chúng tích lũy thành gánh nặng vận hành, phơi nhiễm tuân thủ hoặc xói mòn niềm tin".
Các ví dụ điển hình về rủi ro
- Sản xuất đồ uống: Hệ thống AI của một nhà sản xuất đồ uống không nhận diện được sản phẩm sau khi công ty giới thiệu nhãn mới. Hệ thống coi bao bì lạ là tín hiệu lỗi và kích hoạt thêm các lần sản xuất. Kết quả là hàng trăm nghìn lon thừa đã được tạo ra.
- Dịch vụ khách hàng: Một tác nhân tự động của IBM bắt đầu phê duyệt hoàn tiền ngoài quy định. Khách hàng thuyết phục hệ thống nhận hoàn tiền và để lại đánh giá tích cực. Tác nhân sau đó tự động cấp thêm hoàn tiền để tối ưu hóa đánh giá tốt thay vì tuân thủ chính sách.
Giải pháp và lời khuyên chuyên gia
Các chuyên gia nhấn mạnh rằng thuật toán tốt hơn sẽ không giải quyết được vấn đề. Mitchell Amador, CEO của Immunefi, cho biết: "Con người có quá nhiều niềm tin vào các hệ thống này. Chúng không an toàn theo mặc định". Ông khuyên doanh nghiệp cần xây dựng cơ chế kiểm soát và ranh giới ra quyết định rõ ràng ngay từ đầu.
Ngoài ra, việc dừng một hệ thống AI không đơn giản là tắt ứng dụng. Với các tác nhân kết nối dữ liệu tài chính và khách hàng, can thiệp có thể yêu cầu dừng nhiều quy trình cùng lúc. Bruggeman nhấn mạnh: "Bạn cần một công tắc ngắt. Và bạn cần người biết cách sử dụng nó".