Việc tích hợp Trí tuệ Nhân tạo (AI) vào các hoạt động quân sự của Mỹ đang tăng tốc độ tác chiến chưa từng có, nhưng giới hạn pháp lý và trách nhiệm giải trình vẫn là vấn đề gây tranh cãi lớn.
AI Tăng Tốc Độ Tác Chiến Quân Sự
Trong các hoạt động quân sự gần đây, đặc biệt tại khu vực Trung Đông, quân đội Mỹ đã sử dụng AI với quy mô lớn, xử lý khối lượng dữ liệu khổng lồ từ nhiều nguồn khác nhau như vệ tinh và tình báo tín hiệu. Các công cụ AI tiên tiến đã giúp các chỉ huy xác định mục tiêu nhanh hơn đáng kể so với khả năng của con người.
- Tăng tốc độ xử lý: Các công cụ như Claude của Anthropic được sử dụng để sàng lọc dữ liệu, đánh dấu các mục tiêu tiềm năng cho các chỉ huy.
- Hệ thống tích hợp: Các hệ thống như Maven Smart System của Palantir được mô tả là có khả năng nhận diện mục tiêu và đưa chúng vào quy trình làm việc (workflow) cho các nhà lãnh đạo quân sự xem xét.
Những Lo Ngại về Trách Nhiệm Pháp Lý
Sự phụ thuộc ngày càng tăng vào AI đã làm dấy lên những câu hỏi nghiêm trọng về khả năng xảy ra sai sót và trách nhiệm khi xảy ra sự cố. Các sự cố như vụ đánh trúng trường học ở Iran đã khiến các nhà lập pháp và chuyên gia đặt vấn đề về vai trò của AI trong chuỗi hành động quân sự.
- Quan điểm của Bộ Quốc phòng: Bộ Quốc phòng khẳng định rằng con người luôn là người đưa ra quyết định cuối cùng và AI không thực hiện các quyết định gây chết người. Bộ trưởng Quốc phòng Pete Hegseth nhấn mạnh: “Chúng tôi tuân thủ luật pháp và con người đưa ra quyết định. AI không đưa ra các quyết định gây chết người.”
- Khoảng trống pháp lý: Các chuyên gia pháp lý chỉ ra rằng luật pháp hiện hành chưa đặt ra giới hạn rõ ràng về việc tích hợp AI vào toàn bộ chuỗi hành động quân sự (kill chain), ngoài việc quy trách nhiệm cho chỉ huy.
Khung Pháp Lý và Giới Hạn Hiện Tại
Về mặt pháp lý, luật xung đột vũ trang quốc tế yêu cầu các chỉ huy quân sự phải chịu trách nhiệm giảm thiểu tối đa thương vong dân sự, bất kể công nghệ được sử dụng. Bộ Quốc phòng đã ban hành các chỉ thị yêu cầu các hệ thống vũ khí tự hành phải được thiết kế để cho phép người điều hành con người thực hiện mức độ phán đoán thích hợp khi sử dụng vũ lực.
Tuy nhiên, các chuyên gia lưu ý rằng:
- Chỉ thị năm 2023 vẫn để ngỏ việc định nghĩa “phán đoán thích hợp” của con người là gì.
- Trách nhiệm cuối cùng thuộc về người vận hành và toàn bộ hệ thống chỉ huy, chứ không nằm trong phần mềm.
Tương Lai và Thách Thức Đạo Đức
Các chuyên gia cảnh báo rằng tốc độ xử lý thông tin của AI đang làm tăng tốc độ ra quyết định quân sự (OODA loop). Mặc dù công nghệ có thể được lập trình để tránh dân thường, các chuyên gia vẫn cho rằng việc giao phán đoán đạo đức về mức độ thiệt hại dân sự chấp nhận được cho AI là điều không nên làm.
Tóm lại, dù AI mang lại lợi thế quyết định vượt trội, các cuộc tranh luận pháp lý đang tập trung vào việc xác định mức độ can thiệp tối thiểu của con người trong mọi quyết định tấn công tự động, đồng thời nhấn mạnh rằng AI chỉ tốt bằng dữ liệu mà nó được cung cấp.