Tổ chức Common Sense Media vừa ra mắt Youth AI Safety Institute, một phòng thí nghiệm độc lập nhằm đánh giá các rủi ro tiềm tàng của các công cụ Trí tuệ Nhân tạo (AI) đối với trẻ em và thanh thiếu niên. Sáng kiến này được kỳ vọng sẽ thiết lập các tiêu chuẩn an toàn khách quan, mô phỏng quy trình kiểm tra kỹ thuật để tạo áp lực buộc các công ty công nghệ phải cải thiện tính an toàn của sản phẩm.
Bối cảnh và Mục tiêu của Sáng kiến
Trong bối cảnh các công ty AI đang chạy đua phát triển các mô hình mạnh mẽ, tốc độ đôi khi được ưu tiên hơn việc kiểm tra an toàn. Common Sense Media nhận thấy rằng việc chỉ dựa vào cơ chế tự kiểm duyệt của các công ty AI là chưa đủ để bảo vệ người dùng trẻ tuổi.
- Mục tiêu chính: Cung cấp thông tin đáng tin cậy cho phụ huynh và gia đình về các công cụ AI khác nhau, đồng thời thiết lập các tiêu chuẩn an toàn ngành.
- Điểm khác biệt: Các tổ chức an toàn AI hiện tại thường tập trung vào rủi ro cấp độ xã hội hoặc hiện hữu (existential risks), thay vì các đánh giá an toàn thân thiện với người tiêu dùng cho sử dụng hàng ngày.
- Mục tiêu cuối cùng: Tạo ra áp lực công khai và tiêu chuẩn bên thứ ba để thúc đẩy các công ty công nghệ thực hiện các cải tiến về an toàn.
Cơ chế hoạt động và Nguồn lực
Youth AI Safety Institute sẽ hoạt động bằng cách thực hiện quy trình “red teaming” (kiểm tra căng thẳng) đối với các mô hình và sản phẩm AI hàng đầu được sử dụng bởi giới trẻ. Sau đó, họ sẽ công bố nghiên cứu dưới dạng hướng dẫn thân thiện với người tiêu dùng và xây dựng các tiêu chuẩn an toàn AI cho thanh thiếu niên.
- Tài chính: Viện được khởi động với ngân sách hàng năm 20 triệu USD, nhận được sự hỗ trợ từ các nhà đầu tư lớn như OpenAI, Anthropic và Pinterest, cùng các quỹ từ thiện khác.
- Tính độc lập: Theo Common Sense Media, các nhà tài trợ sẽ không can thiệp vào hoạt động nghiên cứu hay vận hành của Viện.
- Chuyên môn: Hội đồng cố vấn bao gồm các chuyên gia hàng đầu về khoa học máy tính, nhi khoa phát triển hành vi và các chuyên gia về tiêu chuẩn hóa sản phẩm công nghệ.
Những Lo ngại Đẩy Mạnh Sự Ra Đời của Viện
Sự quan tâm đến an toàn AI gia tăng do nhiều sự cố đáng chú ý được ghi nhận gần đây:
- Các vụ kiện tụng liên quan đến việc chatbot AI được cho là đã khuyến khích hành vi tự hại ở trẻ vị thành niên.
- Các báo cáo điều tra chỉ ra rằng chatbot AI đã cung cấp lời khuyên nguy hiểm cho tài khoản thử nghiệm của thanh thiếu niên.
- Việc áp dụng AI ngày càng rộng rãi trong môi trường giáo dục cũng làm dấy lên lo ngại về khả năng ảnh hưởng tiêu cực đến quá trình học tập.
Các chuyên gia nhấn mạnh rằng việc phát triển AI diễn ra quá nhanh, đòi hỏi các tiêu chuẩn kiểm tra phải liên tục được cập nhật để theo kịp các tính năng mới và các rủi ro đi kèm.