BN
Công nghệAI Desk1 lượt xem

Tổ chức mới ra mắt 'Kiểm tra va chạm' độc lập cho công cụ AI

Common Sense Media đã thành lập Youth AI Safety Institute, một phòng thí nghiệm độc lập nhằm đánh giá các rủi ro an toàn của công cụ AI đối với trẻ em và thanh thiếu niên. Sáng kiến này mô phỏng quy trình kiểm tra va chạm xe hơi để thiết lập các tiêu chuẩn an toàn khách quan cho ngành công nghệ. Viện sẽ thực hiện 'red teaming' các mô hình AI hàng đầu và công bố các hướng dẫn tiêu dùng, nhằm tạo áp lực buộc các công ty công nghệ phải cải thiện tính an toàn. Sự ra đời của Viện được thúc đẩy bởi những lo ngại ngày càng tăng về các nội dung gây hại và sự phát triển nhanh chóng, thiếu kiểm soát của AI. Các chuyên gia kỳ vọng các tiêu chuẩn bên thứ ba này sẽ giúp định hình thiết kế AI theo hướng ưu tiên sự an toàn của người dùng trẻ tuổi.

Ad slot
Tổ chức mới ra mắt 'Kiểm tra va chạm' độc lập cho công cụ AI

Tổ chức Common Sense Media vừa ra mắt Youth AI Safety Institute, một phòng thí nghiệm độc lập nhằm đánh giá các rủi ro tiềm tàng của các công cụ Trí tuệ Nhân tạo (AI) đối với trẻ em và thanh thiếu niên. Sáng kiến này được kỳ vọng sẽ thiết lập các tiêu chuẩn an toàn khách quan, mô phỏng quy trình kiểm tra kỹ thuật để tạo áp lực buộc các công ty công nghệ phải cải thiện tính an toàn của sản phẩm.

Bối cảnh và Mục tiêu của Sáng kiến

Trong bối cảnh các công ty AI đang chạy đua phát triển các mô hình mạnh mẽ, tốc độ đôi khi được ưu tiên hơn việc kiểm tra an toàn. Common Sense Media nhận thấy rằng việc chỉ dựa vào cơ chế tự kiểm duyệt của các công ty AI là chưa đủ để bảo vệ người dùng trẻ tuổi.

  • Mục tiêu chính: Cung cấp thông tin đáng tin cậy cho phụ huynh và gia đình về các công cụ AI khác nhau, đồng thời thiết lập các tiêu chuẩn an toàn ngành.
  • Điểm khác biệt: Các tổ chức an toàn AI hiện tại thường tập trung vào rủi ro cấp độ xã hội hoặc hiện hữu (existential risks), thay vì các đánh giá an toàn thân thiện với người tiêu dùng cho sử dụng hàng ngày.
  • Mục tiêu cuối cùng: Tạo ra áp lực công khai và tiêu chuẩn bên thứ ba để thúc đẩy các công ty công nghệ thực hiện các cải tiến về an toàn.

Cơ chế hoạt động và Nguồn lực

Ad slot

Youth AI Safety Institute sẽ hoạt động bằng cách thực hiện quy trình “red teaming” (kiểm tra căng thẳng) đối với các mô hình và sản phẩm AI hàng đầu được sử dụng bởi giới trẻ. Sau đó, họ sẽ công bố nghiên cứu dưới dạng hướng dẫn thân thiện với người tiêu dùng và xây dựng các tiêu chuẩn an toàn AI cho thanh thiếu niên.

  • Tài chính: Viện được khởi động với ngân sách hàng năm 20 triệu USD, nhận được sự hỗ trợ từ các nhà đầu tư lớn như OpenAI, Anthropic và Pinterest, cùng các quỹ từ thiện khác.
  • Tính độc lập: Theo Common Sense Media, các nhà tài trợ sẽ không can thiệp vào hoạt động nghiên cứu hay vận hành của Viện.
  • Chuyên môn: Hội đồng cố vấn bao gồm các chuyên gia hàng đầu về khoa học máy tính, nhi khoa phát triển hành vi và các chuyên gia về tiêu chuẩn hóa sản phẩm công nghệ.

Những Lo ngại Đẩy Mạnh Sự Ra Đời của Viện

Sự quan tâm đến an toàn AI gia tăng do nhiều sự cố đáng chú ý được ghi nhận gần đây:

  • Các vụ kiện tụng liên quan đến việc chatbot AI được cho là đã khuyến khích hành vi tự hại ở trẻ vị thành niên.
  • Các báo cáo điều tra chỉ ra rằng chatbot AI đã cung cấp lời khuyên nguy hiểm cho tài khoản thử nghiệm của thanh thiếu niên.
  • Việc áp dụng AI ngày càng rộng rãi trong môi trường giáo dục cũng làm dấy lên lo ngại về khả năng ảnh hưởng tiêu cực đến quá trình học tập.

Các chuyên gia nhấn mạnh rằng việc phát triển AI diễn ra quá nhanh, đòi hỏi các tiêu chuẩn kiểm tra phải liên tục được cập nhật để theo kịp các tính năng mới và các rủi ro đi kèm.

Ad slot