BN
Công nghệAI Desk2 lượt xem

Lừa đảo giọng nói AI: Cảnh giác trước cuộc gọi giả mạo tinh vi

Các vụ lừa đảo qua điện thoại đang ngày càng tinh vi nhờ việc ứng dụng công nghệ AI, cho phép kẻ gian giả mạo giọng nói và danh tính người thân một cách thuyết phục. Vụ việc tại Montana là minh chứng cho thấy sự hoảng loạn và khó khăn trong việc nhận diện các cuộc gọi giả mạo này. Các chuyên gia cảnh báo rằng công nghệ AI cho phép tạo ra giọng nói tổng hợp chỉ từ các đoạn âm thanh rất ngắn, kết hợp với việc giả mạo số điện thoại. FTC ghi nhận sự gia tăng đáng kể của các vụ lừa đảo nhận dạng, với quy mô hoạt động ngày càng 'công nghiệp hóa'. Người dân được khuyến cáo cần hết sức cảnh giác, không tin tưởng ngay lập tức vào các cuộc gọi bất ngờ và luôn xác minh thông tin qua các kênh liên lạc đáng tin cậy.

Ad slot
Lừa đảo giọng nói AI: Cảnh giác trước cuộc gọi giả mạo tinh vi

Các cuộc gọi lừa đảo sử dụng công nghệ AI đang trở nên tinh vi và phổ biến hơn, khiến nạn nhân khó phân biệt thật giả, đặc biệt khi kẻ gian giả mạo giọng nói người thân. Vụ việc gần đây tại Montana đã phơi bày mối đe dọa này, buộc các chuyên gia phải cảnh báo về sự gia tăng của các cuộc gọi giả mạo danh tính.

Vụ việc minh họa: Giả mạo giọng nói người thân

Tại Missoula, Montana, bà Kris Sampson đã nhận cuộc gọi từ số hiển thị tên và ảnh của con gái trưởng thành. Ban đầu, bà nghe thấy giọng nói giống hệt con gái mình đang khóc, khiến bà hoảng loạn và tin rằng con gái gặp tai nạn.

  • Diễn biến cuộc gọi: Sau đó, một người đàn ông khác xuất hiện, ban đầu nói chuyện bình tĩnh, sau đó chuyển sang giọng đe dọa và yêu cầu tiền qua PayPal.
  • Sự hoảng loạn: Bà Sampson mô tả đây là trải nghiệm sợ hãi nhất đời mình, vì giọng nói quá chân thực, khiến bà không dám nghi ngờ.
  • Kết quả: Mặc dù bị lừa tâm lý, con gái bà sau đó đã được tìm thấy an toàn tại nơi làm việc. Các cơ quan chức năng xác nhận các vụ lừa đảo giả mạo danh tính đang gia tăng.

Mối đe dọa từ công nghệ AI và lừa đảo nhận dạng

Các chuyên gia chỉ ra rằng, sự phát triển của công nghệ AI đã nâng cấp mức độ tinh vi của các chiêu trò lừa đảo qua điện thoại. Các công cụ này cho phép kẻ gian thực hiện các hành vi sau:

Ad slot
  • Giả mạo giọng nói (Voice Cloning): Chỉ cần các đoạn âm thanh ngắn (thậm chí chỉ 3 giây) từ mạng xã hội hoặc tin nhắn thoại, AI có thể tạo ra giọng nói tổng hợp rất giống người thật.
  • Giả mạo số điện thoại (Spoofing): Kẻ gian có thể làm cho cuộc gọi hiển thị tên và số điện thoại quen thuộc, tạo cảm giác tin cậy ngay lập tức.
  • Tính chất 'Công nghiệp hóa': Các hoạt động lừa đảo ngày càng được tổ chức hóa, với các mạng lưới xuyên quốc gia vận hành quy mô lớn.

Theo Cục Thương mại Liên bang (FTC), các vụ lừa đảo giả mạo danh tính đã tăng đáng kể, với tổn thất tài chính lên đến hàng tỷ đô la.

Lời khuyên từ chuyên gia về nhận diện cuộc gọi lừa đảo

Các chuyên gia an ninh mạng khuyến cáo người dân cần thay đổi thói quen khi nhận cuộc gọi điện thoại, đặc biệt là những cuộc gọi bất ngờ:

  • Không tin tưởng ngay lập tức: Không nên mặc định tin tưởng chỉ vì nghe thấy giọng nói quen thuộc hoặc thấy số điện thoại quen thuộc.
  • Cảnh giác với yêu cầu tiền bạc: Các cơ quan chính phủ như IRS thường liên hệ qua thư và hiếm khi gọi điện yêu cầu thanh toán ngay lập tức hoặc đe dọa bắt giữ.
  • Kiểm tra nguồn tin: Nếu nhận được cuộc gọi đáng ngờ, hãy chủ động liên hệ với người thân qua các kênh liên lạc đã được xác minh trước đó.

Các nghiên cứu gần đây thậm chí đã cho thấy khả năng AI tự động thực hiện toàn bộ chu trình cuộc gọi lừa đảo mà không cần sự can thiệp của con người, báo hiệu một mối đe dọa ngày càng cấp bách.

Ad slot