Thông tin trên do hãng Reuters dẫn nguồn cảnh sát TP Bao Đầu thuộc khu tự trị Nội Mông của Trung Quốc.

Hồ sơ cảnh sát cho biết nam nạn nhân nhận được cuộc gọi video của một người bạn thân hôm 20-5. Sau cuộc gọi, anh này đã chuyển đi 622.000 USD (14,6 tỉ đồng) vì tin rằng bạn mình đang cần gấp một khoản đặt cọc để có thể tham gia đấu thầu.

Kẻ xấu sử dụng AI ghép khuôn mặt và giọng nói lừa đảo gần 15 tỉ đồng. Ảnh: Minh hoạ internet

Nạn nhân chỉ biết mình bị lừa đảo sau khi người bạn khẳng định không nhờ anh chuyển bất cứ khoản tiền nào. Hoảng hốt, anh đi báo nhà chức trách. Kết quả điều tra của cảnh sát cho thấy kẻ xấu đã sử dụng AI ghép khuôn mặt người bạn rồi nhờ chuyển tiền và đã khiến nạn nhân sập bẫy.

  • Xuất hiện hình thức tấn công lừa đảo mới trên không gian mạng

  • Lienvietpostbank liên tiếp ngăn chặn nhiều vụ lừa đảo lên tới hàng tỉ đồng

“Chúng tôi đã thu hồi được phần lớn số tiền nạn nhân đã chuyển cho bọn lừa đảo và đang nỗ lực truy dấu phần còn lại” – cảnh sát khu tự trị Nội Mông cho biết.

Sau khi thông tin được cảnh sát công bố, cụm từ “lừa đảo bằng AI” đang gây sốt trên mạng xã hội Trung Quốc. Nhiều bình luận tỏ ra lo lắng việc hình ảnh, giọng nói có thể bị kẻ lừa đảo giả mạo, trong khi các biện pháp đối phó không theo kịp.

Không chỉ ở Trung Quốc, vấn nạn AI mạo danh để lừa đảo đã và đang diễn ra tại nhiều quốc gia trong thời gian qua.

Thống kê từ Ủy ban Thương mại Liên bang Mỹ (FTC) cho biết người dân đã mất tổng cộng 2,6 tỉ USD vì cuộc gọi lừa đảo năm 2022, trong số đó có những cuộc gọi sử dụng AI để đánh lừa người nghe.

Sự tiến bộ của AI thời gian qua thúc đẩy nhiều lĩnh vực phát triển nhưng cũng là công cụ để kẻ xấu khai thác.

Chỉ với vài câu nói và hình ảnh thu thập được trên không gian mạng, kẻ xấu có thể dùng AI chuyển thành bản sao giọng nói và khuôn mặt của một người.

Trí tuệ nhân tạo sau đó nói bất cứ những gì theo yêu cầu của kẻ xấu và trở thành phương tiện lừa đảo chiếm đoạt tài sản.


Bằng Hưng