Phức tạp chiêu lừa đảo bằng công nghệ Deepfake và trí tuệ nhân tạo

Các nhà chức trách trên khắp thế giới ngày càng lo ngại về sự phức tạp của công nghệ deepfake với sự tham gia của trí tuệ nhân tạo (AI) và những mục đích bất chính mà nó có thể gây ra.

Công nghệ trí tuệ nhân tạo đang ngày càng phát triển, ứng dụng rộng rãi, có hiệu quả trong nhiều lĩnh vực của đời sống. Tuy nhiên bên cạnh đó, AI cũng tiềm ẩn nhiều nguy cơ, rủi ro cho xã hội, trong đó có vấn đề bảo vệ an ninh quốc gia. Đây là thực tế đang diễn ra ở hầu hết các nước trên thế giới, trong đó có Việt Nam.

Thời gian gần đây, nhiều người đã trở thành nạn nhân của các cuộc lừa đảo tài chính sử dụng Deepfake và có sự tham gia của trí tuệ nhân tạo (AI).

Nguyễn Thanh H. là nhân viên văn phòng tại Hà Nội. Trong một lần trò chuyện với bạn qua Facebook Messenger, người bạn của H. đã chào và kết thúc câu chuyện nhưng đột nhiên quay lại nhắn tin, hỏi vay tiền và đề nghị chuyển tiền vào một tài khoản ngân hàng. Dù tên tài khoản trùng khớp với tên bạn mình, H. vẫn thoáng nghi ngờ nên yêu cầu gọi video để xác thực. Người bạn đồng ý ngay nhưng cuộc gọi chỉ kéo dài vài giây do "mạng chập chờn", theo giải thích của người bạn.

Đã thấy mặt bạn mình trong cuộc gọi video, giọng nói cũng đúng của người này, H. không còn nghi ngờ và chuyển tiền. Tuy nhiên, chỉ sau khi chuyển tiền thành công, H. mới biết mình đã mắc bẫy của hacker. Không chỉ H., nhiều nạn nhân khác là bạn bè, người thân của người bạn H. cũng bị lừa theo cách tương tự. Số tiền kẻ xấu lừa được từ tài khoản Facebook đó lên tới hàng chục triệu đồng.

Nửa cuối năm 2023, Bkav cho biết liên tục nhận được các báo cáo cũng như yêu cầu trợ giúp của nạn nhân về các vụ việc lừa đảo tương tự. Theo các chuyên gia của Bkav, trong trường hợp của H., kẻ xấu đã kiểm soát được tài khoản Facebook nhưng không lập tức chiếm đoạt hoàn toàn mà âm thầm theo dõi, chờ cơ hội giả làm nạn nhân để hỏi vay tiền bạn bè, người thân của họ. Chúng sử dụng AI để tạo sẵn một đoạn video giả mạo gương mặt và giọng nói của chủ tài khoản Facebook (Deepfake). Khi được yêu cầu gọi điện video call để chứng thực, chúng đồng ý nhận cuộc gọi nhưng sau đó nhanh chóng ngắt kết nối để tránh bị phát hiện.

Ông Nguyễn Tiến Đạt - Tổng Giám đốc Trung tâm nghiên cứu mã độc (AntiMalware) của Bkav - cho biết: "Khả năng thu thập và phân tích dữ liệu người dùng thông qua AI cho phép tạo ra những chiến lược lừa đảo tinh vi. Điều này cũng có nghĩa là mức độ phức tạp của các kịch bản lừa đảo khi kết hợp giữa Deepfake và GPT sẽ ngày càng cao, khiến việc nhận diện lừa đảo sẽ khó khăn hơn rất nhiều".

Bkav khuyến cáo, người dùng cần đặc biệt nâng cao cảnh giác, không cung cấp thông tin cá nhân (CCCD, tài khoản ngân hàng, mã OTP…), không chuyển tiền cho người lạ qua điện thoại, mạng xã hội, các trang web có dấu hiệu lừa đảo. Khi có yêu cầu vay/chuyển tiền vào tài khoản qua mạng xã hội, người dùng nên thực hiện các phương thức xác thực khác như gọi điện thoại hay sử dụng các kênh liên lạc khác để xác nhận lại.

Trước đó, nhà chức trách Australia cũng đã lên tiếng cảnh báo người dân về các trường hợp tội phạm sử dụng công nghệ giả giọng nói để lừa đảo qua điện thoại.

Ảnh minh họa sử dụng công nghệ deepfake để lừa đảo - Ảnh: CNN/GETTY IAMGES

Ảnh minh họa sử dụng công nghệ deepfake để lừa đảo - Ảnh: CNN/GETTY IAMGES

Năm 2022, "Hi Mum" (tạm dịch là "Chào Mẹ") đã trở thành một trong những trò lừa đảo phổ biến nhất ở Australia, khiến nạn nhân mất hàng triệu AUD vào tay những kẻ tội phạm giả danh người thân.

Trò lừa đảo này đơn giản nhưng hiệu quả, với hơn 11.000 trường hợp được báo cáo ở quốc gia châu Đại Dương này. Giờ đây, trò lừa đảo đã trở nên tinh vi hơn nhờ sự trợ giúp của trí tuệ nhân tạo (AI) để giả giọng nói.

Theo giới chức Australia, tội phạm đang sử dụng công nghệ tân tiến nhất để lợi dụng những bậc cha mẹ nhẹ dạ cả tin. Những kẻ lừa đảo có thể tạo ra những cuộc điện thoại này chỉ với 3 giây video, thường được trích xuất từ tài khoản mạng xã hội hoặc từ tin nhắn thoại của người dân.

Hay mới đây, ngày 29/1, cảnh sát đặc khu tài chính Hồng Kông (Trung Quốc) cho biết những kẻ lừa đảo đã lừa một công ty số tiền khoảng 26 triệu USD (622 tỉ đồng) bằng deepfake, một công nghệ sử dụng trí tuệ nhân tạo (AI) để tạo các video giả.

Vụ lừa đảo này là một trong nhiều vụ việc gần đây trong đó công nghệ deepfake bị lạm dụng để chỉnh sửa video nhằm mục đích lừa tiền tại Trung Quốc.

Các nhà chức trách trên khắp thế giới ngày càng lo ngại về sự phức tạp của công nghệ deepfake và những mục đích bất chính mà nó có thể gây ra.

Công nghệ lừa đảo này thực ra cũng đã xuất hiện ở Việt Nam khi các đối tượng giả tiếng và cả hình ảnh của công an hay người thân để yêu cầu người dân chuyển tiền. Nhiều người dân đã trở thành nạn nhân của các cuộc lừa đảo tài chính sử dụng Deepfake và có sự tham AI.