Từ công nghệ phục vụ giải trí, Deepfake đang trở thành công cụ để những kẻ lừa đảo trục lợi và lan truyền tin đồn thất thiệt. Vì vậy, người dùng cần hết sức thận trọng để tránh bị lừa bởi loại hình tội phạm công nghệ cao này.
Deepfake – từ công nghệ giải trí trở thành hình thức lừa đảo tinh vi
Deepfake là công nghệ được biết đến nhiều nhất với tác dụng tái tạo lại khuôn mặt của người trong video nhờ sử dụng trí tuệ nhân tạo (AI). Ban đầu, công nghệ này được sinh ra cho mục đích giải trí, giúp người dùng lồng khuôn mặt, giọng nói của mình vào các nhân vật yêu thích trên video mà vẫn đảm bảo hoạt động giống như được quay thực tế. Tuy nhiên, giới tội phạm nhanh chóng lợi dụng ưu điểm đó để tạo ra công cụ giả mạo người khác, giúp chúng thực hiện các vụ lừa đảo, hoặc lan truyền tin thất thiệt trên mạng.
Trên thế giới đã có rất nhiều trường hợp lừa đảo liên quan đến Deepfake được ghi nhận. Mới đây nhất, một gia đình tại Texas (Mỹ) đã mất hàng nghìn USD chuyển cho kẻ gian sau khi chúng sử dụng AI và Deepfake để giả giọng con trai họ thông báo vừa gặp tai nạn xe hơi, theo Daily Mail.
Tại Việt Nam, rất nhiều vụ lừa đảo sử dụng công nghệ cao đã diễn ra dưới nhiều hình thức tinh vi, gần đây, chị M, ở quận Long Biên (Hà Nội), nhận được tin nhắn qua Facebook của một người bạn thân đang sinh sống ở nước ngoài nhờ chuyển 75 triệu đồng vào tài khoản. Nghĩ bạn cần tiền, chị M đã không ngại ngần chuyển tiền theo hướng dẫn. Chị M cũng cho biết, khi nhận được tin nhắn của bạn hỏi vay tiền, chị còn cẩn thận gọi video lại để kiểm tra thì có thấy hình ảnh của người bạn mình ở video.
Đến tối, trên trang Facebook cá nhân của người bạn đăng dòng thông báo việc bị kẻ gian hack nick Facebook để hỏi vay tiền bạn bè, chị M có gọi điện lại thì người bạn này xác nhận đã bị kẻ gian chiếm đoạt tài khoản mạng xã hội, dùng công nghệ AI cắt ghép hình ảnh, giọng nói để lừa đảo. Chị M chỉ là một trong hàng ngàn nạn nhân khác bị đánh lừa bởi chiêu thức sử dụng công nghệ cao này.
Tại Việt Nam đã có rất nhiều trường hợp lừa đảo liên quan đến Deepfake được ghi nhận. Ảnh minh họa
Các đối tượng lừa đảo sử dụng công nghệ Deepfake (là công nghệ ứng dụng trí tuệ nhân tạo (AI) tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao) thực hiện cuộc gọi video để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…
Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật – giả; có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.
Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Nếu nạn nhân cẩn thận gọi video để kiểm tra thì chúng sẽ không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa.
Đối tượng nào dễ bị lừa bởi công nghệ Deepfake
Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake để tạo sẵn những video rất khó phân biệt thật – giả; có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo. Đối tượng nào dễ bị lừa bởi công nghệ Deepfake phụ thuộc vào nhiều yếu tố, bao gồm cả độ tuổi, trình độ học vấn, kiến thức về công nghệ, tình trạng tâm lý, cũng như mức độ nhạy cảm và quan trọng của thông tin đó với đời sống của họ.
Anh Nguyễn Văn Cường, Giám đốc Trung tâm an ninh mạng BKAV
Theo anh Nguyễn Văn Cường, Giám đốc Trung tâm an ninh mạng BKAV, một số đối tượng có thể dễ dàng bị lừa bởi Deepfake hơn những người khác, cụ thể là:
Người già: Những người lớn tuổi thường ít có kiến thức về công nghệ và khó phân biệt được giữa video thật và video Deepfake.
Những người ít kiến thức về công nghệ: Những người không có kiến thức về công nghệ hoặc không quan tâm đến các vấn đề an ninh mạng có thể dễ dàng bị lừa bởi Deepfake.
Những người đang trong tình trạng tâm lý yếu: Những người đang gặp phải các vấn đề tâm lý như căng thẳng, bị stress hoặc lo lắng có thể dễ bị lừa bởi những thông tin giả mạo.
Những người có tài sản lớn, vị trí xã hội cao, hoặc có quan hệ trong giới chính trị, kinh doanh, văn hóa… sẽ có khả năng bị lừa bởi Deepfake cao hơn những người khác.
Tóm lại, bất kỳ ai cũng có thể trở thành nạn nhân của Deepfake nếu họ không có đủ kiến thức và kinh nghiệm để phân biệt giữa video thật và giả mạo. Do đó, cần cảnh giác và nâng cao kiến thức để tránh bị lừa đảo bởi những kẻ xấu.
Những cách phòng tránh tội phạm lừa đảo bằng công nghệ Deepfake
Kẻ lừa đảo có thể tìm kiếm và thu thập thông tin cá nhân của một người một cách dễ dàng thông qua các hoạt động trực tuyến và các trang mạng xã hội. Chúng có thể thu thập hình ảnh, thông tin về vị trí địa lý, sở thích, dữ liệu về lịch sử duyệt web và các hoạt động trực tuyến khác của người dùng từ các mạng xã hội và các trang web khác. Ngoài ra, kẻ lừa đảo cũng có thể sử dụng các phương pháp tấn công mạng để truy cập vào các tài khoản cá nhân, email hoặc tài khoản ngân hàng của người dùng và thu thập thông tin từ đó.
Vì vậy, để phòng tránh lừa đảo bằng Deepfake, anh Nguyễn Văn Cường, Giám đốc Trung tâm an ninh mạng BKAV đưa ra lời khuyên, người dùng cần cẩn trọng khi chia sẻ thông tin cá nhân và tài khoản ngân hàng. Nếu có bất kỳ sự nghi ngờ nào về tính xác thực của cuộc gọi video, người dùng nên hủy cuộc gọi và liên hệ lại với người kia để xác nhận lại thông tin.
Ngoài ra, để bảo vệ thông tin cá nhân của mình, người dùng cần sử dụng mật khẩu mạnh, thường xuyên thay đổi mật khẩu và bảo vệ thiết bị của mình khỏi các phương tiện tấn công mạng. Đồng thời nên cẩn thận và xem xét kỹ trước khi chia sẻ thông tin cá nhân với bất kỳ ai trên mạng và đảm bảo rằng chỉ chia sẻ thông tin với các trang web đáng tin cậy và có hệ thống bảo mật tốt.
Việc sử dụng công nghệ Deepfake để lừa đảo trên không gian mạng sẽ có thể gia tăng trong thời gian tới. Người sử dụng cần luôn cảnh giác, tuyệt đối bình tĩnh và chủ động xác thực bằng cách gọi điện thoại trực tiếp hoặc facetime ít nhất trên 1 phút. Sau đó đặt ra những câu hỏi cá nhân mà chỉ có mình và người kia biết. Vì Deepfake sẽ không thể giả được một cuộc trò chuyện thật sự trong thời gian thực mà có tính chuẩn xác cao. Bởi cảm xúc hay biểu cảm của AI hay Deepfake vẫn không thể bắt chước được như người thật tính tới thời điểm này.
Khánh Mai (t/h)
https://vietq.vn/chuyen-gia-chi-cach-tranh-bay-lua-dao-bang-cong-nghe-deepfake-d209436.html