Cảnh giác với tội phạm công nghệ cao sử dụng công nghệ Deepfake AI để lừa đảo chiếm đoạt tài sản

Deepfake AI là công nghệ ứng dụng trí tuệ nhân tạo (AI) để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác rất cao. Thời gian qua, ở nước ta đã xuất hiện các đối tượng sử dụng công nghệ này để lừa đảo chiếm đoạt tài sản với phương thức rất tinh vi như sau:

– Các đối tượng lừa đảo sử dụng công nghệ Deepfake AI để thực hiện cuộc gọi video để giả làm người thân vay tiền, giả làm con cái đang du học nước ngoài gọi điện cho bố mẹ nhờ chuyển tiền đóng học phí hay có thể giả tạo ra những tình huống khẩn cấp như người thân bị tai nạn cần tiền gấp để cấp cứu…

– Để thực hiện được hình thức lừa đảo này, các đối tượng tìm kiếm, thu thập thông tin cá nhân, hình ảnh, video có giọng nói được đăng tải công khai trên các tài khoản mạng xã hội… rồi sử dụng công nghệ Deepfake AI để tạo sẵn những video rất khó phân biệt thật – giả; có hình ảnh, giọng nói của cá nhân đó để phục vụ cho kịch bản lừa đảo.

– Đặc điểm chung của những cuộc gọi video như vậy thường có âm thanh, hình ảnh không rõ nét, tín hiệu chập chờn giống như cuộc gọi video trong khu vực phủ sóng di động hoặc wifi yếu để nạn nhân khó phân biệt thật, giả. Nếu nạn nhân cẩn thận gọi video để kiểm tra thì chúng sẽ không nhận cuộc gọi hoặc sử dụng phần mềm cắt ghép hình ảnh, video để đánh lừa.

READ  Cảnh giác với thủ đoạn chiêu trò lừa đảo chiếm đoạt tài sản qua cài đặt ứng dụng VneID giả mạo

Theo đó, các nạn nhân nhận được cuộc gọi video từ số điện thoại quen thuộc của người thân, bạn bè hoặc đồng nghiệp, với hình ảnh và giọng nói giống hệt. Các đối tượng lừa đảo nói rằng họ đang gặp khó khăn tài chính hoặc cần tiền gấp để giải quyết một vấn đề nào đó, và yêu cầu nạn nhân chuyển tiền vào tài khoản của họ. Sau khi chuyển tiền xong, các nạn nhân mới phát hiện ra mình đã bị lừa và không liên lạc được với người thân, bạn bè hoặc đồng nghiệp thật.

Phần lớn hình thức lừa đảo trực tuyến này nhắm tới việc lừa đảo tài chính. Nên khi người dân nhận được các cuộc gọi liên quan đến các nội dung về tài chính thì nên tỉnh táo xác nhận thêm. 

* Dấu hiệu nhận biết:

+ Thời gian gọi thường rất ngắn chỉ vài giây. 

+ Khuôn mặt thiếu tính cảm xúc và khá “trơ” khi nói, hoặc tư thế trông lúng túng, không tự nhiên, hoặc là hướng đầu và cơ thể trong video không nhất quán với nhau… 

+ Màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên. 

+ Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.

READ  Cảnh báo tội phạm lừa đảo công nghệ cao sử dụng Link lạ

+ Ngắt giữa chừng, bảo là mất sóng, sóng yếu… Yêu cầu chuyển tiền mà tài khoản chuyển tiền không phải của người đang thực hiện cuộc gọi.

Trước tình trạng ngày càng có nhiều vụ việc lừa đảo bằng công nghệ Deepfake AI xảy ra, các cơ quan chức năng khuyến cáo người dân cần nâng cao cảnh giác và thực hiện các biện pháp phòng tránh sau:

– Không chia sẻ thông tin cá nhân, hình ảnh, video có giọng nói trên các trang web hay tài khoản mạng xã hội công khai hoặc cho những người không quen biết.

– Khi nhận được cuộc gọi video từ người thân, bạn bè hoặc đồng nghiệp với nội dung vay, mượn tiền hoặc thông báo về những tình huống khẩn cấp, cần kiểm tra kỹ thông tin của người gọi, chú ý đến âm thanh, hình ảnh và tín hiệu của cuộc gọi. Nếu có sự khác biệt so với bình thường, cần hỏi thêm những câu hỏi để xác minh danh tính của người gọi hoặc gọi lại cho số điện thoại quen thuộc của người thân để xác nhận.

– Không chuyển tiền cho bất kỳ ai mà không có sự xác minh rõ ràng và chắc chắn. Nếu có nghi ngờ về tính xác thực của cuộc gọi hoặc tin nhắn, cần báo ngay cho cơ quan Công an gần nhất để được hỗ trợ và xử lý kịp thời.

Deepfake là một công nghệ tiên tiến nhưng cũng tiềm ẩn nhiều nguy cơ lợi dụng để lừa đảo và gây hại cho người dùng. Vì vậy, người dân cần nâng cao ý thức và kiến thức để phòng tránh và đối phó với những trường hợp lừa đảo bằng công nghệ cao với các thủ đoạn tinh vi như trên.

Người dùng cần cảnh giác với thủ đoạn sử dụng công nghệ Deepfake để lừa đảo. (Ảnh minh hoạ)
* Biện pháp phòng tránh: 

Theo đó, nếu nhận được một cuộc gọi yêu cầu chuyển tiền gấp, trước tiên hãy bình tĩnh và xác minh thông tin:

READ  Có gì bên trong mã độc Android đánh cắp tiền ngân hàng tại Việt Nam

– Liên lạc trực tiếp với người thân, bạn bè thông qua một kênh khác xem có đúng là họ cần tiền không.

– Kiểm tra kỹ số tài khoản được yêu cầu chuyển tiền. Nếu là tài khoản lạ, tốt nhất là không nên tiến hành giao dịch.

– Nếu cuộc gọi từ người tự xưng là đại diện cho ngân hàng, hãy gác máy và gọi trực tiếp cho ngân hàng để xác nhận cuộc gọi vừa rồi có đúng là ngân hàng thực hiện hay không.

– Các cuộc gọi thoại hay video có chất lượng kém, chập chờn là một yếu tố để bạn nghi ngờ người gọi cũng như tính xác thực của cuộc gọi.

Trả lời

error: Nội dung đã được bảo vệ !!
Contact Me on Zalo
Welcome to giaosumaytinh.com - Chấp nhận cookie