Cảnh báo thủ đoạn sử dụng trí tuệ nhân tạo để lừa đảo
Theo Công an tỉnh Đắk Nông, hiện nay, trên không gian mạng đã xuất hiện tội phạm sử dụng công nghệ cao, trí tuệ nhân tại (AI) để lừa đảo. Trong đó, có hành vi dựng hình ảnh, video và âm thanh giả. Vì vậy, người dân cần hết sức cảnh giác.
Deepfake là công nghệ ứng dụng trí tuệ nhân tạo (AI) để tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video làm giả đối tượng ngoài đời thực với độ chính xác cao.
Công nghệ này được xây dựng dựa trên tệp tin hình ảnh, khuôn mặt của một người ngoài đời thực. Deepfake sử dụng thuật toán tái tạo lại khuôn mặt và giọng nói phù hợp với nét mặt, biểu cảm của một người, sau đó tạo ra các video giả mạo người này ngoài đời thực.
Ngoài ra, Deepfake có thể thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói để gán khuôn mặt của người này sang người khác. Càng có nhiều hình ảnh gốc thì Deepfake càng có nhiều dữ liệu để học và tái tạo.
Theo Công an tỉnh Đắk Nông, các đối tượng làm giả các video của người để thực hiện cuộc gọi video vay tiền.
Để lừa đảo, các đối tượng lập ra các tài khoản mạng xã hội giả mạo, trùng với thông tin, ảnh đại diện với người dùng sau đó kết bạn với nạn nhân trong danh sách bạn bè và nhắn tin vay mượn tiền theo kịch bản sẵn có.
Để tạo lòng tin với nạn nhân, đối tượng đã truyền tài Deepfake video có sẵn lên cuộc gọi video (video call), khiến nạn nhân nhận ra hình ảnh, giọng nói của người quen và nhanh chóng chuyển tiền theo yêu cầu của đối tượng.
Với công nghệ Deepfake, các đối tượng tạo ra các video giả mạo có đội chính xác cao, rất khó phân biệt thật giả. Tuy nhiên, video giả này thường có nội dung chung chung, không phù hợp hoàn toàn với ngữ cảnh thực tế giao tiếp với nạn nhân, có thể khiến nạn nhân nghi ngờ, phát hiện.
Để che lấp khuyết điểm trên, các đối tượng thường tạo ra video với âm thanh khó nghe, hình ảnh không rõ nét giống cuộc gọi video tín hiệu chập chờn được thực hiện trong khu vực phủ sóng di động, wifi yếu.
Ngoài ra, các đối tượng sử dụng Deepfake tạo ra các video mạo danh tung tin giả, sai sự thật. Những người nổi tiếng, người có tầm ảnh hưởng, các nhà lãnh đạo là đối tượng để chúng tung các tin tức giả, sai sự thật về chính trị, hay hạ uy tín của nạn nhân nhầm phục vụ mục đích trả thù cá nhân…
Một thủ đoạn khác là chúng sử dụng Deepfake ghép mặt nạn nhân vào video khiêu dâm nhằm vào mục đích bôi nhọ hoặc tống tiền.
Trước vấn đề đáng lo ngại trên, lực lượng công an đã khuyến cáo người dân cần tỉnh táo, nếu lỡ bị rơi vào bẫy của loại tội phạm tinh vi này.
Khi nhận được bất kỳ tin nhắn vay mượn tiền nào thông qua mạng xã hội cần gọi điện trực tiếp thông qua số điện thoại của người nhận để xác minh, cho dù là người thân thiết. Ngoài ra phải xem kỹ thông tin tài khoản nhận tiền có trùng hợp với người đang thực hiện yêu cầu hay không.
Đặc biệt, người dùng mạng xã hội nên hạn chế chia sẻ hình ảnh hay video cá nhân lên trên mạng. Đồng thời luôn bảo mật tài khoản mạng xã hội, email bằng mật khẩu có độ khó cao.
Dù tinh vi đến đâu song các video giả được tạo thành từ Deepfake thường có chuyển động giật cục, như một đoạn video lỗi; ánh sáng bị thay đổi liên tục từ khung hình này sang khung hình tiếp theo; thay đổi tông màu da liên tục; video có những sự nhấp nháy lạ thường; khẩu hình miệng không đồng bộ với lời nói; hiện lên các đồ vật kỹ thuật số trong hình ảnh; âm thanh, video chất lượng thấp; nhân vật nói liên tục, không chớp mắt.
Trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, chiếm đoạt tài sản, cần báo ngay cho cơ quan công an gần nhất để được hỗ trợ, xử lý kịp thời.