Đề cao cảnh giác với thủ đoạn ghép mặt bằng AI để lừa đảo

Các ứng dụng dựa trên công nghệ AI ngày càng mở rộng, hiện tại AI cũng đã trở thành công cụ "đắc lực" cho băng nhóm lừa đảo. AI có khả năng chỉ cần dựa trên dữ liệu của một người nào đó qua một tấm ảnh, là có thể tạo ra một khuôn mặt giả mạo, hay một video giống y như thật. Cục hình sự đặc biệt làm một video clip để cảnh giác người dân về các thủ đoạn tinh vi này, cảnh báo rằng những gì nhìn thấy tận mắt cũng không hẳn là sự thật.
==Sĩ quan cảnh sát Trần Uyển Lôi//Cục Cảnh sát Hình sự==
Trước xu hướng phát triển của khoa học công nghệ
thời đại hoán đổi khuôn mặt Deepfake đã đến rồi
không tin thì bây giờ tôi sẽ giả dạng thành bạn học chung trường với bạn.
Công nghệ AI trở thành công cụ "đắc lực" của băng nhóm lừa đảo
Nữ cảnh sát búng tay một cái, đã biến ngay một khuôn mặt khác. Ngay sau đó, từ gương mặt nữ sinh lại biến thành một cụ lão, kể cả giọng nói cũng già đi.
==Sĩ quan cảnh sát Trần Uyển Lôi // Cục Cảnh sát Hình sự==
Bây giờ ông phải đi mua hoa sen tuyết rồi
hãy chuyển nhanh mã PIN thẻ tín dụng cho ông nào.
Cảnh sát khuyến cáo: "thấy tận mắt không hẳn là thật"
Cục Hình sự quay đoạn video về tệ nạn giả mạo khuôn mặt, giả giọng nói tạo ra từ AI, là nhằm vạch trần mánh khóe của bọn lừa đảo lợi dụng công nghệ trí tuệ nhân tạo (AI) này để giả mạo danh tính đánh lừa người bị hại, bởi gần đây đã triệt phá vụ một nghi phạm ở Hoa Liên ẩn mình trong nhà trọ đã lừa đảo bằng cách lợi dụng công nghệ AI hoán đổi khuôn mặt để giả danh công an Trung Quốc. Thực tế, cho dù “đã nhìn thấy tận mắt khuôn mặt cũng không hẳn là thật”. Tuy nhiên, trong công nghệ Deepfake này cũng có những sơ hở, có thể yêu cầu đối phương đưa tay lên trước mặt để phân biệt được thật giả.
==Trinh sát viên Lâm Vu Đình // Ban phòng chống tội phạm Cục Cảnh sát Hình sự==
Có thể mời đối phương xoay đầu sang bên trái bên phải
hoặc có thể dùng tay vẫy nhanh trước khuôn mặt để phá giải.
Nếu đối phương không phải là chính bản thân người mình quen
mà là lừa đảo bằng video trực tuyến có tính khả nghi
bạn sẽ phát hiện khuôn mặt của đối phương có tình trạng mờ ảo
tạo nên cảm giác vô cùng không cân xứng.
Muốn chuyển khoản cho bạn bè người thân nên giao hẹn mật mã trước
Ngày nay bọn lừa đảo ứng dụng công nghệ AI để tạo ra những hình ảnh giống hệt như thật, để phá giải các chiêu trò này, Cục Cảnh sát Hình sự nhắc nhở mọi người, nhất là khi muốn tiến hành cuộc chuyển khoản với người thân hay bạn bè, tốt nhất hai bên nên giao hẹn trước về mật mã, để ngăn chặn bọn tội phạm mạo danh người thân thực hiện thủ đoạn lừa đảo.