24H直播

Cảnh sát ngăn người đàn ông bị lừa chuyển tiền cho "người yêu AI"

發布時間: 更新時間:

Tại Đài Trung có một người đàn ông họ Hồng quen biết với một người bạn gái thông qua ứng dụng liên lạc, khi được cảnh sát và nhân viên ngân hàng khuyên răn trong lúc định chuyển khoản cho người bạn gái này, ông Hồng đã đưa ra ảnh chứng minh thư và bức ảnh nằm liệt giường của người phụ nữ này, nhưng cảnh sát đã lập tức phát hiện đó là ảnh được ghép bằng AI và kịp thời ngăn chặn một vụ mất tiền oan vì quá si tình.

Một người đàn ông họ Hồng, 58 tuổi, vài ngày trước đến ngân hàng và yêu cầu chuyển khoản 70.000 Đài tệ tiền viện phí cho một người phụ nữ họ Hứa, là bạn gái mà ông quen trên mạng. Nhân viên ngân hàng lo ngại đây là vụ lừa đảo nên đã trình báo với cảnh sát. Ông Hồng đã xuất trình ảnh chụp giấy chứng minh của bạn gái, nhưng cảnh sát phát hiện, ảnh dán trong giấy chứng minh là bức ảnh được "tạo ra" bởi công nghệ AI.

==Cảnh sát==
Đây là giấy chứng minh giả, tôi sẽ kiểm tra giúp ông,
kiểm tra ra rồi, ông ơi, đây là giấy chứng minh giả,
hơn chữ cái đầu là H2 không thể nào có 28 chữ số được.

Ảnh chụp giấy chứng minh và ảnh bạn gái đều được tạo bằng AI

Cỡ và kiểu chữ khác với giấy chứng minh thông thường. Khi số chứng minh được nhập vào máy tính chuyên dụng của cảnh sát, cũng hiển thị "Không tìm thấy người này". Ảnh chụp trên chứng minh của người phụ nữ cũng không lộ rõ tai như theo quy định, nhưng ông Hồng vẫn chưa chịu tin và xuất trình tấm ảnh bạn gái đang nằm trên giường bệnh, nhưng tiếp tục bị cảnh sát phát hiện đây cũng là ảnh ghép bằng AI, chỗ ghép ở phần cổ vẫn còn khá vụng về, cuối cùng thì ông Hồng mới tin rằng mình đã bị lừa.

==Đội phó Đội điều tra Khoa học và Công nghệ - Lại Vũ Tuấn // Đại đội Cảnh sát hình sự thành phố Đài Trung==
Khi nhận được cuộc gọi video call,
bạn có thể yêu cầu đối phương xoay và lắc phần đầu,
hoặc làm các động tác như vẫy vẫy tay ở phía trước mặt,
bạn sẽ phát hiện phần mặt của đối phương bị mờ.

Yêu cầu vẫy tay ở phía trước mặt khi gọi video call để xác minh

Công nghệ AI ngày càng tiến bộ, cảnh sát cảnh báo rằng băng nhóm lừa đảo đã bắt đầu lợi dụng AI để ghép mặt, giả giọng thành người thân của các nạn nhân, vì thế khuyến cáo người dân trong lúc gọi video call có thể yêu cầu đối phương vẫy tay ở phía trước mặt, nếu có tình trạng như mặt bị mờ hoặc hình ảnh không ăn khớp, thì chắc chắn là ghép mặt bằng AI; nếu nhận được cuộc gọi thì có thể cúp máy trước, sau đó gọi lại bằng số điện thoại trong danh bạ để xác minh, nhằm tránh bị lừa.
 

現在加入公視會員,除了有專屬推薦新聞,還有機會免費喝咖啡!
本網站使用 Cookie 技術提升體驗,詳見服務條款。繼續瀏覽即代表同意上述規範。