Một hình thức lừa đảo mới đang xuất hiện: giả giọng nói bằng AI.
Kẻ gian có thể sử dụng công nghệ để tạo ra giọng nói giống hệt người quen, lãnh đạo hoặc đối tác, sau đó yêu cầu chuyển tiền hoặc cung cấp thông tin.
Điểm nguy hiểm là:
- Giọng nói rất thật
- Tình huống thường gấp gáp
- Người nghe dễ mất cảnh giác
Để phòng tránh, doanh nghiệp cần:
- Xác minh lại thông tin qua nhiều kênh
- Không xử lý giao dịch quan trọng chỉ qua cuộc gọi
- Đào tạo nhân sự về nhận diện rủi ro
Trong thời đại công nghệ, càng tiện lợi thì càng cần cảnh giác.





Để lại một bình luận