👾 Những kẻ lừa đảo đã bắt đầu bắt chước giọng nói của các thành viên gia đình nạn nhân bằng cách sử dụng AI.
🔊 Một chương trình dựa trên trí tuệ nhân tạo tạo ra giọng nói dựa trên một mẫu âm thanh ngắn, sau đó nạn nhân nhận được cuộc gọi yêu cầu hỗ trợ tài chính do thảm họa bất ngờ. #lừa đảo hàng ngày