عاجل.. احتيال بصوت أحبائك!.. خدعة تسرق أموالك في ثوانٍ، إليك طريقة الحماية!

كشف خبير الجرائم الإلكترونية والأمن السيبراني، حمزة القضاة، عن أسلوب احتيالي جديد يعتمد على تقنية "Deepfake Voice Scam"، حيث يستغل المحتالون الذكاء الاصطناعي لتقليد أصوات أقارب الضحايا وإيهامهم بوجود حالات طارئة تستدعي تحويل الأموال بشكل مستعجل.
وسرد القضاة قصة المواطن محمود، الذي تلقى مكالمة هاتفية من شخص بدا وكأنه شقيقه، يطلب منه مبلغًا ماليًا بصفة عاجلة. ودون تردد، قام محمود بتحويل المال، ليكتشف لاحقًا أن شقيقه لم يطلب أي مبلغ، وأنه كان ضحية احتيال باستخدام الصوت المزيف.
وحذر القضاة من خطورة هذه التقنية، ناصحًا المواطنين بعدم الاستجابة الفورية لأي طلب مالي عبر الهاتف دون التحقق من هوية المتصل بوسائل أخرى، مثل إرسال رسالة نصية أو إجراء مكالمة فيديو. كما أوصى بوضع "كلمة سر عائلية" يتم استخدامها للتحقق من الهوية في الحالات الطارئة، وذلك كإجراء احترازي للحد من مخاطر هذه الحيل الاحتيالية. [1]
سيتم تحسين تجربتنا على هذا الموقع من خلال السماح بملفات تعريف الارتباط