مع تسارع تطور تقنيات الذكاء الاصطناعي، أصبحت التهديدات السيبرانية أكثر ذكاءً وخداعًا، مما زاد من صعوبة اكتشافها والتصدي لها. ومن أبرز هذه التهديدات “الاحتيال الصوتي بالذكاء الاصطناعي” الذي يُعد من أخطر الأساليب الاحتيالية الحديثة؛ إذ يستغل المحتالون تقنيات متقدمة مثل استنساخ الأصوات والتزييف العميق لتنفيذ هجمات يصعب كشفها.
ما الاحتيال الصوتي المدعوم بالذكاء الاصطناعي؟
الاحتيال الصوتي المدعوم بالذكاء الاصطناعي (AI Vishing) هو تطور للاحتيال الهاتفي التقليدي؛ إذ يستخدم المهاجمون الذكاء الاصطناعي لتقليد أصوات أشخاص موثوقين كموظفي البنوك أو الأقارب بهدف خداع الضحايا ودفعهم إلى اتخاذ قرارات مالية خطيرة أو الكشف عن معلومات حساسة.
وما يميز هذا النوع من الاحتيال القدرة على تنفيذ آلاف المكالمات الآلية بسرعة ودقة، باستخدام أصوات مزيفة تحاكي نبرة ولهجة الشخص المستهدف.
حالات واقعية تكشف حجم الخطر
يُستخدم الاحتيال الصوتي بالذكاء الاصطناعي ضد الأفراد العاديين والشركات الكبرى. وقد أثبت هذا النوع من الاحتيال فعاليته، فقد ارتفعت نسبة الأمريكيين الذين خسروا أموالًا بسبب الاحتيال الصوتي إلى نسبة تبلغ 23% بين عامي 2023 و 2024.
وفيما يلي أبرز الهجمات التي نُفذت باستخدام هذه التقنية:
تقليد صوت وزير إيطالي
في مطلع عام 2025، انتحل محتالون صوت وزير الدفاع الإيطالي باستخدام الذكاء الاصطناعي لخداع رجال أعمال بارزين. وقد تمكنوا من الاحتيال على Massimo Moratti، المالك السابق لنادي إنتر ميلان وتمكنت الشرطة لاحقًا من استعادة الأموال المسروقة.
استهداف قطاع السياحة
ذكرت صحيفة وول ستريت جورنال أن الربع الأخير من عام 2024 شهد ارتفاعًا ملحوظًا في هجمات الاحتيال الصوتي ضد قطاع السياحة والسفر.
فقد تظاهر المحتالون بأنهم وكلاء سفر أو مدراء تنفيذيين، وتمكنوا من إقناع موظفي الفنادق بمنحهم بيانات حساسة أو صلاحيات غير مصرح بها.
انتحال أصوات أحد أفراد العائلة
في عام 2023، استخدم العديد من المحتالين الذكاء الاصطناعي لتقليد أصوات أفراد من عائلات مختلفة للاحتيال على كبار السن، إذ يتظاهرون بأنهم أحد الأحفاد أو الآباء ويطلبون تحويل مبلغ مالي بسرعة، وقد تمكنوا من سرقة قرابة 200,000 دولار من عدة عائلات. ولأن المكالمات كانت بأصوات مطابقة تمامًا لأحد أفراد تلك العائلات، فقد كانت شبه مستحيلة الاكتشاف.
الاحتيال الصوتي كخدمة (Vishing-as-a-Service)
ظهر مفهوم جديد يُعرف بالاحتيال الصوتي كخدمة (Vishing-as-a-Service)، يشير إلى قدرة المحتالين على الاشتراك في خدمات تتيح لهم استخدام تقنيات متقدمة تشمل:
- تقليد أصوات بشرية قابلة للتخصيص.
- تصميم سيناريوهات احتيالية مخصصة.
- انتحال أرقام المتصلين وإضافة ضجيج واقعي لمحاكاة مراكز الاتصال.
شركة PlugValley تُعد من أبرز مزودي هذه الخدمات، وقد رصد خبراء الأمن أنشطتها لكشف مدى تعقيد هذه الهجمات الآلية وسهولة تنفيذها باستخدام اشتراكات شهرية بسيطة.
إذ يمكّن روبوت الاحتيال الصوتي الذي تطوره PlugValley المهاجمين من استخدام أصوات واقعية قابلة للتخصيص لخداع الضحايا. ويمكن للروبوت التفاعل لحظيًا مع الشخص المستهدف، وتقليد أنماط الكلام البشري، وانتحال أرقام المتصلين، وحتى إضافة ضوضاء خلفية تشبه الموجودة في مراكز الاتصال.
تساهم هذه الخدمة في جعل الهجمات مقنعة؛ مما يُسهل سرقة البيانات البنكية وكلمات المرور المؤقتة (OTP). كما تُزيل الحواجز التقنية أمام مجرمي الإنترنت، وتوفر لهم أدوات احتيالية سهلة الاستخدام من خلال اشتراكات شهرية بسيطة.
كيف نحمي أنفسنا من هذا النوع من الاحتيال؟
يمكن للمؤسسات اتباع النصائح التالية لحماية أعمالها من الاحتيال الصوتي المدعوم بالذكاء الاصطناعي:
- تدريب الموظفين على كيفية التحقق من هوية المتصل وعدم تقديم معلومات سرية عبر الهاتف دون تحقق.
- تعزيز أنظمة كشف الاحتيال باستخدام الذكاء الاصطناعي.
- تعرف أساليب الاحتيال الحديثة للتمكن من التصدي لها بسهولة.
وأما الأفراد فعليهم اتباع النصائح التالية:
- عدم الوثوق بأي مكالمة غير متوقعة يطلب فيها المتصل معلومات شخصية أو مالية.
- استخدام كلمة سر بين أفراد العائلة للتحقق من هوية المتصل في الحالات الطارئة.
- ابلاغ السلطات فورًا عن أي محاولة احتيالية أو مكالمة مشبوهة.
نسخ الرابط تم نسخ الرابط
أخبار متعلقة :