وفيات من الاردن وفلسطين اليوم الجمعة 25- 5- 2025 العراق.. طير زاجل يتسبب في سقوط قتيل ومصابين السبب الخفي وراء تفشي سرطان القولون بين الشباب! الاحتيال الصوتي بالذكاء الاصطناعي.. خطر متزايد يهدد الأفراد والشركات منتدون يحذرون من العودة لما قبل مسارات الإصلاح والقضاء هو الفيصل - فيديو سوريا: الرد على قذائف أطلقها حزب الله تجاه نقاط للجيش منظمة التحرير الفلسطينية توافق على استحداث منصب نائب للرئيس اختبار 4 أدوية للزهايمر لمعرفة أيها الأفضل الأونروا: الحصار "الإسرائيلي" على غزة يؤدي إلى نفاد الإمدادات الأساسية احذر مشروب صحي شائع.. به سعرات تفوق المشروبات الغازية أبرز المزايا الجديدة المُتوقعة في سماعات AirPods Pro 3 (خطر صامت) يتسلل إلى الشرايين ويهددنا بجلطات قاتلة خالد الشوابكة نقيبًا للجيولوجيين بالتزكية الحكومة : يجب توفير أسس النزاهة في عملية الاستقطاب والتعيين أمانة عمّان تحذّر: رسائل احتيالية تخدع المواطنين باسم المخالفات !

القسم : منوعات عامة
نبض تيليجرام فيس بوك
نشر بتاريخ : 24/04/2025 توقيت عمان - القدس 11:16:58 PM
الاحتيال الصوتي بالذكاء الاصطناعي.. خطر متزايد يهدد الأفراد والشركات
الاحتيال الصوتي بالذكاء الاصطناعي.. خطر متزايد يهدد الأفراد والشركات

مع تسارع تطور تقنيات الذكاء الاصطناعي، أصبحت التهديدات السيبرانية أكثر ذكاءً وخداعًا، مما زاد من صعوبة اكتشافها والتصدي لها. ومن أبرز هذه التهديدات “الاحتيال الصوتي بالذكاء الاصطناعي” الذي يُعد من أخطر الأساليب الاحتيالية الحديثة؛ إذ يستغل المحتالون تقنيات متقدمة مثل استنساخ الأصوات والتزييف العميق لتنفيذ هجمات يصعب كشفها.

ما الاحتيال الصوتي المدعوم بالذكاء الاصطناعي؟

الاحتيال الصوتي المدعوم بالذكاء الاصطناعي (AI Vishing) هو تطور للاحتيال الهاتفي التقليدي؛ إذ يستخدم المهاجمون الذكاء الاصطناعي لتقليد أصوات أشخاص موثوقين كموظفي البنوك أو الأقارب بهدف خداع الضحايا ودفعهم إلى اتخاذ قرارات مالية خطيرة أو الكشف عن معلومات حساسة.

وما يميز هذا النوع من الاحتيال القدرة على تنفيذ آلاف المكالمات الآلية بسرعة ودقة، باستخدام أصوات مزيفة تحاكي نبرة ولهجة الشخص المستهدف.

حالات واقعية تكشف حجم الخطر

يُستخدم الاحتيال الصوتي بالذكاء الاصطناعي ضد الأفراد العاديين والشركات الكبرى. وقد أثبت هذا النوع من الاحتيال فعاليته، فقد ارتفعت نسبة الأمريكيين الذين خسروا أموالًا بسبب الاحتيال الصوتي إلى نسبة تبلغ 23% بين عامي 2023 و 2024.

وفيما يلي أبرز الهجمات التي نُفذت باستخدام هذه التقنية:

تقليد صوت وزير إيطالي

في مطلع عام 2025، انتحل محتالون صوت وزير الدفاع الإيطالي باستخدام الذكاء الاصطناعي لخداع رجال أعمال بارزين. وقد تمكنوا من الاحتيال على Massimo Moratti، المالك السابق لنادي إنتر ميلان وتمكنت الشرطة لاحقًا من استعادة الأموال المسروقة.

استهداف قطاع السياحة

ذكرت صحيفة وول ستريت جورنال أن الربع الأخير من عام 2024 شهد ارتفاعًا ملحوظًا في هجمات الاحتيال الصوتي ضد قطاع السياحة والسفر.

فقد تظاهر المحتالون بأنهم وكلاء سفر أو مدراء تنفيذيين، وتمكنوا من إقناع موظفي الفنادق بمنحهم بيانات حساسة أو صلاحيات غير مصرح بها.

انتحال أصوات أحد أفراد العائلة

في عام 2023، استخدم العديد من المحتالين الذكاء الاصطناعي لتقليد أصوات أفراد من عائلات مختلفة للاحتيال على كبار السن، إذ يتظاهرون بأنهم أحد الأحفاد أو الآباء ويطلبون تحويل مبلغ مالي بسرعة، وقد تمكنوا من سرقة قرابة 200,000 دولار من عدة عائلات. ولأن المكالمات كانت بأصوات مطابقة تمامًا لأحد أفراد تلك العائلات، فقد كانت شبه مستحيلة الاكتشاف.

الاحتيال الصوتي كخدمة (Vishing-as-a-Service)

ظهر مفهوم جديد يُعرف بالاحتيال الصوتي كخدمة (Vishing-as-a-Service)، يشير إلى قدرة المحتالين على الاشتراك في خدمات تتيح لهم استخدام تقنيات متقدمة تشمل:

تقليد أصوات بشرية قابلة للتخصيص.

تصميم سيناريوهات احتيالية مخصصة.

انتحال أرقام المتصلين وإضافة ضجيج واقعي لمحاكاة مراكز الاتصال.

شركة PlugValley تُعد من أبرز مزودي هذه الخدمات، وقد رصد خبراء الأمن أنشطتها لكشف مدى تعقيد هذه الهجمات الآلية وسهولة تنفيذها باستخدام اشتراكات شهرية بسيطة.

إذ يمكّن روبوت الاحتيال الصوتي الذي تطوره PlugValley المهاجمين من استخدام أصوات واقعية قابلة للتخصيص لخداع الضحايا. ويمكن للروبوت التفاعل لحظيًا مع الشخص المستهدف، وتقليد أنماط الكلام البشري، وانتحال أرقام المتصلين، وحتى إضافة ضوضاء خلفية تشبه الموجودة في مراكز الاتصال.

تساهم هذه الخدمة في جعل الهجمات مقنعة؛ مما يُسهل سرقة البيانات البنكية وكلمات المرور المؤقتة (OTP). كما تُزيل الحواجز التقنية أمام مجرمي الإنترنت، وتوفر لهم أدوات احتيالية سهلة الاستخدام من خلال اشتراكات شهرية بسيطة.

كيف نحمي أنفسنا من هذا النوع من الاحتيال؟

يمكن للمؤسسات اتباع النصائح التالية لحماية أعمالها من الاحتيال الصوتي المدعوم بالذكاء الاصطناعي:

تدريب الموظفين على كيفية التحقق من هوية المتصل وعدم تقديم معلومات سرية عبر الهاتف دون تحقق.

تعزيز أنظمة كشف الاحتيال باستخدام الذكاء الاصطناعي.

تعرف أساليب الاحتيال الحديثة للتمكن من التصدي لها بسهولة.

وأما الأفراد فعليهم اتباع النصائح التالية:

عدم الوثوق بأي مكالمة غير متوقعة يطلب فيها المتصل معلومات شخصية أو مالية.

استخدام كلمة سر بين أفراد العائلة للتحقق من هوية المتصل في الحالات الطارئة.

ابلاغ السلطات فورًا عن أي محاولة احتيالية أو مكالمة مشبوهة.

 

الحقيقة الدولية – وكالات

Thursday, April 24, 2025 - 11:16:58 PM
المزيد من اخبار القسم الاخباري

آخر الاضافات


أخبار منوعة
حوادث



>
جميع الحقوق محفوظة © الحقيقة الدولية للدراسات والبحوث 2005-2023