محمد مغربي يكتب: النصب بالذكاء الاصطناعي.. احذروا فخ المحتالين

الوطن 0 تعليق ارسل طباعة تبليغ حذف

نعرض لكم زوارنا أهم وأحدث الأخبار فى المقال الاتي:
محمد مغربي يكتب: النصب بالذكاء الاصطناعي.. احذروا فخ المحتالين, اليوم الخميس 14 نوفمبر 2024 05:31 صباحاً

كان السؤال الذى طرأ على ذهنى: ماذا لو جلس جليل البندارى ليكتب اليوم سيناريو فيلم «العتبة الخضراء» الذى قدّمه للسينما فى عام 1959، هل يحتاج إلى مكتب يجلس فيه أحمد مظهر لينصب شِباكه حول الضحية، هل سيتم الاستعانة بصباح كوجه أنثوى قادر على استدراج المنصوب عليه، وهل سيكون هناك أدوار لمحمد صبيح وغيره ليقوموا بدور الموظفين لحبك القصة وإقناع «المغفل»؟

الحقيقة، إن جليل البنداري لن يحتاج حشو السيناريو بجمل كثيرة، ولن يحتار فطين عبدالوهاب، مخرج العمل، فى اختيار الممثلين، واختيار مواقع الكاميرات التى تنقل بها بين ميدان العتبة ومكتب أحمد مظهر، ففى عصر الذكاء الاصطناعى باتت الأمور أبسط من ذلك، وبات النصب لا يحتاج سوى إلى أجهزة متطورة تؤدى الغرض منها.

يؤكد ذلك وقائع الاحتيال خلال الأشهر الماضية، والتى تم استخدام تقنية «نسخ الصوت» القائمة على الذكاء الاصطناعى للإيقاع بالضحايا الذين وقعوا فى هذا الفخ، ففى الإمارات مثلاً، استطاع أحد اللصوص، استخدام صوت المدير التنفيذى لأحد البنوك الإماراتية، وطلب من أحد موظفى البنك، تحويلات مالية بملايين الدولارات إلى حسابات وهمية وصلت قيمتها إلى أكثر من 35 مليون دولار بسبب دقة تطابق الصوت المزيف مع الصوت الأصلى.

الأمر لا يقتصر على ذلك، فكثير من اللصوص، ينسخون أصوات مديرين تنفيذيين فى شركات الاستثمار، لإقناع موظفى الشركات بتحويل مبالغ كبيرة إلى حسابات خارجية غير معروفة، ومن أبرز الأمثلة أن إحدى شركات الاستثمار الأوروبية تعرضت لعملية احتيال بملايين الدولارات، بعد أن تلقّى مدير الحسابات اتصالاً بصوت مطابق لصوت المدير التنفيذى الذى كرر نفس اللعبة.

أيضاً، ضمن أبرز مظاهر النصب عبر الذكاء الاصطناعى، هو ما بات يُعرف بمكالمات «الجد والجدة»، والمقصود احتيال يستهدف كِبار السن، ويتم استخدام صوت مُقلّد لأحد أفراد الأسرة مثل الحفيد، لإقناع الجد أو الجدة بأنهم فى أزمة ويحتاجون إلى أموال بشكل عاجل، هذه الحوادث كثرت خلال الفترة الماضية فى أمريكا وكندا، ويستخدم فيها المجرمون التأثير العاطفى للوصول إلى غرضهم، كذلك الأمر بالنسبة لخدعة «الشركات الصغيرة» التى تُستخدم فيها الأصوات المقلدة لتقديم طلبات عاجلة تتضمن شراء معدات أو خدمات، مع وعد بتحويل الأموال لاحقاً، وخسرت شركات كثيرة مبالغ تُقدر بعشرات الآلاف من الدولارات.

ويتبقى النوع الأخير، وهو احتيال شركات الخدمات القانونية، إذ يتم استخدام صوت مقلّد لأحد العملاء لإجراء مكالمات مع مكاتب محاماة، وطلب خدمات قانونية عاجلة مع وعود بتسديد الأتعاب لاحقاً، وكالعادة وقعت المكاتب فى الفخ وخسرت أموالاً كثيرة.

تلك الوقائع مع اختلاف أنواعها، هى ما دفعت وكالة التحقيقات الفيدرالية الأمريكية «إف بى آى» إلى تصعيد تحذيراتها حول عمليات الاحتيال المتطورة تلك، كاشفة كيف يتم هذا، ومن خلال أى تقنية، على أمل أن يسهم ذلك فى الحد منها أو تحذير الضحايا.

وعلى العموم، فإن تجنب الوقوع ضحية لتقنيات الذكاء الاصطناعى الخاصة بنسخ الصوت، يحتاج إلى مجموعة من الاحتياطات، أولها، التأكيد على الهوية باستخدام قنوات مختلفة، ففى حالة تلقى مكالمة من شخص يطلب تحويلات مالية عاجلة، من الأفضل التحقق من هوية المتصل من خلال التواصل معه عبر قنوات أخرى مثل «البريد الإلكترونى، مكالمة عبر هاتف آخر»، فهذا يساعد فى التأكد من صحة الطلب.

كما تعد المصادقة الثنائية والمتعددة ضمن الطرق الوقائية أيضاً، إذ تعتمد على إضافة طبقة إضافية من الأمان، فيُطلب من المستخدمين إدخال رمز، أو تأكيد إضافى عند إجراء معاملات مالية، أو الوصول إلى الحسابات الحساسة، هذا يعزز إجراءات الأمان، كذلك تدريب وزيادة الوعى بين الموظفين على كيفية اكتشاف وتجنب الاحتيالات، خاصة التى تتضمن طلبات مالية مستعجلة، ويمكن تخصيص دورات تدريبية حول أساليب الهندسة الاجتماعية وتقنيات الاحتيال الحديثة.

تضم قائمة إجراءات الوقاية أيضاً، اعتماد بعض الشركات، خاصة الكبرى، على تقنيات متطورة لاكتشاف الأصوات المزيفة من خلال الذكاء الاصطناعى، وهى أدوات يمكنها تحليل نبرة الصوت وكشف التزييف، بالإضافة إلى تقليل المعلومات الشخصية المتاحة علناً، إذ يستقصى المحتالون عن الضحايا من خلال وسائل التواصل الاجتماعى، ويبقى الإجراء الأخير هو التحقق المسبق للمعاملات المالية الكبيرة، من خلال فرض بروتوكولات داخل المؤسسات، تتطلب موافقات متعددة أو وقتاً للتأكد قبل تنفيذ أى تحويل مالى كبير، مما يُعطى فرصة لكشف عمليات الاحتيال.

إخترنا لك

أخبار ذات صلة

0 تعليق