قال رئيس المخاطر وحلول الهوية العالمية، في شركة فيزا، جيمس ميرفين، "ننظر إلى أكثر من 500 سمة مختلفة حول كل معاملة، ونسجل ذلك وننشئ درجة - وهذا نموذج ذكاء اصطناعي سيفعل ذلك بالفعل. نحن نجري حوالي 300 مليار معاملة سنويًا".
يستخدم المحتالون الذكاء الاصطناعي التوليدي لجعل عمليات الاحتيال الخاصة بهم أكثر إقناعًا من أي وقت مضى، مما يؤدي إلى خسائر غير مسبوقة للمستهلكين، وفقًا لتقرير Visa.
تستخدم شركة المدفوعات العملاقة فيزا الذكاء الاصطناعي والتعلم الآلي لمكافحة الاحتيال، وفقًا لما قاله جيمس ميرفين، رئيس قسم المخاطر وحلول الهوية العالمية.
منعت الشركة بما قيمته 40 مليار دولار من الأنشطة الاحتيالية من أكتوبر 2022 إلى سبتمبر 2023، أي ما يقرب من ضعف العام السابق عليه.
قال ميرفين، إن التكتيكات الاحتيالية التي يستخدمها المحتالون تشمل استخدام الذكاء الاصطناعي لتوليد أرقام الحسابات الأساسية واختبارها باستمرار. رقم PAN هو معرف بطاقة، يتكون عادةً من 16 رقمًا ولكن يمكن أن يصل إلى 19 رقمًا في بعض الحالات، ويوجد على بطاقات الدفع.
باستخدام روبوتات الذكاء الاصطناعي، يحاول المجرمون مرارًا وتكرارًا تقديم المعاملات عبر الإنترنت من خلال مجموعة من أرقام الحسابات الأساسية وقيم التحقق من البطاقة (CVV) وتواريخ انتهاء الصلاحية - حتى يحصلوا على استجابة بالموافقة، وفقا لتقرير نشرته شبكة "CNBC"، الأميركية.
وتؤدي هذه الطريقة، المعروفة باسم هجوم التعداد، إلى خسائر احتيالية بقيمة 1.1 مليار دولار سنويًا، وهو ما يشكل حصة كبيرة من إجمالي الخسائر العالمية بسبب الاحتيال، وفقًا لشركة Visa.
وقال ميرفين، "ننظر إلى أكثر من 500 سمة مختلفة حول [كل] معاملة، ونقوم بتسجيلها وننشئ درجة - وهذا نموذج ذكاء اصطناعي يقوم بذلك بالفعل. نقوم بإجراء حوالي 300 مليار معاملة سنويًا".
يتم تعيين درجة مخاطرة في الوقت الفعلي لكل معاملة تساعد في اكتشاف ومنع الهجمات على المعاملات حيث تتم معالجة عملية شراء عن بُعد بدون بطاقة مادية عبر قارئ بطاقات.
وقال ميرفين: "تمت معالجة كل واحدة من هذه [المعاملات] بواسطة الذكاء الاصطناعي. إنه ينظر إلى مجموعة من السمات المختلفة ونقوم بتقييم كل معاملة على حدة".
"لذا إذا رأيت نوعًا جديدًا من الاحتيال يحدث، فسيلاحظ نموذجنا ذلك، وسيكتشفه، وسيسجل هذه المعاملات على أنها عالية المخاطر ومن ثم يمكن لعملائنا أن يقرروا عدم الموافقة على هذه المعاملات".
باستخدام الذكاء الاصطناعي، تقوم "فيزا" أيضًا بتقييم احتمالية الاحتيال لطلبات توفير الرموز - لمواجهة المحتالين الذين يستغلون الهندسة الاجتماعية وغيرها من عمليات الاحتيال لتوفير الرموز بشكل غير قانوني وإجراء معاملات احتيالية.
في السنوات الخمس الماضية، استثمرت الشركة 10 مليارات دولار في التكنولوجيا التي تساعد في الحد من الاحتيال وزيادة أمان الشبكة.
الاحتيال المدعوم بالذكاء الاصطناعي التوليدي
حذر ميرفين من أن مجرمي الإنترنت يتجهون إلى الذكاء الاصطناعي التوليدي وغيره من التقنيات الناشئة بما في ذلك استنساخ الصوت والتزييف العميق لخداع الناس.
وقال: "عمليات الاحتيال الرومانسية، وعمليات الاحتيال الاستثمارية، كلها تستخدم الذكاء الاصطناعي".
"إذا فكرت فيما يفعلونه، فهو ليس مجرمًا يجلس في سوق يلتقط هاتفًا ويتصل بشخص ما. "إنهم يستخدمون بعض مستويات الذكاء الاصطناعي، سواء كان ذلك استنساخًا صوتيًا، أو تزييفًا عميقًا، أو هندسة اجتماعية. إنهم يستخدمون الذكاء الاصطناعي لتنفيذ أنواع مختلفة من ذلك"، وفقا لميرفين.
تمكن أدوات الذكاء الاصطناعي التوليدي مثل ChatGPT المحتالين من إنتاج رسائل تصيد أكثر إقناعًا لخداع الناس.
وقال بول فابارا، كبير مسؤولي المخاطر وخدمات العملاء في "فيزا"، في تقرير التهديدات النصف السنوي للشركة: "مع استخدام الذكاء الاصطناعي التوليدي وغيره من التقنيات الناشئة، أصبحت عمليات الاحتيال أكثر إقناعًا من أي وقت مضى، مما يؤدي إلى خسائر غير مسبوقة للمستهلكين".
قال مركز ديلويت للخدمات المالية في تقرير إن مجرمي الإنترنت الذين يستخدمون الذكاء الاصطناعي التوليدي لارتكاب الاحتيال يمكنهم القيام بذلك بتكلفة أقل بكثير من خلال استهداف ضحايا متعددين في وقت واحد باستخدام نفس الموارد أو أقل.
وذكر التقرير: "من المرجح أن تتكاثر مثل هذه الحوادث في السنوات القادمة حيث ينشط المجرمون السيئون وينشرون ذكاء اصطناعيًا توليديًا متطورًا وبأسعار معقولة بشكل متزايد للاحتيال على البنوك وعملائها"، وقدر أن الذكاء الاصطناعي التوليدي يمكن أن يزيد خسائر الاحتيال إلى 40 مليار دولار في الولايات المتحدة بحلول عام 2027، من 12.3 مليار دولار في عام 2023.
في وقت سابق من هذا العام، أرسل موظف في شركة مقرها هونغ كونغ 25 مليون دولار إلى محتال قام بتقمص شخصية مديره المالي عبر التزييف والاحتيال وأمره بإجراء التحويل.
وذكرت وسائل إعلام صينية رسمية حالة مماثلة في مقاطعة شانشي هذا العام حيث تم خداع موظفة لتحويل 1.86 مليون يوان (262 ألف دولار) إلى محتال استخدم مقطع فيديو مزيفًا لرئيسها في مكالمة فيديو