زادت هجمات التصيد الاحتيالي بنسبة %1,265 منذ إطلاق (ChatGPT)

لقد أحدث الذكاء الاصطناعي التوليدي ثورة في كل جانب من جوانب الحياة اليومية تقريبًا في وقت قصير نسبيًا. ومع ذلك، فإن أحد الآثار الجانبية المؤسفة لهذا الانتقال إلى الاتجاه السائد هو ظهور عمليات التصيد الاحتيالي باستخدام هذه التكنولوجيا. يشير تقرير جديد صادر عن شركة الأمن السيبراني SlashNext إلى أن رسائل البريد الإلكتروني التصيدية زادت بنسبة 1,265% منذ إطلاق ChatGPT.


بالإضافة إلى تطوير أدوات الذكاء الاصطناعي المولدة للبرامج الضارة مثل WormGPT وDark Bart وFraudGPT، والتي تنتشر على شبكة الإنترنت المظلمة، يجد مجرمو الإنترنت أيضًا طرقًا جديدة لكسر حماية برنامج الدردشة الآلي الرائد الخاص بـ OpenAI.

وقال باتريك هار، الرئيس التنفيذي لشركة SlashNext، لموقع Decrypt : "عندما تم إطلاق ChatGPT في فبراير، شهدنا زيادة كبيرة في عدد هجمات التصيد الاحتيالي، ويرجع ذلك جزئيًا إلى النجاح الشامل للهجمات باستخدام هذا الذكاء الاصطناعي التوليدي ".

تشير هجمات التصيد الاحتيالي إلى هجوم إلكتروني يأتي في شكل بريد إلكتروني أو رسالة نصية أو رسالة وسائط اجتماعية يبدو أنها واردة من مصدر موثوق. يمكن أيضًا تصميم هجمات التصيد الاحتيالي لتوجيه الضحايا إلى مواقع الويب الضارة التي تخدعهم لتوقيع المعاملات باستخدام محفظة العملات المشفرة الخاصة بهم ومن ثم استنزاف أموالهم.

وفقًا لتقرير SlashNext، تم إرسال 31000 هجمة تصيد يوميًا في الربع الأخير من عام 2022، وهو ما يمثل زيادة بنسبة 967% في عمليات التصيد الاحتيالي لبيانات الاعتماد. وفقًا لـ SlashNext، فإن 68% من جميع هجمات التصيد الاحتيالي هي عبارة عن اختراقات بريد إلكتروني نصية للأعمال  ، و39% من جميع الهجمات المستندة إلى الهاتف المحمول كانت عبارة عن هجمات تصيد عبر الرسائل النصية القصيرة أو ما يسمى ب (Smishing).

 وبما أن مجرمي الإنترنت يستخدمون الذكاء الاصطناعي التوليدي لمهاجمة الضحايا، قال هار إنه يجب على متخصصي الأمن السيبراني شن الهجوم ومحاربة الذكاء الاصطناعي بالذكاء الاصطناعي.

وقال: "تحتاج هذه الشركات إلى دمج [الذكاء الاصطناعي] مباشرة في برامجها الأمنية بحيث يبحث [الذكاء الاصطناعي] باستمرار في جميع قنوات المراسلة الخاصة بها للقضاء على هذه [التهديدات]". "لهذا السبب نستخدم الذكاء الاصطناعي التوليدي في أدواتنا الخاصة للكشف وليس الحظر فحسب، بل التنبؤ أيضًا بكيفية حدوث الهجوم المقبل."

باختصار ، و كما يقولون في الدراسة، يجب ألا ننسى أنه على الرغم من أن ChatGPT وغيره من أنظمة الذكاء الاصطناعي تفتح طريقًا جديدًا للهجوم، إلا أنها يمكن أن تكون أيضًا أدوات تستخدم للدفاع عن نفسها. وسنشهد في السنوات المقبلة تغيرات مهمة على الصعيد الأمني.

تعليقات