إذا كانت نماذج الذكاء الاصطناعيّ قد عزّزت الإنتاجيّة في قطاعات اقتصاديّة شتّى فهي أعطت أيضاً دفعة كبيرة للعالم السرّيّ للجريمة الرقميّة. في هذا الإطار، أعدّت ميليسا هيكيلا تقريراً لمجلّة "إم آي تي تكنولوجي ريفيو" عرضت فيه خمس طرق يستخدم المجرمون من خلالها الذّكاء الاصطناعيّ لغايات خبيثة.
وكتبت في التقرير أنّ الذكاء الاصطناعيّ التوليديّ يولّد مجموعة أدوات جديدة وقوية تسمح للّاعبين الخبثاء بالعمل بكفاءة أكبر وعلى مستوى دولي أوسع من أي وقت مضى، كما يقول فينشينزو تشانكاغليني، باحث بارز في شؤون التهديدات في شركة "تريند مايكرو" الأمنيّة.
شهدت السنة الماضية صعود وسقوط WormGPT، وهو ذكاء اصطناعيّ مبنيّ على نموذج مفتوح المصدر ومدرّب على البيانات المتعلّقة بالبرامج الضارّة والذي تمّ إنشاؤه لمساعدة المقرصنين. وكان مجرّداً من القواعد أو القيود الأخلاقية. في الصيف الماضي، أعلن مبتكروه أنّهم سيغلقون النموذج بعدما بدأ يجذب اهتمام وسائل الإعلام. منذ ذلك الحين، توقّف المجرمون السيبرانيون في الغالب عن تطوير نماذج الذكاء الاصطناعيّ الخاصة بهم. بدلاً من ذلك، هم يختارون الحيل باستخدام الأدوات الموجودة التي تعمل بشكل موثوق. ويوضح تشانكاغليني أنّ سبب ذلك رغبة المجرمين بحياة سهلة ومكاسب سريعة.
في ما يلي 5 طرق يستخدم بها المجرمون الذّكاء الاصطناعيّ.
1-التصيّد
هو أكبر حالة استخدام للذكاء الاصطناعيّ التوليديّ بين المجرمين في الوقت الراهن. يتضمّن محاولة خداع الأشخاص للكشف عن معلومات حسّاسة يمكن استخدامها لأغراض ضارّة، كما يقول ميسلاف بالونوفيتش، باحث في أمن الذكاء الاصطناعي في ETH زيورخ. وجد الباحثون أنّ ظهور "تشات جي بي تي" كان مصحوباً بارتفاع كبير في عدد رسائل البريد الإلكتروني التصيّديّة.
يقول تشانكاغليني إنّ الخدمات التي تنتج البريد المزعج مثل "غومايل برو" دُمج فيها "تشات جي بي تي" ممّا سمح للمستخدمين المجرمين بترجمة أو تحسين الرسائل المرسلة إلى الضحايا. تقيّد سياسات "أوبن إيه آي" الأشخاص من استخدام منتجاتهم في أنشطة غير قانونيّة، لكن يصعب مراقبة ذلك في الممارسة العمليّة، لأنّ العديد من المطالبات التي تبدو بريئة يمكن استخدامها لأغراض ضارّة أيضاً كما يقول تشانكاغليني.
Five ways criminals are using #AI https://t.co/RLDdPY4QIw
— Pascal Taillandier 🇪🇺 (@ptaillandier) May 23, 2024
قال متحدّث باسم "أوبن إيه آي" للمجلّة نفسها: "نحن نأخذ سلامة منتجاتنا على محمل الجدّ ونعمل باستمرار على تحسين تدابير السلامة لدينا بناء على كيفيّة استخدام الأشخاص لمنتجاتنا". وفي تقرير صدر في شباط (فبراير)، قالت "أوبن إيه آي" إنّها أغلقت خمسة حسابات مرتبطة بجهات دولتيّة ضارة.
في السابق، كان من السهل نسبيّاً اكتشاف ما يسمى بعمليّات احتيال الأمير النيجيريّ، حيث يَعِد شخصٌ ما الضحيّة بمبلغ كبير من المال مقابل دفعة صغيرة مقدّماً، لأنّ اللغة الإنجليزيّة في الرسائل كانت خرقاء ومليئة بالأخطاء النحويّة. تسمح نماذج اللغة للمحتالين بإنشاء رسائل تبدو وكأنّها شيء قد يكتبه ناطق أساسيّ باللغة الإنجليزيّة. تغيّر ذلك الآن بحسب تشانكاغليني.
بفضل ترجمة أفضل تعتمد على الذّكاء الاصطناعيّ، يمكن للمجموعات الإجراميّة المختلفة حول العالم التواصل بشكل أفضل مع بعضها البعض. ويكمن الخطر في أنّها تستطيع تنسيق عمليّات واسعة تمتدّ إلى ما هو أبعد من بلدانها وتستهدف ضحايا في بلدان أخرى، كما يقول تشانكاغليني.
2-عمليات التزييف الصوتيّ العميق
لقد سمح الذكاء الاصطناعيّ التوليديّ بتحقيق تطوير التزييف العميق قفزة كبيرة إلى الأمام، حيث أصبحت الصور ومقاطع الفيديو والصوت الاصطناعيّة تبدو أكثر واقعيّة من أي وقت مضى. لم يمرّ هذا بدون أن يلاحظه أحد في عالم الجريمة السرّيّ.
في وقت سابق من هذه السنة، ذكرت الأنباء أنّ موظفاً في هونغ كونغ تعرّض للاحتيال وسلب 25 مليون دولار بعدما استخدم مجرمو الإنترنت تقنيّة التزييف العميق للمدير الماليّ للشركة من أجل إقناع الموظّف بتحويل الأموال إلى حساب المحتال. يقول تشانكاغليني إنّ فريقه وجد أشخاصاً على منصّات مثل "تلغرام" يعرضون "محفظة" من التزييف العميق ويبيعون خدماتهم مقابل مبلغ زهيد يصل إلى 10 دولارات لكل صورة أو 500 دولار لكلّ دقيقة من الفيديو. يقول تشانكاغليني إنّ أحد أكثر الأشخاص شعبيّة بين مستخدمي التزييف العميق هو إيلون ماسك.
وبينما يظلّ صنع مقاطع الفيديو الشديدة التزييف معقّداً ويسهل على البشر اكتشافها، يختلف الحال بالنسبة إلى المقاطع الصوتيّة العميقة. فهي رخيصة الصنع ولا تتطلب سوى بضع ثوان من صوت شخص ما مأخوذ من وسائل التواصل الاجتماعي مثلاً لتوليد شيء مقنع بشكل مخيف.
في الولايات المتحدة، كانت هناك حالات بارزة تلقّى فيها أشخاص مكالمات مؤلمة من أحبّائهم يقولون إنّهم تعرضوا للاختطاف ويطلبون إطلاق سراحهم، ليتبيّن أنّ المتّصل محتال يستخدم تسجيلاً صوتيّاً مزيّفاً.
يقول تشانكاغليني: "يحتاج الناس إلى إدراك أنّ هذه الأشياء أصبحت ممكنة الآن، ويجب أن يدركوا أن الملك النيجيريّ لم يعد يتحدّث الإنجليزيّة المكسّرة بعد اليوم". ويوصي بالاتّفاق على كلمة سرّيّة آمنة يتمّ تغييرها بانتظام بين الأحبّاء، ممّا قد يساعد في تأكيد هوية الشخص على الطرف الآخر من الخطّ.
3-تجاوز عمليّات التحقّق من الهويّة
ثمّة طريقة أخرى يستخدمها المجرمون في التزييف العميق وهي تجاوز أنظمة التحقّق "اِعرف عميلك". تستخدم البنوك وبورصات العملات المشفّرة هذه الأنظمة للتحقّق من أنّ عملاءها أشخاص حقيقيّون. هي تتطلّب من المستخدمين الجدد التقاط صورة لأنفسهم وهم يحملون وثيقة هويّة فعليّة أمام الكاميرا. لكنّ المجرمين بدأوا بيع تطبيقات على منصّات مثل "تلغرام" تسمح للأشخاص بالتغلّب على هذا المطلب.
Five ways criminals are using AI: Artificial intelligence has brought a big boost in productivity—to the criminal underworld. Generative AI provides a new, powerful tool kit that allows malicious actors to work far more efficiently and internationally… https://t.co/oHIhdq76Od
— Bruno Ciano (@brunociano) May 21, 2024
إنّهم يعملون من خلال تقديم بطاقة هويّة مزيّفة أو مسروقة وفرض صورة مزيّفة فوق وجه شخص حقيقيّ لخداع نظام التحقّق على كاميرا هاتف "أندرويد". وجد تشانكاغليني أمثلة حيث يقدّم الأشخاص هذه الخدمات لموقع العملات المشفرة "بايننس" (Binance) مقابل مبلغ زهيد يصل إلى 70 دولاراً.
يقول تشانكاغليني: "إنّها لا تزال أوّليّة إلى حدّ ما". تشبه التقنيات التي يستخدمونها "فلاتر" إنستغرام حيث يتم تبديل وجه شخص آخر بوجهك. ويضيف: "ما يمكن أن نتوقّعه في المستقبل هو أن يستخدم (المجرمون) صوراً مزيّفة فعليّة... حتى تتمكنوا من إجراء مصادقة أكثر تعقيداً".
4-كسر الحماية
إذا سألتم معظم أنظمة الذكاء الاصطناعيّ عن كيفيّة صنع قنبلة، فلن تحصلوا على إجابة مفيدة. فشركات الذكاء الاصطناعيّ وضعت ضمانات مختلفة لمنع نماذجها من نشر معلومات ضارّة أو خطيرة. بدلاً من بناء نماذج ذكاء اصطناعيّ خاصة بهم من دون هذه الضمانات، وهو أمر مكلف وصعب وطويل، بدأ مجرمو الإنترنت تبنّي اتجاه جديد: خدمة كسر الحماية (jailbreak-as-a-service)
تأتي معظم النّماذج مع قواعد حول كيفيّة استخدامها. يسمح كسر الحماية للمستخدمين بالتلاعب بنظام الذكاء الاصطناعيّ لإنشاء مخرجات تنتهك هذه السياسات، من أجل كتابة تعليمات برمجيّة لبرامج الفدية مثلاً أو إنشاء نصّ يمكن استخدامه في رسائل البريد الإلكترونيّ الاحتياليّة.
لمواجهة هذه الصناعة المنزليّة المتنامية، يتعيّن على شركات الذكاء الاصطناعيّ مثل "أوبن إيه آي" و"غوغل" في كثير من الأحيان سدّ الثغرات الأمنيّة التي قد تسمح بإساءة استخدام نماذجها. تستخدم خدمات كسر الحماية حيلاً مختلفة لاختراق آليّات الأمان، مثل طرح أسئلة افتراضية أو طرح أسئلة بلغات أجنبيّة. ثمّة لعبة قط وفأر مستمرة بين شركات الذكاء الاصطناعيّ التي تحاول منع نماذجها من سوء التصرف والجهات الخبيثة التي تطرح تلقينات أكثر إبداعاً لكسر الحماية.
"إنّ مواكبة عمليّات كسر الحماية هي نشاط شاق" بحسب تشانكاغليني. "تتوصّلون إلى نموذج جديد، ثم تحتاجون إلى اختباره، ثم سيعمل لمدة أسبوعين، ثم تقوم أوبن إيه آي بتحديث نموذجها". وأضاف "أنّ كسر الحماية هو خدمة مثيرة جداً للاهتمام بالنسبة إلى المجرمين".
5-استقاء المعلومات الضارّة والمراقبة
يقول بالونوفيتش إنّ نماذج اللغة المبنيّة على الذكاء الاصطناعيّ هي أداة مثاليّة ليس فقط للتصيّد الاحتياليّ، بل أيضاً لجمع المعلومات الشخصيّة doxxing (الكشف عن معلومات خاصّة وتحديد هويّة شخص ما عبر الإنترنت). يحدث ذلك لأنّ نماذج اللغة المبنيّة على الذكاء الاصطناعيّ تخضع للتدريب على كمّيّات هائلة من بيانات الإنترنت، من ضمنها البيانات الشخصيّة، ويمكنها استنتاج المكان الذي يمكن أن يوجد فيه شخص ما.
وكمثل على كيفيّة عمل ذلك، يمكن الطّلب من برنامج الدردشة الآليّ التظاهر بأنه محقّق خاصّ يتمتّع بخبرة في جمع البيانات. ثم يمكن الطلب منه تحليل النصّ الذي كتبه الضحيّة، واستنتاج المعلومات الشخصيّة من أدلّة صغيرة في هذا النص كعمره، بناءً على الوقت الذي ذهب فيه إلى المدرسة الثانوية مثلاً.
Five ways criminals are using AI https://t.co/2Km8J5y8x7
— Patricia Farrell, Ph.D. (@drpatfarrell) May 22, 2024
كان بالونوفيتش جزءاً من فريق باحثين اكتشف أواخر السنة الماضية أنّ نماذج لغات كبيرة، مثل "جي بي تي-4" و"للاما 2" (Llama 2) و"كلود" قادرة على استنتاج معلومات حسّاسة مثل عرق الأشخاص وموقعهم ومهنتهم من محادثات عاديّة مع روبوت دردشة. ومنذ ظهور ورقتهم البحثيّة، برزت خدمات جديدة تستغلّ هذه الميزة في نماذج اللغة.
بالرغم من أنّ وجود هذه الخدمات لا يعني وجد نشاط إجراميّ، هو يشير الى قدرات جديدة يمكن لخبثاء الحصول عليها. ويقول بالونوفيتش إنّه إذا تمكّن أشخاص عاديّون من بناء أدوات مراقبة مثل هذه فمن المحتمل أن يكون لدى الدول أنظمة أفضل بكثير.
ويشير إلى أنّ "الطريقة الوحيدة أمامنا لمنع هذه الأشياء هي العمل على الدفاعات". ويضيف أيضاً أنه يجب على الشركات الاستثمار في حماية البيانات وأمنها. بالنسبة إلى الأفراد، إنّ زيادة الوعي أمر أساسيّ. يقول بالونوفيتش إنّه يجب على الأشخاص أن يفكّروا مرّتين بما يشاركونه عبر الإنترنت ويقرّروا ما إذا كانوا مرتاحين لاستخدام تفاصيلهم الشخصيّة في نماذج اللغة.