بعد الانتشار الكبير لروبوت الدردشة المدعوم بالذكاء الاصطناعي "ChatGPT"، أثار العديد من النقاد مخاوف جدية من إمكانية إساءة استخدام التقنية لنشر الأكاذيب أو خطاب الكراهية أو مساعدة المخترقين في تهديد الأمن السيبرانيّ.
ظهرت آخر المخاوف هذا الأسبوع عندما اختبرت شركة حماية الهوية الإلكترونية "سايبر أرك" (CyberArk) برنامج الكتابة الذكيّ الاصطناعيّ، ووجدت أنّه لا يمكنه كتابة برامج ضارّة فحسب، بل حتّى برامج ضارّة يصعب اكتشافها وبالتالي الدفاع عنها.
وبحسب موقع "سايبر نيوز"، عادةً ما تستخدم البرامج الضارّة سلاسل من التعليمات البرمجيّة لإكمال وظيفة ضارّة، كما لو أدخلت نفسها في الكود "السليم" للنظام المستهدف أو غيّرت أسماء ومواقع الملفّات.
وقالت ماريا كريستينا هايدن، المديرة التنفيذية لشركة الصحة الإلكترونية "OUTFOXM": "يمكن أن تكون سلاسل التعليمات البرمجية هي سقوط للبرامج الضارّة، حيث تبحث برامج محاربة الفيروسات غالباً عن أوامر التعليمات البرمجيّة الضارّة الشائعة".
لكن البرمجيات الخبيثة متعدّدة الأشكال - يُطلق عليها ذلك لأنّ كودها يتغيّر في كلّ مرّة يتمّ تشغيلها مع الاحتفاظ بنفس الوظيفة - وقادرة على "التفوق" على العديد من أنواع برامج الكشف عن الفيروسات. عادةً ما تجب كتابة هذا الرّمز يدوياً، لكن ظهور "ChatGPT" يعني أن هذا لم يعد هو الحال، وفق ما أوضحت هايدن.
وأردفت: "وجد الباحثون أنه باستخدام "ChatGPT"، يمكن للأشخاص إنشاء برامج ضارّة متعدّدة الأشكال بطبيعتها، ولا تحتوي على أوامر التعليمات البرمجية الخبيثة الشائعة التي يراقبها برنامج مكافحة الفيروسات".