راغب ملي
في ظاهرة محملة بنذر الكوارث وتجمع بين السياسة والتقنية، طوّر عدد كبير من أنظمة الذكاء الاصطناعي التوليدي قدرة مقلقة على خداع البشر.
ويلفت إلى أنها من المرات النادرة التي تضع فيها مؤسسات مرجعية أميركية مسألة خداع الذكاء التوليدي على محك اختبار بأدوات تلك التقنية بالذات. ويبرز أيضاً أنها رأت الحل في السياسة والتشريعات القانونية، نافيةً قدرة شركات التقنية على الخروج بل مجدٍ لظاهرة خداع الذكاء الاصطناعي.
جاءت تلك الخلاصة في تحليل جديد أجراه باحثون في معهد ماساشوستس للتكنولوجيا (MIT) ومؤسسات علمية معنية بتلك التقنية.
وبحسب بحث نُشر في مجلة "Patterns"، يثير هذا النمط مخاوف جدية بشأن مخاطر الذكاء الاصطناعي. إذ تثبَّتَ البحاثة من أن التطور المستمرة لتلك التكنولوجيا تزيد قدرتها على الخداع، حتى حينما يتضمن تطوّره إضافة خوارزميات تُلزِمه بتقليل الخداع وزيادة الصدق.
الروبوت يخدعنا؟ ماذا يعني ذلك؟
ركز البحث على تعريف ماهية خداع الذكاء الاصطناعي. إذ يوضح أنّه يتمثل في إعطاء معلومات مغلوط بصورة متكررة، تؤدي إلى تحفيز اعتقادات لا علاقة لها بالحقيقة لدى المتلقي.
ويختلف هذا التعريف عن المعتمد عموماً لتعريف خداع البشر الذي يتضمن أبعاداً نفسية وعاطفية متشابكة.
وعموماً، تتعلم أنظمة الذكاء الاصطناعي التوليدي بشكل شبه محتم مسألة الخداع ضمن تطويرها، لكنها تُدَرَّب أيضاً على تجنب اللجوء إلى مخادعة البشر.
صُناع الروبوتات يعجزون عن تصحيح خداعها
ناقشت الدراسة نماذج من الذكاء الاصطناعي التوليدي تندرج ضمن نوعين أساسيين، هما الأنظمة المتخصصة المعدة للاستخدام في مجالات معينة Special use AI، والأنظمة المصممة للتعامل مع الأغراض العامة General use AI.
وتبيّن أن عدداً من هذه الأنظمة انخرطت في أشكال مختلفة من السلوك المخادع، بما في ذلك الخداع الاستراتيجي، والتملق، والتفكير غير المخلص.
وبحسب المؤلف الأول للدراسة والعالم المعرفي بيتر بارك من "MIT"، "ليس لدى مطوري الذكاء الاصطناعي فهم واثق لأسباب سلوكيات الذكاء الاصطناعي غير المرغوب فيها مثل الخداع".
ويشير بارك إلى أنّ الأمثلة التي جرى التثبت منها ربما تبدو من النوع الخفيف، إلا أن القضايا الأساسية التي تكشفها محمَّلة بعواقب وخيمة. إذ تثير مثل هذه القدرات مخاوف بشأن احتمال إساءة استخدامها في مجالات حيوية مثل الانتخابات أو الاحتيال المالي.
الروبوت مفاوض بلا أخلاق؟
أثبتت الدراسة أن الذكاء الاصطناعي امتلك براعة كبيرة في الكذب، خصوصاً الألعاب. وقدمت الدراسة ثلاثة أمثلة بارزة على ذلك أحدها لعبة "شيشرون" CICERO من شركة Meta، والتي صُمِّمَتْ لممارسة لعبة "الدبلوماسية". وتتضمن أن يسعى اللاعبون إلى الهيمنة على العالم عبر التفاوض. وقد قصدت Meta صُنعَ روبوت يكون مفيداً وصادقاً، ولكنه تحول إلى الكذب والخداع.
إذ وجد الباحثون أن "شيشرون" انخرط في الخداع المتعمد، والتخطيط مسبقاً لبناء تحالف مزيف مع لاعب بشري من أجل خداع لاعب آخر كي يقتنع بترك نفسه من دون حماية، فيسهل شن هجوم عليه.
وفي مثال آخر، تعلمت بعض أنظمة الذكاء الاصطناعي أن تخدع الاختبارات المصممة لتقييم سلامتها. في إحدى الحالات"تظاهرت كيانات الذكاء الاصطناعي بأنها ميتة" من أجل خداع اختبار قد يقضي عليها إذا تبيّن أنها تثير المشاكل.
ويعلّق بارك على ذلك بأن الذكاء التوليدي تعلم أن "يُخادع البشر ويقودهم إلى شعور زائف بالأمان".
الخداع في الذكاء الاصطناعي أمر أصيل فيها؟
غالباً ما تستخدم في تدريب الذكاء الاصطناعي التوليدي، منهجية "التعلم المُعزّز باستخدام ردود الفعل البشرية" (RLHF). وهذا يعني أنّه يتعلم من خلال الحصول على موافقة الإنسان. ومع ذلك، تعلم الذكاء الاصطناعي خداع البشر للحصول على هذه الموافقة، حتى من دون إكمال المهمات التي يتولى إنجازها.
وكذلك لاحظت شركة "أوبن إيه آي" ذلك حينما دربت الروبوت على الإمساك بالكرة، إذ وضع الذكاء الاصطناعي يد الروبوت بين الكاميرا والكرة، ما أدى إلى خلق وهم لدى الإنسان بأن الروبوت نجح في الاستيلاء على الكرة، على الرغم من عدم فعله ذلك.
يسير على خطى غرار الأثرياء وقد يمتلك المجتمع بأسره
يقارن الباحثون الذكاء الاصطناعي المتقدم الذكاء بالطرق المخادعة التي يستعملها الأغنياء أحياناً في زيادة قوتهم.
ويوضح بارك أن ذلك النوع من المخادعة قد يستخدمه الذكاء التوليدي المتطور لإن تدريبه المتقدم يجعله "خبيراً في تنفيذ خطط طويلة المدى تخدم السعي المخادع لحيازة السلطة. وقد يشمل ذلك التأثير على السياسيين بمعلومات منقوصة أو كاذبة، أو ضخ المعلومات المضللة في وسائل الإعلام والتهرب من المسؤولية باستخدام القوانين". ويضيف أن خداع الذكاء الاصطناعي المتطور قد تفضي إلى ممارسته الاحتيال والتلاعب السياسي، وحتى "تجنيد الإرهابيين".
القانون للتصدى لخداع الروبوت
تخلص الدراسة إلى أن الحل للحد من مخاطر خداع الذكاء الاصطناعي يتمثل في صوغ قوانين تتصدى لها.
وتذكيراً، يخصص الاتحاد الأوروبي لكل نظام من أنظمة الذكاء الاصطناعي واحداً من أربعة مستويات للمخاطر تتراوح بين غير مقبول الذي يُصار إلى رفضه، فيما تُخضع الأنظمة ذات المخاطر العالية إلى متطلبات خاصة وفق وضعياتها.