النهار

دعوة الخبراء لاعتماد نهج الأنظمة المعقّدة لفهم مخاطر الذّكاء الاصطناعي الطويلة الأجل
المصدر: النهار
يدعو الخبراء لاعتماد منهجية الأنظمة المعقدة لتقييم مخاطر الذكاء الاصطناعي، خصوصاً في ظل التأثيرات طويلة الأجل.
دعوة الخبراء لاعتماد نهج الأنظمة المعقّدة لفهم مخاطر الذّكاء الاصطناعي الطويلة الأجل
صورة تعبيرية
A+   A-

التوسع السريع للذكاء الاصطناعي في مختلف جوانب حياتنا أصبح مصدر قلق متزايد للخبراء بشأن مخاطره المحتملة. ففي بعض الأحيان تكون هذه المخاطر آنية، بينما قد تتأخر آثارها في الظهور لأشهر أو حتى سنوات. يشير العلماء في Philosophical Transactions of the Royal Society A إلى أن الوصول إلى نهج متكامل لفهم هذه التهديدات ما زال بعيداً. وقد جاء عنوان المقالة: "منظور الأنظمة المعقدة في تقييم المخاطر في الذكاء الاصطناعي".

 

 

يدعو الباحثون إلى اعتماد نهج يقوم على دراسة الأنظمة المعقدة لتحسين تقييم وتخفيف مخاطر الذكاء الاصطناعي، خصوصاًً في ظل التحديات التي يفرضها عدم اليقين على المدى الطويل والتفاعلات المتشابكة بين الذكاء الاصطناعي والمجتمع. تقول فريباً كريمي، إحدى المساهمات في إعداد المقالة: "فهم مخاطر الذكاء الاصطناعي يتطلب وعياً عميقاً بالتفاعل المعقد بين التكنولوجيا والمجتمع. الأمر يتعلق بإدارة الأنظمة الديناميكية التي تؤثر على قراراتنا وسلوكياتنا".

ويضيف دانييل كوندر، الباحث في CSH والمؤلف الرئيسي للدراسة، قائلاً: "علينا ألا نقتصر على مناقشة التقنيات التي ينبغي تطبيقها وكيفية تنفيذها، بل يجب أيضاً التفكير في كيفية تكييف الإطار الاجتماعي للاستفادة من الإمكانيات الإيجابية للذكاء الاصطناعي. ينبغي أخذ جوانب المخاطر والفرص التي يقدمها الذكاء الاصطناعي في عين الاعتبار، خاصة في سياق النقاشات حول السياسة الاقتصادية".

التأثيرات البعيدة المدى والعميقة


تركز أطر تقييم المخاطر الحالية غالباً على الأضرار الفورية والمحددة، مثل التحيّز وقضايا السلامة، وفقاً لما ذكره مؤلفو المقالة. ويشير كوندر إلى أن "هذه الأطر غالباً ما تتجاهل المخاطر العميقة وبعيدة المدى التي قد تنتج من الانتشار الواسع لتقنيات الذكاء الاصطناعي وتفاعلها المستمر مع المجتمع الذي تُستخدم فيه".
كما يوضح كوندر، "في هذا البحث، سعينا لتحقيق توازن بين النظرة القصيرة الأجل التي تركز على أداء الخوارزميات والنظرة الطويلة الأجل التي تتناول كيفية تأثير هذه التقنيات على المجتمع ككل. الأمر يتطلب فهماً لكل من العواقب الفورية والعواقب الهيكلية للذكاء الاصطناعي".

 

تطبيقات الذكاء الاصطناعي في الواقع

ناقش العلماء، كدراسة حالة لتسليط الضوء على المخاطر المحتملة لتقنيات الذكاء الاصطناعي، استخدام خوارزمية تنبئية في المملكة المتحدة خلال جائحة COVID-19 لتقييم درجات الطلاب في الامتحانات المدرسية. كان الهدف من هذا النهج "تحقيق موضوعية أكبر وعدالة أكثر مقارنةً بسؤال المعلمين عن توقعاتهم لأداء الطلاب"، حيث اعتمد النظام على تحليل إحصائي للأداء السابق للطلاب.

لكن تطبيق الخوارزمية أظهر تحدّيات غير متوقعة. تشير فاليري حفيظ، الباحثة المستقلة والمؤلفة المشاركة في الدراسة، إلى أن "الفوارق أصبحت واضحة فور تطبيق خوارزمية التقييم." تأثرت خاصة الطلاب من المجتمعات المحرومة، الذين تحملوا عبء التفاوتات التي نتجت من محاولة ضبط تضخم الدرجات، بينما حصل حوالي 40% من الطلاب على درجات أقل مما كانوا يتوقعون.

تضيف حفيظ أن نتائج الاستشارة أظهرت اختلافاً في تحديد المخاطر بين المعلمين ومطوري الخوارزمية. فقد رأى المعلمون أن الخطر الأهم هو التأثير الطويل الأجل للدرجات المنخفضة غير المستحقة على الطلاب، فيما ركز مطورو الخوارزمية على قضية تضخم الدرجات وتأثيره على نظام التعليم العالي ومدى الثقة في مستوى أداء الطلاب الفعلي.

 

الانتشار والتأثير المتزايد

 

تسلط هذه الحالة الضوء على تحدّيات متعددة تظهر عند تطبيق الخوارزميات على نطاق واسع، كما يشير العلماء. تقول حفيظ: "أحد الجوانب التي نعتقد أنه ينبغي مراعاتها هو النطاق — والحجم —فمع توسع الخوارزميات، تتنقل بين سياقات مختلفة، رغم الفروقات الكبيرة بينها. السياق الأصلي الذي وُضعت فيه الخوارزمية لا يختفي، بل يتم إسقاطه على السياقات الجديدة".

وتضيف كريمي: "المخاطر طويلة الأجل ليست مجرد تراكم بسيط للمخاطر القصيرة الأجل، بل قد تتصاعد بوتيرة سريعة بمرور الوقت. ومع ذلك، يمكن للنماذج الحاسوبية والمحاكاة أن توفر رؤى فعّالة لتحسين تقييم هذه المخاطر المتغيرة.".


تعزيز فهم المخاطر وتوسيع المشاركة المجتمعية


يرى العلماء أن إحدى الطرق لتقييم المخاطر المرتبطة بتقنيات الذكاء الاصطناعي، سواء كانت قصيرة أو طويلة الأجل، تكمن في استخدام النماذج الحاسوبية. يوضح كوندر: "النماذج الحاسوبية —مثل تلك التي تدرس تأثير الذكاء الاصطناعي على تمثيل الأقليات في الشبكات الاجتماعية — يمكنها كشف كيف تساهم التحيزات في هذه الأنظمة في إحداث تفاعلات دائرية تُفاقم التفاوتات الاجتماعية." تُعد هذه النماذج وسيلة لمحاكاة المخاطر المستقبلية، مقدمةً رؤى يصعب الوصول إليها عبر طرق التقييم التقليدية.

 

كما يبرز الباحثون أهمية إشراك المواطنين العاديين والخبراء من مجالات متعددة في عملية تقييم المخاطر. يمكن أن تلعب "مجموعات الكفاءة" — وهي فرق صغيرة ومتنوعة تضم وجهات نظر مختلفة — دوراً محورياً في تعزيز المشاركة الديموقراطية وضمان أن تكون تقييمات المخاطر مستندة إلى تجارب الأشخاص المتأثرين بتقنيات الذكاء الاصطناعي مباشرة.

 

ويضيف كوندر: "هناك مسألة رئيسية تتعلق بضرورة تعزيز قدرة المجتمع على الصمود، ما يسهم في إثراء النقاشات حول الذكاء الاصطناعي وتحسين عمليات اتخاذ القرار لتجنب التحديات المحتملة". ويرى أن هذه القدرة على الصمود تعتمد على العديد من العوامل التي قد تكون غير مرتبطة مباشرة بتقنيات الذكاء الاصطناعي.

وتؤكد حفيظ، المسؤولة عن سياسات الذكاء الاصطناعي في المستشارية الاتحادية النمساوية، أن "التعامل مع أنظمة الذكاء الاصطناعي كنظم تقنية واجتماعية معاً يجعل من المستحيل تجاهل الأشخاص المتأثرين بها. فصلهم عن هذه الأنظمة يحرمهم من التأثير على الأسس التي تُبنى عليها تلك الأنظمة، ويمنعهم من تشكيل عوالم تتناسب مع احتياجاتهم".

اقرأ في النهار Premium