في خطوة تتوافق مع نقاشات استراتيجية وعميقة، حلل فريق علميّ في "معهد ماساتشوستس للتقنية" الأخطاء المحتملة للذكاء التوليديّ، ثمّ صنعوا "قاعدة بيانات حيّة" تضمّ 777 خطرًا محتملاً قد تأتي منه، صُنِّفت في 43 فئة. ووفقًا لتقرير نُشر في مجلة MIT Technology Review، قد يحمل استخدام الذكاء التوليديّ تحديات شتى تتضمن ظهور التحيّزات في أنظمته، أو نشر معلومات مضللة، أو حتى التسبّب في الإدمان. وتضاف تلك المخاطر إلى إمكانية استخدام الذكاء التوليدي لتطوير أسلحة بيولوجية أو كيميائية متطورة، أو احتمالية فقدان السيطرة عليه في المستقبل. ولمواجهة هذه المخاطر، من الضروري أولًا التعرّف عليها وفهمها جيدًا.
تقييم وتصنيف متخصّص للمخاطر
لقد انكب فريق البحث في "فيوتشر تيك" FutureTech بالمختبر المتخصص بالذكاء الاصطناعي في MIT، على إنشاء قاعدة بيانات لمخاطر الذكاء الاصطناعي التوليدي. وأفاد تقرير نُشر على موقع المختبر أنّ الدراسات "أبرزت نقاط ضعف كبيرة في الأنظمة الحالية المستخدمة في تقييم مخاطر الذكاء التوليدي. وأظهرت أنّ النظام الأكثر اكتمالاً يغفل حوالي 30 في المئة من المخاطر المحددة في جميع الأنظمة المراجعة".
وكذلك أشار الدكتور بيتر سلاتري، قائد ذلك الفريق، إلى تشتّت المعلومات المتعلّقة بمخاطر الذكاء التوليدي عبر مجموعة واسعة من المصادر، تشمل المجلات العلمية المتخصّصة، الأوراق البحثية الأولية، وتقارير الصناعة وغيرها. ولاحظ أنّ ذلك التشتت زاد من قلقه من أنّ صانعي القرار قد يعتمدون، حتى من دون قصد، على معلومات غير شاملة، ما قد يؤدّي إلى إغفال قضايا حيوية وإحداث خلخلة في فهم التحدّيات الرئيسية للذكاء الاصطناعي.
ولاحظ التقرير أنّ "المخاطر التي يطرحها الذكاء التوليدي تبعث على القلق العميق لدى العلماء والمراجعين وصانعي السياسات وشركات الذكاء التوليدي والعامة. ولكن، نقص الفهم الموحد لهذه المخاطر قد يعرقل قدرتنا على مناقشتها واستقصائها والتعامل معها بفعالية".
واستجابة لذلك، صنع الفريق قاعدة بيانات متخصصة باستخدام "منهجية بحثية منظمة، وبحث توجيهي واستقصائي، ومشورة خبراء لتحديد 43 فئة ونظاماً وتصنيفاً لمخاطر الذكاء الاصطناعي. واستُخلِص أكثر من 700 خطر من هذه الوثائق". وسُمِّيَتْ تلك القاعدة الواسعة والمتخصصة "مستودع مخاطر الذكاء الاصطناعي" AI Risk Repository.
وأكد الباحثون أنفسهم أنّ قاعدة البيانات تقدم لمحة شاملة ومتاحة عن مجال مخاطر الذكاء التوليدي، وتُعتبر مصدراً للمعلومات يجري تحديثه بشكل دوري، وتوفر إطاراً مرجعياً موحّداً للباحثين والمطوّرين والشركات والمقيمين والمراجعين وصانعي السياسات والهيئات التنظيمية.
وفي توضيحات تفصيلية، بيَّن فريق "معهد ماساشوستس" أنّ المستودع يتألف من ثلاثة أجزاء:
• قاعدة بيانات مخاطر الذكاء التوليدي. وتلتقط أكثر من 700 خطر مستخرج من 43 إطار عمل موجوداً، مع علامات اقتباس وأرقام الصفحات.
• التصنيف السببي لمخاطر الذكاء التوليدي. ويصنف كيف ومتى ولماذا تحدث المخاطر.
• التصنيف المجالي لمخاطر الذكاء التوليدي. ويصنف تلك المخاطر إلى سبعة مجالات و23 مجالًا فرعيًا.
وتشمل المجالات السبعة التمييز والسميّة (بمعنى المفاهيم الخطيرة)، والخصوصية والأمان، والمعلومات المضللة، والجهات الفاعلة الخبيثة وإساءة الاستخدام، والتفاعل بين الإنسان والحاسوب، والأضرار الاجتماعية والاقتصادية والبيئية، وسلامة أنظمة الذكاء الاصطناعي، والفشل والقيود.
أداة داعمة في حوكمة الذكاء التوليديّ
صرّح براين جاكسون، القائم بأعمال مدير الأبحاث في "مجموعة إنفو-تيك للأبحاث"، بأنّ المستودع يُعدّ أداة استثنائية للمدراء ممّن يسعون إلى إرساء أسس حوكمة الذكاء التوليدي داخل شركاتهم. يفرض الذكاء التوليدي العديد من المخاطر الجديدة التي قد تواجه الشركات، وقد يزيد من حدّة المخاطر الموجودة مسبقًا. ويقدّم العمل الذي نهض به "معهد ماساتشوستس" يد المساعدة للمؤسسات وللشركات في تحديد المروحة الواسعة لتلك المخاطر.
ويضاف إلى ذلك أنّ القاعدة الواسعة للبيانات عن مخاطر الذكاء الاصطناعي، صيغت بتقنية تمكّن جمهوراً واسعاً من الوصول إليها واستعمالها، بمن في ذلك المهتمين بحوكمة الذكاء التوليدي.
مع ذلك، أشار الباحثون إلى أنّ AI Risk Repository ليس خاليًا من العيوب. وإذ تتجدّد المخاطر دوماً فتخرج عن الأصناف المعرَّفَة في "المستودع"، أو ربما تأتي من مجالات غير متوقة. وفي المقابل، يعي الفريق العلمي تلك الآفاق بحسب ما يظهر من الحرص على تجديد تلك القاعدة الواسعة.