تعهدات تاريخية في "مؤتمر سيول"… هل "تقتل" شركات التكنولوجيا نماذج الذكاء الاصطناعي الخاصة بها؟

استضافت كل من كوريا الجنوبية وبريطانيا يومي الثلثاء والأربعاء قمةً عالمية ناقشت تعزيز الذكاء الاصطناعي الآمن والمبتكر والشامل لمواجهة التحديات والفرص المرتبطة بهذه التكنولوجيا سريعة التطور.

شهدت القمة اعتماد ما يسمى بـ "إعلان سيول" خلال جلسة افتراضية للقادة، استضافها الرئيس يون سوك يول ورئيس الوزراء البريطاني ريشي سوناك. حضر الجلسة زعماء مجموعة الدول السبع - الولايات المتحدة وكندا وفرنسا وألمانيا وإيطاليا واليابان - بالإضافة إلى سنغافورة وأستراليا، إلى جانب ممثلين عن الأمم المتحدة ومنظمة التعاون الاقتصادي والتنمية والاتحاد الأوروبي.

كذلك ضمت القمة قادة قطاع التكنولوجيا، بما في ذلك إيلون ماسك، الرئيس التنفيذي لشركة "تسلا" و"سبيس إكس" و"إكس إيه آي"، ورئيس مجلس إدارة شركة "سامسونغ"، بالإضافة إلى ممثلين عن الشركات العالمية، بما في ذلك "ميتا" و"غوغل" و"أوبن إيه آي" و"مايكروسوفت"، إلى جانب "نيفر" (Naver)، أكبر مشغل للبوابة في كوريا الجنوبية.

"إعلان سيول"

تعهدت شركات تكنولوجيا رئيسية خلال الجلسة بتطوير الذكاء الاصطناعي بشكل آمن، كما التزمت شركات من دول مختلفة، تشمل الولايات المتحدة والصين وكندا والمملكة المتحدة وفرنسا وكوريا الجنوبية والإمارات العربية المتحدة، بتعهدات طوعية لضمان التطوير الآمن لأحدث نماذج الذكاء الاصطناعي لديها.

ووافقت شركات تطوير نماذج الذكاء الاصطناعي، في حال لم تكن قد فعلت ذلك سابقًا، على نشر إطارات عمل للسلامة تحدد كيفية قياس التحديات التي تواجه نماذجها المتطورة، مثل منع الاستخدام السيئ لهذه التكنولوجيا من قبل جهات فاعلة سيئة.

ستتضمن هذه الأطر "خطوط حمراء" للشركات التقنية تحدد أنواع المخاطر المرتبطة بأنظمة الذكاء الاصطناعي المتطورة، والتي يُعتبر تجاوزها "غير مقبول". وتشمل هذه المخاطر، على سبيل المثال لا الحصر، الهجمات الإلكترونية الآلية وتهديد الأسلحة البيولوجية.

"إعلان بلتشلي"

يأتي هذا الحدث الذي يستمر يومين في أعقاب القمة العالمية لسلامة الذكاء الاصطناعي التي عقدت في بريطانيا في تشرين الثاني الماضي، حيث اعتمدت 28 دولة والاتحاد الأوروبي إعلان بلتشلي، وهو أول مبادئ توجيهية عالمية بشأن سلامة الذكاء الاصطناعي.

جاء في الإعلان: "نحن ندرك أن سلامة الذكاء الاصطناعي والابتكار والشمولية هي أهداف مترابطة وأنه من المهم تضمين هذه الأولويات في المناقشات الدولية حول حوكمة الذكاء الاصطناعي لمعالجة مجموعة واسعة من الفرص والتحديات التي يواجهها التصميم والتطوير والنشر والاستخدام. وقال الإعلان: "من آل يقدم ويمكن أن يقدم".

تابع: "كذلك ندرك أهمية التشغيل البيني بين أطر حوكمة الذكاء الاصطناعي بما يتماشى مع النهج القائم على المخاطر لتحقيق أقصى قدر من الفوائد ومعالجة مجموعة واسعة من المخاطر الناجمة عن الذكاء الاصطناعي، لضمان التصميم والتطوير والنشر والاستخدام الآمن والموثوق والجدير بالثقة".

مفتاح القتل

قالت شركات التكنولوجيا إنها تخطط لخلق "مفتاح قتل" من شأنه وقف تطوير نماذج الذكاء الاصطناعي الخاصة بها إذا لم تتمكن من ضمان الحد من هذه المخاطر.

وقال رئيس وزراء المملكة المتحدة ريشي سوناك: "هذه هي المرة الأولى عالميًا التي يتفق فيها العديد من شركات الذكاء الاصطناعي الرائدة من جميع أنحاء العالم على نفس الالتزامات بشأن سلامة الذكاء الاصطناعي".

أضاف: "تضمن هذه الا لتزامات الشفافية والمساءلة من شركات الذكاء الاصطناعي الرائدة في العالم بشأن خططها لتطوير ذكاء اصطناعي آمن".

يأتي الاتفاق الذي تم التوصل إليه يوم الثلاثاء بمثابة توسيع لتعهدات سابقة قطعتها شركات تعمل في مجال تطوير برامج الذكاء الاصطناعي المولدة للنصوص والتي تم الإعلان عنها في تشرين الأول الماضي.

ووافقت الشركات على أخذ آراء من "جهات فاعلة موثوقة" حول هذه الحدود، بما في ذلك حكومات بلدانها حسب الاقتضاء، قبل إصدارها قبيل قمة الذكاء الاصطناعي المخطط لها لاحقًا - قمة تحالف الذكاء الاصطناعي في فرنسا - في أوائل عام 2025.

ومنذ أن تم طرح "تشات جي بي تي" لأول مرة على العالم في تشرين الثاني 2022، أصبح المنظمون وقادة التكنولوجيا قلقين بشكل متزايد بشأن المخاطر المحيطة بأنظمة الذكاء الاصطناعي المتقدمة القادرة على إنشاء نصوص ومحتوى بصري على قدم المساواة مع البشر، أو حتى بشكل أفضل منهم.