النهار

هل بدأت كارثة تسليم البشر قراراتهم إلى الذكاء الاصطناعي؟
أحمد مغربي
أحمد مغربي
خلصت دراسة علمية أجرتها مجلة "بابليك تشويس" Public Choice إلى أن غالبية الأميركيين يرغبون في تسليم الذكاء الاصطناعي التوليدي أمر اتخاذ قرارات حاسمة في حياتهم، على الرغم من ملاحظتهم أن النتائج التي تتأتى من قرارات الإنسان أفضل منها.
هل بدأت كارثة تسليم البشر قراراتهم إلى الذكاء الاصطناعي؟
ماذا يحصل للعدالة الإنسانية إذا تحكمت فيها خوارزميات الذكاء اللاصطناعي (صورة توليدية/ أحمد مغربي)
A+   A-

خلصت دراسة علمية أجرتها مجلة "بابليك تشويس" Public Choice إلى أن أغلبية الأميركيين يرغبون في تسليم الذكاء الاصطناعي التوليدي أمر اتخاذ قرارات حاسمة في حياتهم، على الرغم من ملاحظتهم أن النتائج التي تتأتى من قرارات الإنسان أفضل منها.

وبالنسبة إلى البعض، فقد يبدو ذلك استمراراً للصعود المتواصل للذكاء التوليدي والعلاقة ما بين البشر والآلات. وفي المقابل، ربما يُفاجأ كثيرون بأن مجموعة كبيرة من أفضل الأدمغة التي صنعت الذكاء المتقدّم للآلات، لا يقلقها أمرٌ أكثر من الاستسلام لفكرة تفوّق الآلات على البشر في التفكير، وتسليم الإنسان أموره بالتدريج إلى تلك الآلات، تالياً.

وفي مارس (آذار) الفائت، أصدرت وزارة الخارجية الأميركية نتائج دراسة حكوميّة خلصت إلى أن التطور الحالي للذكاء الاصطناعي يسير نحو نتائج كارثية. وشملت الدراسة ما يزيد عن 200 شخص من قادة شركات الذكاء الاصطناعي البارزة والرائدة، وخبراء الأمن السيبراني والقومي ومتخصصين في أسلحة الدمار الشامل.

وفي ذلك السياق، يجدر التذكير بـ"نداء الـ22 كلمة"، الذي وقعه أكثر من مئة عالم متخصّص بالذكاء الاصطناعي وقادة شركات كبرى في صناعته، وجاء فيه "إن تخفيف خطر فناء البشرية بالذكاء الاصطناعي يجب أن يشكل أولوية عالمية تتساوى مع الأخطار، التي تهدّد المجتمعات على غرار أزمة المناخ  والحرب النووية".

 Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war

وقد نشر "مركز أمن الذكاء الاصطناعي" ذلك النداء في نهاية أيار (مايو) 2023.

ولعلّ أبرز ما نادى به البروفيسور جيفري هينتون، المسؤول السابق عن قسم الذكاء الاصطناعي في "غوغل" (استقال منه كي يتفرّغ للتحذير من خطورة الذكاء التوليدي)، وإريك شميت، مؤسس "غوغل"، التي تحولت إلى عملاق أسطوري، وإلى واحدة من أهمّ صنّاع الذكاء التوليدي، يتمثل بالتحذير من ركون البشر إلى الأحكام والخلاصات والأفكار التي تُنتجها الآلات.

 

الروبوت يستولي على السلطة أم البشر من يسلّمونها له؟

 

كخلاصة، لا شيء يقلق حتى أبرز صناع الذكاء التوليدي من تسليم البشر قراراتهم الحاسمة إلى الآلات. ووفق قول شائع في تلك الأوساط عينها "ليس الخطر أن يستولي الروبوت على السلطة، بل أن يُسلِّم البشر السلطة إلى الروبوت".

وبالعودة إلى دراسة "بابليك تشويس"، أجاب 64% ممن استُطلِعتْ آراؤهم بأنهم يفضّلون أن تتولّى خوارزميات الذكاء الاصطناعي القرارات بشأن مصادرهم المالية والاقتصادية. وفي المقابل، فإنّهم لاحظوا أن نتائج القرارات التي يتخذها بشر تؤتي أُكلها بشكل أفضل من تلك التي تصنعها الآلات.

واللافت أن الدراسة جرت عبر الفضاء الافتراضيّ، وبأسلوب ألعاب الفيديو المعتمدة على المحاكاة الافتراضيّة، حيث يتخّذ اللاعبون أدواراً يختارونها بأنفسهم، ويخوضون مراحل اللعبة عبرها.

وقد شدد العلماء الذين صمموا تلك المحاكاة على ضرورة أن يتَّخِّذ اللاعبون القرارات فيها وفق معيارين، هما المصلحة الفردية وقيم العدالة. وقد استغرب العلماء أنه، على الرغم من هذا التشديد، لم يأخذ معظم من شاركوا في الدراسة معيار العدالة بعين الاعتبار. هل يصلح ذلك التجاهل للعدالة نموذجاً من ثقافة واسعة منتشرة بين الجمهور المعاصر، المندمج مع البعد الرقمي في حياته، أم أن هذا الاستنتاج مبكر ويحتاج إلى دراسات أوسع؟

أياً تكن الإجابة، تجدر الإشارة إلى أن الجهة التي أجرت الدراسة كانت "بابليك تشويس" [ترجمتها حرفياً خيار الجمهور العام] تابعة لمجموعة النشر "سبرينغر" Springer المعروفة في الأوساط الأكاديمية والبحثية، وتمثل مجلة علمية أكاديمية تعنى بتطبيق علوم الاقتصاد على مجالات غير اقتصادية، كالسياسة والدين والعائلة والصراعات والقوانين.

ونشرت الدراسة على مواقع علمية كـ"لايف ساينس" في 13 أغسطس (آب) 2024.

إعلان

الأكثر قراءة

10/5/2024 12:51:00 AM
مع استعداد إسرائيل لشن هجوم على إيران بعد أن فاجأت الجميع بهجومها الخاطف على حزب الله في لبنان الشهر الماضي، يدور الآن حديث عن انزلاق لا مفر منه نحو حرب جديدة في الشرق الأوسط.
10/5/2024 1:01:00 AM
سجل المهاجم النرويجي لنادي مانشستر سيتي الإنكليزي إيرلينغ هالاند، ارتفاعاً ضخماً على مستوى القيمة السوقية خلال مسيرته الحافلة بالألقاب والإنجازات داخل الملاعب الأوروبية.