النهار

خبراء الذكاء الاصطناعي: التقنية تمثّل "خطر الانقراض" والحرب النووية
المصدر: "النهار"
خبراء الذكاء الاصطناعي: التقنية تمثّل "خطر الانقراض" والحرب النووية
تعبيرية (تصميم ديما قصاص).
A+   A-

نشر مركز أمان الذكاء الاصطناعي، وهو منظّمة مهمتها "تقليل المخاطر المجتمعية من الذكاء الاصطناعي"، بياناً على موقعه، حذّر فيه من "خطر الانقراض" والمخاطر المجتمعيّة الأخرى كالأوبئة والحرب النووية.

 

ووقّع على البيان عاملان في صناعة الذكاء الاصطناعي، بمن فيهم الرئيس التنفيذي لشركة "أوبن إي آي" سام ألتمان، ورئيس "Google DeepMind" ديميس هاسابيس، بالإضافة إلى الباحثين الحائزين على جائزة تورينغ، جيفري هينتون ويوشوا بنجيو، اللذين يعتبرهما الكثيرون عرّابين للذكاء الاصطناعيّ الحديث.

 

ويأتي هذا البيان ليكون الثاني من نوعه خلال أشهر قليلة، بعد دعوة الملياردير إيلون ماسك، ورجل الأعمال ستيف وزنياك، وأكثر من 1000 آخرين إلى توقّف مدّته ستة أشهر عن تطوير الذكاء الاصطناعي للسماح للصناعة والجمهور بمواكبة التكنولوجيا بشكل فعّال.

 

وكان الرئيس الأميركي جو بايدن صرّح أخيراً بأن شركات التكنولوجيا تتحمّل مسؤوليّة التأكّد من أن منتجاتها آمنة قبل الإعلان عنها، مشيراً إلى أنّه يمكن للذكاء الاصطناعي المساعدة على التعامل مع بعض التحدّيات الصّعبة للغاية مثل الأمراض وتغيّر المناخ، بالرغم من التعيّن على الشركات معالجة المخاطر المحتملة على مجتمعنا واقتصادنا وأمننا القوميّ.

 

وعلى الرغم من أن الذكاء الاصطناعيّ ليس "واعياً" كما كان يخشى البعض، فإنّه يُمثّل بالفعل مخاطر إذا أسيء استخدامه، بل قد يؤدّي إلى الأذى من خلال التزييف العميق والمعلومات المضلِّلة وغير ذلك، بل يُمكن أن تغيّر نماذج اللغة الضخمة طريقة إنتاج المحتوى والفنّ والأدب، ممّا قد يؤثر على العديد من الوظائف.

 

مع طرح الكثير من الآراء، فإن البيان الجديد والمختصر يعني إظهار قلق مشترك حول مخاطر الذكاء الاصطناعي، حتى لو لم تتّفق كل الأطراف على ماهية هذه المخاطر.

 

 

الكلمات الدالة

اقرأ في النهار Premium