النهار

موظّفو "أوبن إيه آي" يطالبون بتوفير الحماية للتحدّث عن "المخاطر الجسيمة" للذكاء الاصطناعيّ التوليديّ
المصدر: "النهار"
موظّفو "أوبن إيه آي" يطالبون بتوفير الحماية للتحدّث عن "المخاطر الجسيمة" للذكاء الاصطناعيّ التوليديّ
شعار "أوبن آي إيه".
A+   A-
حذّرت مجموعة من الموظّفين الحاليين والسابقين، في شركات الذكاء الاصطناعيّ التوليديّ البارزة، من أنّ التكنولوجيا تُشكّل مخاطر جسيمة على الإنسانية، في رسالة يوم الثلثاء، داعين الشركات إلى الالتزام بمزيد من الشفافية وتعزيز ثقافة النقد التي تجعلها أكثر عرضة للمساءلة.
 
وَقّع الرسالة ثلاثة عشر شخصاً، بمن في ذلك موظّفون حاليّون وسابقون في "أوبن إيه آي" وAnthropic وDeepMind من Google. وطرح الموظّفون في رسالتهم نقاطاً ومطالبَ عدّة. حيث ورد في رسالتهم: "إنّ الذكاء الاصطناعيّ يُمكن أن يؤدّي إلى تفاقم عدم المساواة وزيادة المعلومات المضلّلة، والسماح لأنظمة الذكاء الاصطناعيّ بأن تصبح مستقلّة وتتسبّب في وفيّات كثيرة". 
 
كما قالوا إنّه وعلى الرغم من إمكانية التخفيف من هذه المخاطر، فإنّ الشركات التي تسيطر على البرمجيات لديها "حوافز مالية قوية" للحدّ من الرقابة، ويؤكّد هؤلاء إنّه في غياب الرقابة الحكومية، فإنّ العاملين في مجال الذكاء الاصطناعيّ هم "الأشخاص القلائل" الذين يمكنهم مساءلة الشركات. وأشاروا إلى أنّهم معوّقون بسبب "الاتّفاقيات السرّية الواسعة النطاق" وأنّ وسائل الحماية العادية للمبلغين عن المخالفات "غير كافية" لأنّها تركّز على النشاط غير القانونيّ، ولم يتمّ تنظيم المخاطر التي يحذّرون منها بعد.
 
ودعت الرسالة شركات الذكاء الاصطناعيّ التوليديّ إلى الالتزام بأربعة مبادئ للسماح بمزيد من الشفافية وحماية المبلغين عن المخالفات، وتشمل هذه المبادئ الالتزام بعدم الدخول في اتّفاقيات تحظّر انتقاد المخاطر، دعوة لإنشاء عملية مجهولة للموظفين الحاليين والسابقين لإثارة المخاوف، دعم ثقافة النقد، والوعد بعدم الانتقام من الموظفين الحاليين والسابقين الذين يشاركون معلومات سرية لإثارة الإنذارات "بعد فشل العمليات الأخرى".
 
حظيت الرسالة بتأييد شخصيات بارزة في مجال الذكاء الاصطناعي التوليدي، بمن في ذلك يوشوا بنجيو وجيفري هينتون، اللَّذين يعتبران "العرابَين" للذكاء الاصطناعي، وكذلك عالم الكمبيوتر الشهير ستيوارت راسل.
 

اقرأ في النهار Premium