حذرت مجموعة من الموظفين الحاليين والسابقين في شركات الذكاء الاصطناعي التوليدي البارزة من أن التكنولوجيا تشكل مخاطر جسيمة على الإنسانية وذلك في رسالة اليوم الثلاثاء دعوا فيها الشركات إلى الالتزام بمزيد من الشفافية وتعزيز ثقافة النقد التي تجعلها أكثر عرضة للمساءلة.
ووقّع الرسالة 13 شخصاً، بما في ذلك موظفون حاليون وسابقون في "أوبن إيه آي" وAnthropic وDeepMind من Google، وطرحوا فيها عدةّ نقاط ومطالب.
وجاء في الرسالة:" إن الذكاء الاصطناعي يمكن أن يؤدي إلى تفاقم عدم المساواة وزيادة المعلومات المضللة والسماح لأنظمة الذكاء الاصطناعي بأن تصبح مستقلة وتتسبب في وفيات كبيرة".
وقالوا إنه وعلى الرغم من إمكانية التخفيف من هذه المخاطر، فإن الشركات التي تسيطر على البرمجيات لديها "حوافز مالية قوية" للحد من الرقابة، ويؤكّد هؤلاء إنه في غياب الرقابة الحكومية، فإن العاملين في مجال الذكاء الاصطناعي هم "الأشخاص القلائل" الذين يمكنهم مساءلة الشركات.
وأشاروا إلى أنهم معوقون بسبب "اتفاقيات السرية الواسعة النطاق" وأن وسائل الحماية العادية للمبلغين عن المخالفات "غير كافية" لأنها تركز على النشاط غير القانوني، ولم يتم تنظيم المخاطر التي يحذرون منها بعد.
ودعت الرسالة شركات الذكاء الاصطناعي التوليدي إلى الالتزام بأربعة مبادئ للسماح بمزيد من الشفافية وحماية المبلغين عن المخالفات، وتشمل هذه المبادئ الالتزام بعدم الدخول في أو إنفاذ اتفاقيات تحظر انتقاد المخاطر، دعوة لإنشاء عملية مجهولة للموظفين الحاليين والسابقين لإثارة المخاوف، دعم ثقافة النقد، والوعد بعدم الانتقام من الموظفين الحاليين والسابقين الذين يشاركون معلومات سرية لإثارة الإنذارات "بعد فشل العمليات الأخرى".
كما حظيت الرسالة بتأييد شخصيات بارزة في مجال الذكاء الاصطناعي التوليدي، بما في ذلك يوشوا بنجيو وجيفري هينتون، الذين يعتبرون "العرابين" للذكاء الاصطناعي، وعالم الكمبيوتر الشهير ستيوارت راسل.