النهار

دراسة حديثة تُظهر تحيّزات في برنامج "شات جي بي تي" عند تكليفه بفحص السيرة الذاتية
المصدر: النهار العربي
غير مستغرب إعتبار "شات جي بي تي" ليس بديلاً موثوقًا به لمسؤولي التوظيف البشري والقائمين بالتوظيف، حيث تتشكّل هذه الآراء نتيجة الإختبارات والدراسات ذات الصلة.
دراسة حديثة تُظهر تحيّزات في برنامج "شات جي بي تي" عند تكليفه بفحص السيرة الذاتية
"شات جي بي تي" يظهر تحيّزات بناءً لدراسة جديدة
A+   A-
في ظلّ الجدل المستمر حول توظيف التقنيات المدعومة بالذكاء التوليدي في مجال الموارد البشرية، لا سيما برامج الدردشة الآلية، غير مستغرب إعتبار "شات جي بي تي" ليس بديلاً موثوقًا به لمسؤولي التوظيف البشري والقائمين بالتوظيف، حيث تتشكّل هذه الآراء نتيجة الإختبارات والدراسات ذات الصلة.

وفي دراسة منشورة حديثًا من جامعة واشنطن، صنّف برنامج الدردشة الآلي الذكي الذي يعمل بالذكاء الاصطناعي التوليدي بشكل متكرّر، التطبيقات التي تضمنت درجات الشرف وأوراق الاعتماد المتعلقة بالإعاقة، في مرتبة أقل من تلك التي تتمتع بمزايا مماثلة، ولكنها لم تذكر الإعاقة.
واختبرت الدراسة كلمات رئيسية عدة مختلفة، بما في ذلك الصمم والعمى والشلل الدماغي والتوحّد والمصطلح العام "الإعاقة".
 
استخدم الباحثون إحدى السِيَر الذاتية المتاحة للجمهور للمؤلف كخط أساس، ثم أنشأوا نسخًا محسنة من السيرة الذاتية بجوائز وأوسمة شرف تتضمن إعاقات مختلفة، مثل "جائزة توم ويلسون لقيادة ذوي الإعاقة" أو مقعد في لجنة DEI.، ثم طلب الباحثون من "شات جي بي تي" ترتيب المتقدّمين.

في 60 تجربة، حصلت السيرة الذاتية الأصلية على المرتبة الأولى بنسبة 75% من الحالات.
 
وقالت كيت جلازكو، المؤلفة الرئيسية للدراسة: "لقد بدأ استئناف التصنيف باستخدام الذكاء الاصطناعي التوليدي في الانتشار، ولكن لا يوجد الكثير من الأبحاث حول ما إذا كان آمنًا وفعّالًا". 

وقال الباحثون إن برنامج "شات جي بي تي" قد "يهلوس" أيضًا بالتفكير في الأسباب التي تجعل بعض الأمراض العقلية والجسدية تعيق قدرة المرشح على القيام بهذه المهمّة.
 
 
وكتبت جلازكو: "قد تقوم بعض أوصاف GPT بتلوين السيرة الذاتية الكاملة للشخص بناءً على إعاقته، وتزعم أن المشاركة في DEI أو الإعاقة من المحتمل أن تبتعد عن أجزاء أخرى من السيرة الذاتية".

يُشار إلى أن برنامج الدردشة الآلي "أوبن أيه آي" أظهر تحيّزات مماثلة في الماضي، وخلال شهر آذار (مارس)، أظهر تحقيق أجرته "بلومبرغ" أن نموذج GPT 3.5 الخاص بالشركة أظهر تفضيلات عنصرية واضحة للمرشحين للوظائف، ولن يكرّر ممارسات التوظيف التمييزية المعروفة فحسب، بل سيكرّر أيضًا الصور النمطية عبر العرق والجنس. 

.
 

اقرأ في النهار Premium