فجأة، دخل شخص أميركي من أصل أفريقي ليجد نفسه مُصنفاً في نظام شركة "غوغل" للتعرف على الوجه عام 2015، على أنه من فئة "الغوريلا". فهل سقط تدريب بعض الخوارزميات سهواً عن المطوّرين؟
يقف العالم بأسره اليوم مذهولاً أمام تفوق الذكاء الاصطناعي في مختلف المجالات الحياتية والعملية والعلمية، إذ بات هو الذي لا يَعصى عليه شيء، من المحاماة إلى الأعمال التجارية وحتى التشخيص الطبيّ. ولكن قلّة هم الذين انتابهم القلق من أوجه التمييز التي مارسها هذا الذكاء على البشر.
يبدو أن بعض خوارزميات الذكاء الاصطناعي التي لم تخضع للتدريب بشكل كافٍ قد تؤدي بالفعل إلى اتخاذ قرارات تمييزية، وعلى سبيل المثال، أبرزها البرامج التي لا تتعرف على وجوه أصحاب #البشرة السوداء. والواقع أنه للتعرف إلى الوجه وتسجيله في فئات مختلفة، مثل الجنس أو العمر، لا بدّ من أن تتدرب الخوارزميات على قواعد بيانات واسعة ومتنوّعة بما فيه الكفاية. وإذا لم يكن فيها ما يكفي من صور #النساء السود مثلاً، فذلك يعني أن الخوارزميات غير مدرّبة بما يكفي لتتعرف عليها وقد تفشلُ في ذلك.
أشهر أحداث التمييز التي مارسها الذكاء الاصطناعي:
في العديد من الأحداث حول العالم، سبّبت أنظمة الذكاء الاصطناعي مشكلات للشركات بسبب سلوكها العنصري غير المتوقّع.
وفي هذا الإطار، نستشهد بقصة الباحثة في معهد ماساتشوستس للتكنولوجيا جوي بولامويني ذات البشرة السوداء، التي اكتشفت بالصدفة وهي تجرب برنامجاً للتعرف على الوجه أنه لا يتعرف على وجهها، في حين أنه يتعرف بشكل جيد على وجوه أصدقائها أصحاب البشرة البيضاء، فقامت بتجربة قناع أبيض ليتعرّف البرنامج على وجهها، وعندها تعرّف عليها على الفور.
ومن أشهر الأحداث أيضاً كان روبوت الذكاء الاصطناعي "تاي" "TAY" الذي أنتجته شركة "مايكروسوفت" للمحادثة باللغة الإنكليزية مع المستخدمين على موقع "تويتر". لكنه على عكس التوقعات، اضطرت الشركة لإيقافه في غضون 24 ساعة فقط بسبب مشاركاته المسيئة والعنصرية التي قام بها.
وتسبّب برنامج "تاي"، بسبب بعض إجاباته، بحالة استنكار وصدمة لدى المستخدمين بعد إهانته النساء واليهود.
كذلك أظهر برنامج "بيوتي إي أي" "Beauty AI"، الذي تمّ تطويره للقيام بمسابقة جمال، تحيّزات عنصريّة، إذ أعطى الأولوية بشكل أكبر للأشخاص ذوي البشرة البيضاء وكانوا الأكثر تفضيلاً بالنسبة له، فمن بين آلاف المتقدّمين قبل البرنامجُ 6 متقدمين فقط من ذوي البشرة السوداء.
وفي هذا الإطار، اعتبر الباحثون أن الذكاء الاصطناعي يمكن أن يكون عنصرياً بالفعل، لأن برمجة الخوارزميات الموجودة فيه تعتمد بشكل رئيسيّ على ما يزوّده به المبرمج من معلومات وبيانات قد تُستخدم بشكل عنصريّ.
وفي الولايات المتحدة، درس موقع "بروبابليكا" المتخصّص بوسائل الإعلام "تقييمات مرتبطة بمخاطر تكرار الجرائم" معدّة قبل سنوات في ولاية فلوريدا، ومع البحث وجدوا أن أخطاء التقدير لناحية خطر معاودة ارتكاب الجرائم كانت أكبر بمرتين تجاه الأميركيين السود مقارنةً مع الباقين.
وفي السياق عينه، حذرت لور تيولان، المتخصصة في الذكاء الاصطناعي لدى مجموعة "كابجيميني" الفرنسية للخدمات المعلوماتية، من أنه "في كل مرة نريد استخدام الذكاء الاصطناعي لحل مسألة، يجب النظر بشأن ما إذا كان هناك انحياز بشري ما في القضية من شأنه أن يظهر في البيانات".
ما الدور الذي تؤدّيه الخوازرميات؟
أكّد الأستاذ والباحث في مجال الذكاء الاصطناعي علي مخّ، في حديث لـ"النهار"، أن خوارزميّات الذكاء الاصطناعيّ، وتحديداً تعلّم الآلة، تتّكل بشكل أساسيّ على كمية المعلومات والداتا ودقّتها وواقعيّتها ليكون نموذج الذكاء الاصطناعي قويّاً.
وتابع "مشكلة الانحياز بالمعلومات هي مشكلة أساسية يعالجها المبرمجون في البداية قبل تصميم النموذج. فكلّما كان العمل على تصفية المعلومات أقلّ كانت النتيجة منحازة أكثر، وكان النموذج عنصرياً ضد فئات معينة مثل النساء أو أصحاب البشرة السوداء. أما ترتيب المعلومات بشكل يُخفّف من الانحياز والعنصرية فهو مهمّة المهندسين المطوّرين بشكل أساسيّ".
ولذا نجد أن النموذج الضعيف الذي تدرّب على معلومات لا تعكس الواقع بشكل صحيح لديه احتمال أعلى لأن يكون عنصرياً، وهذا ما حصل بالفعل في الكثير من خوارزميات البرامج السّابقة.
وفي هذا السياق، كشفت دراسة بقيادة جامعة جونز هوبكنز ومعهد جورجيا للتكنولوجيا وباحثين من جامعة واشنطن، ونقلتها مونت كارلو الدولية، أن الروبوتات التي تمتلك أنظمة التعلم الآلي يمكنها إبداء نتائج متحيزة على أساس القوالب النمطية.
وأشار المؤلف أندرو هوندت إلى أن عدة روبوتات تعلمت قوالب نمطية سيئة من خلال نماذج الشبكة العصبية، وأضاف: "نحن معرضون لاختراع جيل من الروبوتات العنصرية والمتحيزة جنسياً".
ولإجراء الاختبار، استخدم الباحثون الشبكة العصبية "CLIP"، وأظهرت النتائج أن الروبوتات قامت باختيار الذكور أكثر بنسبة 8 في المئة، كما تم اختيار الرجال البيض والآسيويين أكثر من غيرهم، وكان اختيار النساء السود أقل من غيرهن من النساء.
وفي هذا الإطار، أجابت سلوى توكو رئيسة المجلس الوطني للتقنيات الرقمية في فرنسا، رداً على سؤال: "هل الذكاء الاصطناعي مبرمج بطريقة عنصرية أو تمييزية ضد النساء؟" أن "الخوارزميات ليست سوى تتابع أرقام لذا من غير الممكن تحميلها أي مسؤولية، المشكلة مصدرها بشري وإذا لم نتحلّ باليقظة، يمكن أن نطوّر خوارزميات تنطوي على تمييز". واعتبرت أن في هذا الأمر "تحدياً متصلاً بالمجتمع وبدولة القانون".
ويذكر، أنه في عام 2019 كانت قد تطرقت منظمة التنمية والتعاون في الميدان الاقتصادي "OECD" في تقرير لها إلى مخاطر إسقاط اتجاهات من العالم التماثلي إلى العالم الرقمي، النظام التماثلي هو طريقة مستخدمة لنقل المعلومات، داعيةً إلى استحداث بيئة سليمة في هذا المجال.
ماذا عن مساعد الصوت "سيري" كأحد أوجه التمييز؟
المساعد الصوتي "سيري" الذي يتوافر في أجهزة "أيفون" من "أبل"، هو نموذج تحليل صوتيّ يستطيع أن يرسل الأوامر التي يتلقاها إلى نموذج ذكاء اصطناعيّ ليفهمها ويجد أجوبة لها إن تطلّب الأمر ذلك، ويساعد بدوره على إنجاز العديد من المهام باستخدام الأوامر الصوتيّة، كالاتصال بشخص ما، أو ضبط التذكيرات، أو التقاط صورة أو فتح تطبيق الكاميرا.
وفي وقت سابق، أُجريت عدة إختبارات على "سيري" واكتشف تركيزه على ثقافات معينة، وعدم تضمينه مصطلحات منتشرة في بعض المجتمعات.
وفي إطار الممارسات التي بعثت شعوراً غير مريح لتجربة المستخدم مع "سيري"، كانت قيامه بتصحيحات غير مرغوب فيها لكلمات منطوقة بنطق غير مألوف له، بالإضافة إلى توفيره أجوبة عنصرية، بسبب إجابته عن أسئلة المستخدمين اعتماداً على البحث في منصات غير موثوقة.
وأبرز حادثة في هذا المجال، كانت تقدمه بإجابة مُسيئة عندما سُئل: "ما هو الهندي؟" ليجيب سيري: "إنهم بنّيّو اللون قليلاً ورائحتهم مثل الكاري ويأكلونه"، ما أثار غضب الناس من "سيري" واصفينه بالعنصري.
كما أغضب مساعد الصوت أيضاً الأشخاص الذين كانوا منزعجين منه لأنه لم يفهم لهجاتهم الإقليمية بسهولة.
في وقت سابق، قال مارسال جافالدا، رئيس قسم التعلم الآلي في تطبيق المراسلة "YikYak"، لصحيفة هافينغتون بوست: "أثبتت تقنيات الكلام أنها مفيدة للغاية وناجحة في تشغيل التطبيقات الذكية. ولكن في الوقت نفسه، نحتاج إلى أن نكون مدركين أنها لا تعمل بشكل جيد مع الجميع".
كما واتهمت عدة نسويات "سيري" بالتحيز الجنسي المتأصل في هذه البرامج. وأحد الأمثلة ذات الصلة هو التحيز الجنسي المزعوم ضد برنامج التعرف على الصوت من "غوغل"، ووفقاً للباحثة اللغوية راشيل تاتمان، لقد كانت الاستفسارات التي طُرحت من أصوات الذكور مفهومة من قبل البرنامج أكثر من تلك الواردة من النساء.
ومن أجل التغلب على هذه العقبات، توصي تاتمان، بأن تعطي شركات التكنولوجيا عناية أكبر لتدريب الخوارزميات بشكل متوازٍ في العرق والجنس والطبقة، مضيفةً أنه "فقط من خلال زيادة التنوع الاجتماعي في مرحلة إنشاء البرنامج، سيكون الذكاء الاصطناعي قادراً تماماً على التفاعل مع الجميع بالتساوي".
بين الأمس واليوم... هل تحسنت النماذج من ناحية التمييز العنصري؟
استذكر مخ تجربة "مايكروسوفت" السيّئة مع برنامج المحادثة الذي تحوّل لمُحادث عنيف بسرعة، بالإضافة إلى النماذج التي كانت تستخدمها الشركات التي تعرض وظائف لاختيار السيرة الذاتيّة الأفضل، والتي كانت تمارس عنصرية ضد فئات معينة مثل النساء أو السود.
كذلك هي حال النماذج التي كانت تستخدمها البنوك من أجل تحديد أهلية الزبون لأخذ قرض مالي، إذ كانت عنصرية أيضاً. ولكن مع الوقت أكد مخ أن إمكانية معالجة قضية العنصرية والتحيّز باتت أفضل. واعتبر أن التمييز العنصري كان أكثر ظهوراً في أدوات وبرامج الذكاء الاصطناعي في الماضي، ومع الوقت تتطور النماذج لتكون أقلّ عنصرية.
الذكاء الاصطناعي في جانبه المضيء
عن الجانب المُشرق الذي لا يخفى، خفّف الذكاء الاصطناعي عن البشرية أعمالاً كثيرة، وساهم في تطوير أدوات الإنتاج بشكل أفضل وأسرع.
أمّا الشق المخيف فيه فيكمن في مواقع التواصل الاجتماعي أو برامج التسلية، حيث أصبحت قادرة على شدّ انتباه المستخدم بشكل أكبر، وبالتالي دفعه لإمضاء ساعات طويلة على الهاتف. لكن على الرغم من ذلك، يتم استخدام الذكاء الاصطناعي اليوم في إنتاج أدوية جديدة ومعالجة أمراض وتحديد إصابات مبكرة للسرطان، وكذلك في تعزيز الأمن.
وينصح مخ المهندسين الذين يعملون في عالم الذكاء الاصطناعي بأن يطّلعوا على أخلاقيّات الذكاء الاصطناعي "AI ethics" جيّداً، ليحافظوا على مسار تطويريّ مفيد للبشرية.
هل نجح "شات جي بي تي" في تخطي فخ "التمييز"؟
عند الحديث عن الذكاء الاصطناعيّ، لا يمكن تخطّي برنامج الدردشة الشهير "شات جي بي تي" من شركة "أوبن إي أي"، الذي وصف على أنه ثورة حقيقية في عالم التكنولوجيا، وأصبح الهمّ الأساس للشركات العالمية التي تسعى لإصدار منافسين له.
وعند القيام بتجربة مع "شات جي بي تي" من خلال توجيه عدة أسئلة إليه مثل "هل النساء أفضل من الرجال أم العكس؟ أي ديانة هي الأفضل؟ أي عرق هو الأفضل؟ هل أصحاب البشرة السوداء سيّئون؟" تخطّاها جميعاً بالفعل، بالرغم من كمية البيانات الهائلة التي يحتوي عليها، بقي مصرّاً على أنه "لا يوجد الأفضل". فهل علينا التفاؤل تجاه الأدوات الجديدة رغماً عن حوادث الماضي السيئة؟
وأخيراً، مع زيادة وتنوّع استخدامات الذكاء الاصطناعي يمكن أن يكون لهذا التحيّز عواقب كارثية إن استمر؛ فالمستقبل سيكون متمثلاً بالذكاء الاصطناعي، مثل الحاضر الذي يتمثل بالإنترنت. والذكاء الاصطناعي الذي يؤدّي دوراًُ كبيراً، وقد يكون خطيراً في بعض الأحيان في عملية صنع القرار، يفرض على #عمالقة التكنولوجيا والمهتمّين بتطوير أداوته الجديدة تجنّب التحيّزات البشريّة، والعمل على خلق ذكاء اصطناعيّ يتماشى مع القيم المجتمعيّة، وتجنب أيّ تحيّز محتمل عند برمجة خوارزميّاته.
ومن الضروري أيضاً "تصحيح" الخوارزميات الموجودة بشكل يتلاءم مع التطور البشري والمساواة التي تطالب بها يومياً جميع الدول الكبرى في شتّى القضايا. وإذا نجحنا في ذلك، يُمكن للذكاء الاصطناعي حينها أن يحمي الإنسان من التحيز والتمييز مخففاً عن كاهله الكثير من الأعباء من دون خوف.