ولطالما تمتع أصحاب البشرة البيضاء بحظٍ أوفر في الوصول إلى التكنولوجيا الحديثة في الولايات المتحدة. إذ سبقوا سواهم في الوصول إلى الهواتف الأرضية. وتكرّر الأمر مع الكومبيوتر والإنترنت، حينما استُعمل مصطلح "الفجوة الرقمية" Digital Divide في وصف تلك الحالة.
وتشير الفجوة الرقمية إلى التفاوت بين الأشخاص الذين لديهم إمكانية الوصول إلى التكنولوجيا والإنترنت ومهارات القراءة والكتابة الرقمية، وأولئك الذين لا يستطيعون ذلك. ويمكن أن يوجد هذا الانقسام بين الأفراد، والمجتمعات، وحتى الدول بأكملها.
وتفاقمت هذه "الفجوة الرقمية" أثناء جائحة كورونا، حينما عانى العديد من التلاميذ غير البيض صعوبة التأقلم مع التعلّم عن بُعد.
ومع اندفاعة الذكاء الاصطناعي التوليدي، برزت ظاهرة لم تكن متوقعة تماماً.
وفقًا لدراسة من "والتون فاميلي فاونديشن"، المؤسسة الممولة من أفراد العائلة المالكة لـ"وول مارت"، يفيد 72% من الآباء البيض أنهم يستخدمون الذكاء الاصطناعي بأنفسهم، فيما يورد 80% من الآباء ذوي البشرة الداكنة و84% من الآباء من أصل إسباني إنهم يفعلون ذلك.
كذلك، يقول 68% من الآباء البيض إن أطفالهم يستخدمون روبوتات الدردشة المستندة إلى الذكاء الاصطناعي في المدرسة، مقارنة بـ75% من ذوي الأصول الأسبانية و81% من الآباء السود.
النماذج الذكية تحمل تحيّزات البشر
نماذج الذكاء الاصطناعي نفسها التي قلبَتْ اتجاه الفجوة الرقمية أميركياً، يمكن أن ترث وتُضَخِّم التحيّزات المستندة على العرق، ما يهدّد بعواقب وخيمة.
ومثلاً، في مجال الشرطة، تعرّضت الخوارزميات التنبؤية/ التوقُّعية المستخدمة في منع الجرائم، لانتقادات بسبب استهدافها مجتمعات الأقليات بشكل غير عادل. يمكن أن يحدث هذا إذا كانت البيانات التراكمية المستخدمة لتدريب النموذج تعكس التحيّزات العنصرية في عمل الشرطة. وينتهي الأمر بالذكاء الاصطناعي إلى إدامة تلك التحيّزات من خلال التركيز على أحياء معينة أو تركيبة سكانية بعينها، ما قد يؤدي إلى إخضاعها إلى تحقيقات بوليسية غير ضرورية.
يعدّ مجال الرعاية الصحية مجالًا آخر للعواقب السلبية التي قد تنجم عن التحيّز العرقي في أنظمة الذكاء الاصطناعي. إذا دُرِّبَ نظام ذكي على التشخيص الطبي، مع الاستناد إلى بيانات تعبّر في المقام الأول عن عرق واحد، فقد لا يتمكن ذلك النظام من التشخيص الدقيق لمرضى ينتمون إلى خلفيات أخرى. وهذا يمكن أن يؤدي إلى تشخيص خاطئ أو تأخير العلاج.
ويمكن للنماذج اللغوية، التي تُدرَّبْ على كميات هائلة من البيانات النصية، أن تتعلم أيضًا الصور النمطية العرقية وتديمها. إذا احتوت بيانات التدريب على لغة متحيّزة، فقد يولّد النظام اجابات تعكس تلك التحيّزات. وقد يؤدي هذا الأمر إلى مشكلة في مجموعة متنوعة من التطبيقات، بداية من وسائل التواصل الاجتماعي ووصولاً إلى برامج الدردشة الآلية لخدمة العملاء.
في البنوك، يمكن أن يتسلّل تحيّز مماثل إلى عمليات الموافقة على القروض. إذا كانت ممارسات الإقراض السابقة تميّز ضدّ أعراق معينة، فقد يرث نموذج الذكاء الاصطناعي هذا التحيّز ويرفض بشكل غير عادل القروض للمتقدمين المؤهلين من تلك المجموعات.
وربما تؤثر تلك التحيّزات في قدرة الأشخاص على شراء منزل، أو بدء عمل تجاري، أو تحقيق الأمن المالي.
وحتى في عمليات التوظيف، قد يؤدي استخدام الذكاء الاصطناعي إلى التحيّز العرقي. وبالتالي، فإن استخدام الذكاء الاصطناعي في منصات التوظيف قد يؤدي إلى التمييز العرقي بين المرشحين، إذا كانت البيانات التراكمية المستخدمة في تدريب خوارزميات الذكاء الاصطناعي تتضمن تفضيلات وتحيزات سابقة في التوظيف تستند إلى العرق. ويؤدي ذلك إلى الحدّ من الفرص المتاحة للمرشحين المؤهلين المنتمين إلى مجموعات الأقليات.
تعدّ أنظمة التعرف على الوجه مجالًا آخر يثير القلق. لقد ثبت أن هذه الأنظمة لديها معدلات خطأ أعلى للأشخاص الملونين، بسبب التحيّزات في بيانات التدريب. وهذا يمكن أن يؤدي إلى أخطاء في تحديد الهوية، ما قد تكون له عواقب وخيمة على خصوصية الأفراد وحرّيتهم.
إذاً، رغم تبنّي الأفراد ذوي البشرة الداكنة لنماذج الذكاء الاصطناعي بصورة أسرع من غيرهم في الولايات المتحدة، إلّا أن ذلك لا يعني أن هذه الثورة التكنولوجية بحدّ ذاتها ستسهم في تحقيق "حلم" مارتن لوثر كينغ بالمساواة العرقية والعدالة الاجتماعية. وعلى العكس من ذلك، قد يعني ذلك أن النضال بات له مضمار جديد، هو نماذج الذكاء الاصطناعي وطُرُق تدريبها.