مع انتشار الذكاء الاصطناعي التوليدي عقب ظهور "شات جي بي تي" في العام 2022، تجددت المخاوف بشأن التفاوتات التي قد تتبعه، لكن يبدو أن الأمور تسير حتى الآن على العكس تماماً من تلك المخاوف.
ولطالما تمتع أصحاب البشرة البيضاء بحظٍ أوفر في الوصول إلى التكنولوجيا الحديثة في الولايات المتحدة. إذ سبقوا سواهم في الوصول إلى الهواتف الأرضية. وتكرر الأمر مع الكومبيوتر والإنترنت، حينما استُعمل مصطلح "الفجوة الرقمية" Digital Divide في وصف تلك الحالة.
وتشير الفجوة الرقمية إلى التفاوت بين الأشخاص الذين لديهم إمكانية الوصول إلى التكنولوجيا والإنترنت ومهارات القراءة والكتابة الرقمية، وأولئك الذين لا يستطيعون ذلك. ويمكن أن يوجد هذا الانقسام بين الأفراد، والمجتمعات، وحتى الدول بأكملها.
وتفاقمت هذه "الفجوة الرقمية" أثناء جائحة كورونا، حينما عانى العديد من التلاميذ غير البيض صعوبة التأقلم مع التعلّم عن بُعد.
ومع اندفاعة الذكاء الاصطناعي التوليدي، برزت ظاهرة لم تكن متوقعة تماماً.
وفقًا لدراسة من "والتون فاميلي فاونديشن"، المؤسسة الممولة من أفراد العائلة التي المالكة لـ"وول مارت"، يفيد 72 في المئة من الآباء البيض إنهم يستخدمون الذكاء الاصطناعي بأنفسهم، فيما يورد 80% من الآباء ذوي البشرة الداكنة و84% من الآباء من أصل إسباني إنهم يفعلون ذلك.
كذلك، يقول 68% من الآباء البيض أن أطفالهم يستخدمون روبوتات الدردشة المستندة إلى الذكاء الاصطناعي في المدرسة، مقارنة بـ75% من ذوي الأصول الأسبانية و81% من الآباء السود.
النماذج الذكية تحمل تحيّزات البشر
نماذج الذكاء الاصطناعي نفسها التي قلبَتْ اتجاه الفجوة الرقمية أميركياً، يمكن أن ترث وتُضَخِّم التحيزات المستندة على العرق، ما يهدد بعواقب وخيمة.
ومثلاً، في مجال الشرطة، تعرضت الخوارزميات التنبؤية/ التوقُّعية المستخدمة في منع الجرائم، لانتقادات بسبب استهدافها مجتمعات الأقليات بشكل غير عادل. يمكن أن يحدث هذا إذا كانت البيانات التراكمية المستخدمة لتدريب النموذج تعكس التحيزات العنصرية في عمل الشرطة. وينتهي الأمر بالذكاء الاصطناعي إلى إدامة تلك التحيزات من خلال التركيز على أحياء معينة أو تركيبة سكانية بعينها، ما قد يؤدي إلى إخضاعها إلى تحقيقات بوليسية غير ضرورية.
يعد مجال الرعاية الصحية مجالًا آخر للعواقب السلبية التي قد تنجم عن التحيز العرقي في أنظمة الذكاء الاصطناعي. إذا دُرِّبَ نظام ذكي على التشخيص الطبي، مع الاستناد إلى بيانات تعبر في المقام الأول عن عرق واحد، فقد لا يتمكن ذلك النظام من التشخيص الدقيق لمرضى ينتمون إلى خلفيات أخرى. وهذا يمكن أن يؤدي إلى تشخيص خاطئ أو تأخير العلاج.
ويمكن للنماذج اللغوية، التي تُدرَّبْ على كميات هائلة من البيانات النصية، أن تتعلم أيضًا الصور النمطية العرقية وتديمها. إذا احتوت بيانات التدريب على لغة متحيزة، فقد يولد النظام اجابات تعكس تلك التحيزات. وقد يصنع هذا الأمر مشكلة في مجموعة متنوعة من التطبيقات، بداية من وسائل التواصل الاجتماعي ووصولاً إلى برامج الدردشة الآلية لخدمة العملاء.
في البنوك، يمكن أن يتسلل تحيز مماثل إلى عمليات الموافقة على القروض. إذا كانت ممارسات الإقراض السابقة تميز ضد أعراق معينة، فقد يرث نموذج الذكاء الاصطناعي هذا التحيز ويرفض بشكل غير عادل القروض للمتقدمين المؤهلين من تلك المجموعات.
وربما تؤثر تلك التحيّزات في قدرة الأشخاص على شراء منزل، أو بدء عمل تجاري، أو تحقيق الأمن المالي.
وحتى في عمليات التوظيف، قد يؤدي استخدام الذكاء الاصطناعي إلى التحيز العرقي. وبالتالي، فإن استخدام الذكاء الاصطناعي في منصات التوظيف قد يؤدي إلى التمييز العرقي بين المرشحين، إذا كانت البيانات التراكمية المستخدمة في تدريب خوارزميات الذكاء الاصطناعي تتضمن تفضيلات وتحيزات سابقة في التوظيف تستند إلى العرق. ويؤدي ذلك إلى الحد من الفرص المتاحة للمرشحين المؤهلين المنتمين إلى مجموعات الأقليات.
تعد أنظمة التعرف على الوجه مجالًا آخر يثير القلق. لقد ثبت أن هذه الأنظمة لديها معدلات خطأ أعلى للأشخاص الملونين، بسبب التحيزات في بيانات التدريب. وهذا يمكن أن يؤدي إلى أخطاء في تحديد الهوية، مما قد يكون له عواقب وخيمة على خصوصية الأفراد وحريتهم.
إذاً، رغم تبني الأفراد ذوي البشرة الداكنة لنماذج الذكاء الاصطناعي بصورة أسرع من غيرهم في الولايات المتحدة، إلا أن ذلك لا يعني هذه الثورة التكنولوجيا بحد ذاتها ستسهم في تحقيق "حلم” مارتن لوثر كينغ بالمساواة العرقية والعدالة الاجتماعية. وعلى العكس ذلك، قد يعني ذلك أن النضال بات له مضمار جديد، هو نماذج الذكاء الاصطناعي وطُرُق تدريبها.