لم يعد الذكاء الاصطناعي مجرد مصطلح تقني يخص المهندسين والخبراء، بل أصبح حديث العالم ومحوراً رئيسياً في الكتب ومقاطع الفيديو المنتشرة على "يوتيوب". شخصيات بارزة مثل الراحل هنري كيسنجر والممثل الشهير روبرت داوني جونيور يتحدثون بحماسة عن تقنيات الذكاء الاصطناعي التوليدي، مثل "شات جي بي تي" و"DALL-E" من شركة "أوبن إيه آي"، التي تقدّم إمكانيات مذهلة في إنتاج نصوص وصور وأصوات تبدو كأنها من صنع الإنسان.
لا تقتصر هذه الثورة التقنية على عالم التكنولوجيا، بل تتسرب إلى جميع جوانب الحياة الاجتماعية والمهنية، ما يعني أن تأثيرها المحتمل على الانتخابات الأميركية قد يكون كبيراً ولا يمكن تجاهله، إذ يمكن استخدامها لتوجيه الرأي العام ونشر المعلومات المضللة بطرق غير مسبوقة.
المحللون لا يتوقفون عن دق ناقوس الخطر عبر وسائل الإعلام المختلفة. في مقابلة مع "سي أن بي سي" في حزيران (يونيو) 2023، حذر إيريك شميدت، الرئيس التنفيذي السابق لشركة "غوغل"، من أن انتخابات 2024 قد تكون "فوضوية"، مشيراً إلى أن وسائل التواصل الاجتماعي غير مجهزة للتعامل مع الذكاء الاصطناعي التوليدي المزيف. كذلك، أطلق الكاتب المعروف يوڤال نوح هراري تحذيراً من أن هذه التقنيات قد تحدث "زلزالاً سياسياً". في المقابل، توقعت مجلة "MIT Technology Review" أن الذكاء الاصطناعي سيزيد من انتشار المعلومات المضللة في المجال السياسي.
صناع قرار
وفي قلب واشنطن العاصمة، حيث يتجمع صناع القرار والخبراء، تستمر مراكز التفكير مثل "معهد بروكينغز" في تنظيم نقاشات مستمرة حول التحديات التي يفرضها الذكاء الاصطناعي والمعلومات المضللة في ظل أجواء الانتخابات المقبلة.
أحداث عديدة قبل الانتخابات الرئاسية في 5 تشربن الثاني (نوفمبر) زادت هذه المخاوف. ففي كانون الثاني (يناير)، تلقى آلاف الناخبين في نيوهامبشاير مكالمات آلية تتضمن تقليداً بصوت توليدي للذكاء الاصطناعي لجوزيف بايدن المعروفة باسم الـ "ديب فيك" deepfake، حيث كانت المكالمة تهدف إلى تضليل الناخبين عبر الادعاء بأن التصويت في الانتخابات التمهيدية للحزب الديموقراطي سيحرمهم من التصويت في الانتخابات العامة. وفي آب (أغسطس)، نشر دونالد ترامب على منصته "Truth Social" سلسلة من المحتويات المضلّلة التي أنتجها الذكاء الاصطناعي، مثل فيديو يظهره وهو يرقص مع إيلون ماسك، وصورة لكامالا هاريس تتحدث أمام جمهور من الشيوعيين، وصور توحي بأن المغنية تايلور سويفت أيدته.
لكن، هناك استخدامات أكثر اعتيادية للذكاء الاصطناعي في الانتخابات تمتد إلى ما هو أبعد من تقليد الأصوات الزائفة. فمثلاً، يوفر برنامج "Eagle AI" المدعوم من مؤيدي ترامب أدوات للمشتركين تمكنهم من تقديم اعتراضات على تسجيلات الناخبين بسرعة وبكثافة. أما أولئك الذين يرغبون في تحسين حملاتهم الانتخابية واستطلاعاتهم، فيتم تسويق أدوات تحليلية تعتمد على الذكاء الاصطناعي تشبه تلك المستخدمة في الأعمال التجارية.
ورغم أن الذكاء الاصطناعي قد يحدث اضطراباً في الانتخابات، يبقى السؤال الأهم: هل الخطر الأكبر ليس الذكاء الاصطناعي نفسه، بل كل الاهتمام المحيط به؟
التزام تقني
أعلنت شركات التكنولوجيا الكبرى، مثل "أوبن إيه آي" و"ميتا"، و"غوغل"، و"مايكروسوفت"، عن التزامها بمواجهة التهديدات المتعلقة بالذكاء الاصطناعي في الانتخابات عبر "اتفاقية التكنولوجيا لمكافحة الاستخدام الخادع للذكاء الاصطناعي في انتخابات 2024". ولكن النقاد يشيرون إلى غياب آليات واضحة للمساءلة أو التنفيذ الفعلي. وبدلاً من تنظيم شامل، تقدم الشركات حلولاً تعتمد على المزيد من الذكاء الاصطناعي، ما يعزّز مصالحها.
في هذا السياق، يلفت البعض الانتباه إلى أن التركيز على تهديدات الذكاء الاصطناعي يمكن أن يصرف النظر عن القضايا الأكثر تأثيراً، مثل الإعلانات السياسية التي تستهدف الناخبين بناءً على تحليل البيانات الشخصية. ويشير الخبراء إلى أن الخوف المبالغ فيه من الذكاء الاصطناعي يعزّز من قوة الشركات التي تطور هذه التكنولوجيا.
تقول الدكتورة نانسي بدران، المتخصّصة في الذكاء الاصطناعي والأمن السيبراني في مديرية الإحصاء بالحكومة الكندية، لـ"النهار" إن الذكاء الاصطناعي التوليدي يمتلك القدرة على التأثير كثيراً على الانتخابات الأميركيّة، سواء إيجابياً أو سلبياً. تضيف: "يمكن لهذه التكنولوجيا أن تنتج محتوى واقعياً للغاية لكنه مزيف، ما يساعد على نشر المعلومات المضللة عبر التزييف العميق (deepfaking) بالإضافة إلى ذلك، يمكن للذكاء الاصطناعي إنشاء إعلانات سياسية واسعة النطاق، تهدف إلى استهداف الناخبين برسائل مخصصة وفقاً لتفضيلاتهم وتحيزاتهم".
خشية التحيّز
أحد المخاوف الكبيرة التي أشارت إليها بدران هو تحيّز الذكاء الاصطناعي نفسه. وأوضحت أن "التحيّز في الذكاء الاصطناعي ينتج من تدريب النماذج على مجموعات بيانات كبيرة قد تحتوي على تحيزات. هذا الأمر قد يؤثر على الاستقطاب السياسي ويدفع بدون قصد نحو تفضيل أيديولوجية سياسية أو مرشح معين على آخر". كما أن هناك احتمالاً بأن يلعب الذكاء الاصطناعي دوراً مزدوجاً، حيث يمكنه أن يدافع عن البنية التحتية الانتخابية أو يهاجمها في الوقت نفسه، ما يزيد من المخاطر المحتملة التي تواجه الانتخابات.
رغم هذه المخاطر، سنّت بعض الولايات مثل كاليفورنيا قوانين تهدف إلى تنظيم استخدامات الذكاء الاصطناعي في الانتخابات. وتؤكد بدران أهمية هذه القوانين التي تركز على الشفافية، حيث تلزم المطورين بالكشف عن البيانات الأساسية التي استُخدمت لتدريب النماذج. كما تطالب القوانين بتوفير أدوات للكشف عن المحتوى المزيف، بما في ذلك متى تم إنشاء المحتوى ومن أنشأه.
لكن بدران تعبر عن قلقها من أن هذه القوانين، على الرغم من أهميتها، قد جاءت متأخرة ولا تزال غير كافية لمواجهة التهديدات المتزايدة. وأوضحت أن "التطور السريع للتكنولوجيا ووجود بعض الثغرات في القوانين يسمح لبعض الجهات السيئة بمواصلة استخدام الذكاء الاصطناعي للتلاعب بالرأي العام أو تعريض البيانات لمخاطر التسريب، ما قد يؤدي في النهاية إلى تعطيل الانتخابات".
يسيطر الذكاء الاصطناعي التوليدي الآن على اهتمام المستثمرين والمحللين والسياسيين والجمهور على حد سواء. يُصور الذكاء الاصطناعي في بعض الأوساط كتهديد للديموقراطية، مع افتراض أن الإنقاذ سيأتي من "وادي السيليكون"، حيث يُعتقد أن الخبراء هناك قادرون على إيجاد الحلول التقنية المناسبة.
ومع ذلك، يرى محللون أميركيون أنه ربما من الأفضل، وسط القضايا الوطنية العديدة التي تهيمن على النقاش العام، أن نعيد النظر في هذه المخاوف. بدلاً من الانشغال المبالغ فيه بتأثير الذكاء الاصطناعي على الديموقراطية، ينبغي أن نلاحظ ببساطة أن مرشحاً رئاسياً يقوم عن عمد بنشر مقاطع مزيفة أُنتجت باستخدام الذكاء الاصطناعي. وعليه، يجب أن نوجه انتباهنا ليس إلى التكنولوجيا بحد ذاتها، بل إلى أفعال هذا المرشح وسلوكه.