النهار

ما هي المخاطر الأمنية للذكاء الاصطناعي التي دفعت إيلون ماسك للتهديد بمقاطعة أبل؟
كريم حمادي
المصدر: النهار العربي
صعّد الملياردير الأميركي إيلون ماسك الذي يدير شركات تسلا للسيارات الكهربائية وسبيس إكس، ولديه أيضاً شركة ناشئة في مجال الذكاء الاصطناعي باسم إكس إيه آي (xAI)، من هجومه تجاه تطبيق الذكاء الاصطناعي شات جي بي تي (Chatgpt) وشركة أوبن إيه آي (OpenAI) المطورة للتطبيق.
ما هي المخاطر الأمنية للذكاء الاصطناعي التي دفعت إيلون ماسك للتهديد بمقاطعة أبل؟
روبوت وإيلون ماسك
A+   A-

قال ماسك في تدوينة له على منصة إكس يوم 10 حزيران (يونيو) الجاري "إذا دمجت شركة أبل برامج أوبن إيه آي – الشركة المطورة لبرنامج الذكاء الاصطناعي شات جي بي تي - لنظام التشغيل، فسيتم حظر أجهزة أبل في شركاتي. هذا انتهاك أمني غير مقبول".

 ويُعد قرار ماسك تحركاً سريعاً منه رداً على إعلان شركة أبل عن إطلاق منصة أبل إنتيليجانس (Apple Intelligence) التي ستساعد مالكي أجهزة "التفاحة" في تلخيص النص وإنشاء الصور الأصلية واسترجاع البيانات الأكثر صلة عندما يحتاجها المستخدمون، ووعدت أبل حينها بتقديم تكنولوجيا مخصصة وآمنة ومتكاملة بعمق عبر نظام برايفت كلاود كومبيوت (Private Cloud Compute)، بحسب تصريحات نائب الرئيس الأول كريغ فيديريغي خلال المؤتمر السنوي للمطورين العالميين للشركة.

 والؤال هنا لماذا هدد ماسك بحظر منتجات أبل؟، وما هي المخاطر الأمنية للذكاء الاصطناعي التي تحدث عنها؟. "النهار العربي" تجيب عن الأسئلة وتستعرض 10 مخاطر أمنية للذكاء الاصطناعي.

ويوم الإثنين الماضي واصل ماسك هجومه على شركة أبل ونشر تدوينة أخرى تقول "إن شركة أبل لا تستطيع صنع الذكاء الاصطناعي الخاص بها، وليس لديها أي فكرة عما يحدث بالفعل بمجرد تسليم بياناتك إلى أوبن إيه آي".

وتصعيد ماسك تجاه شركة أوبن إيه آي وتطبيقها للذكاء الاصطناعي "شات جي بي تي" ليس الأول، وبالعودة ليوم 22 آذار (مارس) 2023، أصدرت مؤسسة (Future of Life) غير الربحية الممولة من قبل ماسك خطاباً يحمل توصية من ماسك نفسه ومجموعة من المديرين التنفيذيين والخبراء المختصين في مجال الذكاء الاصطناعي، وعليه أكثر من ألف توقيع لوقف تطوير الذكاء الاصطناعي المتقدم لمدة 6 أشهر، حتى يتم تطوير وتنفيذ بروتوكولات السلامة لمثل هذه التصاميم وتدقيقها من قبل خبراء مستقلين.

وتلتقي رؤية ماسك مع وزير الخارجية الأميركي السابق هنري كيسنجر، الذي نشرت له صحيفة الواشنطن بوست تصريح في 24 تشرين الثاني (نوفمبر) 2022 قبل نحو عام من وفاته عن عمر ناهز 100 عام، قال خلاله "إن تطوير الذكاء الاصطناعي قد لا يقل خطورة عن الأسلحة النووية".

وما يزيد من خطورة الأمر هو تصريح المؤسس المشارك لشركة مايكروسوفت بيل غيتس، والذي استثمرت شركته 13 مليار دولار في شركة أوبن إيه آي، في 22 أيار (مايو) 2023، عندما أشار إلى التهديد الوجودي الذي يوجهه الذكاء الاصطناعي لشركات عملاقة مثل غوغل وأمازون، قائلاً "إن الشركة التي ستفوز في النهاية بسباق الذكاء الاصطناعي ستفعل ذلك من خلال تطوير مساعد رقمي شخصي، وإن الأشخاص الذين لديهم إمكانية الوصول إلى هذا المساعد لن يذهبوا أبداً إلى موقع بحث مرة أخرى، ولن تذهب أبداً إلى موقع إنتاجي، ولن تذهب أبداً إلى أمازون".

وعلق وزير دولة للذكاء الاصطناعي والاقتصاد الرقمي وتطبيقات العمل عن بعد في الإمارات عمر العلماء، خلال تصريح صحفي مع بلومبرغ على هامش "خلوة الذكاء الاصطناعي" المنعقدة في دبي، على ما قاله إيلون ماسك بشأن مخاوفه المتعلقة بخطوة شركة أبل بدمج "شات جي بي تي" في أنظمة التشغيل لديها، ووصف موقف ماسك بـ"عين الصواب"؛ لأن التطبيق يعتمد تقنية مغلقة المصدر لا تتمتع بالشفافية المطلوبة.

ويقول العضو المنتدب لشركة ميديا ساي ومؤسس منصة (Big Brother Analytics) خبير أمن المعلومات المهندس مصطفى أبو جمرة، في حديثه مع "النهار العربي" إن الذكاء الاصطناعي اليوم أصبح يتفوق على قدرات البشر في أغلب الأعمال، ولا بأس إذا ما تم توظيفه وتقنينه بشكل آمن وعادل، لكن الشركات الكبرى والدول تتبارى في صنعه وتقديمه للمستخدمين لكي تفوز بالهيمنة على العالم مستقبلاً وحرصاً منها أيضاً على الاستمرار وتجنب الاندثار.

وأضاف أنه من مخاطر الذكاء الاصطناعي المخلّق أنه لا يمكن تتبع حقوق الملكية الفكرية، ولا تفصح الشركات المطورة للنماذج اللغوية الكبيرة عن بيانات التدريب التي استخدمت ولا كيف استخدمت، وتفتقد معظم هذه النماذج التدريب على البيانات الشرق أوسطية والعربية.

ويرى خبير أمن المعلومات أن الملياردير إيلون ماسك لم يوفقه التقدير حين انقلب على شركة أوبن إيه آي، وهدد وتوعد بمحاربتها ليس خوفا على البشرية لكن لعلمه أن السهم قد انطلق ولا سبيل للفوز عليهم، وها نحن نجد لاعب كبير مثل شركة أبل التي تتخطى قيمتها السوقية 3.18 تريليون دولار ينضم لموفري خدمات الذكاء الاصطناعي بالتعاون مع أوبن إيه آي و هذا قرار صائب لأن شركة أبل تمتلك الحصة الأكبر من المستخدمين لهواتفها وكذلك هي الشركة الأقدّر في تصميم الواجهات الأكثر يسراً وسهولة للمستخدم، إضافة لكونها الشركة الأكثر احتراماً وأمناً لبيانات العملاء.

أظهرت بيانات مؤسسة ستاتيستا (Statista) للأبحاث أن حجم سوق الذكاء الاصطناعي حالياً يقدر بنحو 200 مليار دولار، وسط توقعات بالنمو ليتخطى 1.8 تريليون دولار بحلول عام 2030، أما مؤسسة ماركتس آند ماركتس للأبحاث (MarketsandMarkets) الهندية التي تأسست عام 2009 قدرت حجم سوق الذكاء الاصطناعي خلال عام 2023 بقيمة 145.1 مليار دولار، وفي عام 2024 بقيمة 214.6 مليارات دولار، وتتوقع أن ينمو حجمه إلى 1.33 تريليون دولار بحلول عام 2030.

 

10 مخاطر أمنية للذكاء الاصطناعي

نشرت منصة بيلت إن (Built in) الأميركية تقرير في 1 آذار (مارس) 2024 عن مخاطر الذكاء الاصطناعي، كما ركزت مجلة فوربس (Forbes) الأمريكية في تقرير لها نشرته يوم 2 حزيران (يونيو) 2023 عن أكبر المخاطر لتقنية الذكاء الاصطناعي، واستخلصت "النهار العربي" منهما أبرز 10 مخاطر أمنية للذكاء الاصطناعي.

 

1- سوء استغلال البيانات الشخصية للمستخدمين وانتحال شخصياتهم   

تعتمد برامج الذكاء الاصطناعي على تقنية مغلقة المصدر، وبالتالي فوجود تطبيقات الذكاء الاصطناعي التوليدي على أجهزة المستخدمين دون مراجعة الشروط والأحكام قبل تثبيت التطبيق، تعرّض بيانات المستخدم للخطر، وهو ما دفع إيلون ماسك لقول " بمجرد تسليم بياناتك إلى شركة أوبن إيه آي. إنهم يبيعونك أسفل النهر".

وإذا كنت قد لعبت مع روبوت محادثة الذكاء الاصطناعي أو جربت مرشح وجه الذكاء الاصطناعي عبر الإنترنت، فسيتم جمع بياناتك - ولكن إلى أين تذهب وكيف يتم استخدامها؟، غالبًا ما تجمع أنظمة الذكاء الاصطناعي البيانات الشخصية لتخصيص تجارب المستخدم أو للمساعدة في تدريب نماذج الذكاء الاصطناعي التي تستخدمها (خاصة إذا كانت أداة الذكاء الاصطناعي مجانية).

وفي أيار (مايو) الماضي، اتخذت الممثلة الهوليوودية سكارليت جوهانسون، موقفاً صارماً ضد استخدام صوتها من قبل تقنيات الذكاء الاصطناعي بدون موافقة صريحة منها، وشددت على أهمية الموافقة وحق التحكم في الشكل والصوت الشخصي في العصر الرقمي.

2- افتقار الشفافية والتفسير لنتائج الذكاء الاصطناعي

المستخدم ليس على دراية كافية بما تستخدمه خوارزميات الذكاء الاصطناعي من بيانات للوصول إلى النتائج التي تظهر له، وتكمن المخاوف في أن يتخذ الذكاء الاصطناعي التوليدي قرارات متحيزة وغير آمنة، خصوصاً أن اعتماد البشر على الذكاء الاصطناعي يزيد يوماً تلو الآخر في مهام وقطاعات مهمة مثل الرعاية الصحية والنقل والتمويل والتجارة الإلكترونية وغيرهم، لذلك تسعى الحكومات والجهات الرقابية الدولية لحث الشركات على توفير أنظمة ذكاء اصطناعي شفافة وقابلة للتفسير.

 

 

3- التلاعب عبر منصات التواصل الاجتماعي

يمكن استغلال بعض الأشخاص أو المؤسسات لبرامج الذكاء الاصطناعي في نشر معلومات مضللة بكثافة على منصات التواصل الاجتماعي واستهداف شريحة محددة من المستخدمين بغرض التأثير في قراراتهم ودفعهم نحو اتخاذ قرار محدد يخدم مصالحهم الشخصية، ومن الأمثلة على ذلك فرديناند ماركوس الابن (Ferdinand Marcos, jr.)، الذي استخدم جيشًا من المتصيدين على تطبيق تيك توك (TikTok) الصيني لحصد أصوات الفلبينيين الأصغر سنًا خلال انتخابات الفلبين عام 2022.

 

4- مخاطر احتيالية من قبل القراصنة الإلكترونيين

يمكن للمتسللين والقراصنة الإلكترونيين (الهاكرز) الاستفادة من قوة الذكاء الاصطناعي التوليدي لتطوير هجمات إلكترونية أكثر تقدمًا، وتجاوز تدابير الأمن، واستغلال نقاط الضعف في الأنظمة، وعلى سبيل المثال في عام 2017 أعد مختبر المعلوماتية في المدرسة العليا للتكوين بليون، دراسة على السيارات ذاتية القيادة ومدى ذكائها حال التشويش على إشارات المرور والتحايل عليها، وجاءت النتائج سلبية، ما دفع العديد من شركات السيارات الكهربائية التي تستخدم نظام القيادة الذاتية للتأكيد على أن هذا النظام مجرد نظام مساعد في القيادة ولا يمكن الاعتماد عليه بشكل كامل.

 

5- التسلح الذكي للميليشيات

تخوض العديد من البلدان سباق التسلّح في مجال الذكاء الاصطناعي، لكن التطور السريع لتقنيات الذكاء الاصطناعي قد يؤدي لعواقب وخيمة محتملة على المجتمع والإنسانية، خصوصاً حال استغلال المليشيات لتقنية الذكاء الاصطناعي في تطوير أسلحتها.

 

6- مراقبة الأشخاص عبر الذكاء الاصطناعي

تستخدم العديد من الأجهزة الأمنية الحكومية مثل أقسام الشرطة والمطارات حالياً تقنيات الذكاء الاصطناعي في مراقبة الأشخاص والتعرف على هويتهم والعديد من بياناتهم الشخصية عبر بصمة الوجه، ومثال على ذلك استخدام الصين لتقنية التعرف على الوجه في المكاتب والمدارس وغيرها من الأماكن. بالإضافة إلى تتبع تحركات الشخص، فإن الصين قد تتمكن الحكومة من جمع بيانات كافية لمراقبة أنشطة الشخص وعلاقاته وآرائه السياسية.

 

7- احتكار الذكاء الاصطناعي عالمياً   

لاحظنا خلال الفترة الأخيرة تسابق شركات التكنولوجيا العملاقة على امتلاك تقنيات الذكاء الاصطناعي، حيث استثمرت مايكروسوفت 13 مليار دولار في شركة أوبن إيه آي، أما أمازون استثمرت نحو 4 مليارات دولار في شركة أنثروبيك (Anthropic) المنافسة لـ"أوبن إيه آي"، أما غوغل فاستثمرت 400 مليون دولار في شركة أنثروبيك، وهذا يدل على أن خطر سيطرة عدد صغير من الشركات الكبرى والحكومات على تطوير الذكاء الاصطناعي قد يؤدي إلى تفاقم عدم المساواة والحد من التنوع في تطبيقات الذكاء الاصطناعي، وبالتالي يُعد تشجيع تطوير الذكاء الاصطناعي اللامركزي والتعاوني هو المفتاح لتجنب تركيز القوة.

 

8- التضليل والتلاعب

يستخدم البعض الذكاء الاصطناعي في إنتاج محتوى عبر آلية التزييف العميق، وهذا المحتوى يصعب على المتلقي التمييز بين الأصلي والمزيف منه، وهو ما يساهم في انتشار المعلومات الكاذبة والتلاعب بالرأي العام وتضليله، ولمواجهة ذلك لابد من وضع ضوابط وآليات للكشف عن المعلومات المضللة التي يولدها الذكاء الاصطناعي.

9- مخاطر مالية

أصبحت الصناعة المالية أكثر تقبلاً لمشاركة تكنولوجيا الذكاء الاصطناعي في العمليات المالية والتجارية اليومية، ويمكن لخوارزميات الذكاء الاصطناعي مساعدة المستثمرين على اتخاذ قرارات أكثر ذكاءً واستنارة في السوق. لكن المنظمات المالية بحاجة إلى التأكد من أنها تفهم خوارزميات الذكاء الاصطناعي الخاصة بها وكيف تتخذ هذه الخوارزميات القرارات. يجب على الشركات أن تفكر فيما إذا كان الذكاء الاصطناعي يرفع أو يخفض ثقتها قبل تقديم التكنولوجيا لتجنب إثارة المخاوف بين المستثمرين وخلق الفوضى المالية.

 

10- فقدان السيطرة على الذكاء الاصطناعي

ومن المخاطر الأمنية أن الذكاء الاصطناعي التوليدي يتقدم في الذكاء بسرعة كبيرة بحيث يصبح واعيًا، ويتصرف خارج نطاق سيطرة البشر - ربما بطريقة خبيثة. وقد حدثت بالفعل تقارير مزعومة عن هذا الشعور، مع وجود حساب شائع من مهندس سابق في شركة غوغل ذكر أن روبوت الدردشة (AI LaMDA) كان واعيًا ويتحدث إليه تمامًا كما يفعل الشخص.

 

اقرأ في النهار Premium