كشفت دراسة أُجريت مؤخّراً بواسطة جامعة "باث" Bath والجامعة التقنية في دارمشتات في ألمانيا، أن النماذج اللغوية الكبيرة مثل "شات جي بي تي"، ليست قادرة على التعلّم الذاتي أو تطوير مهارات جديدة بمفردها، وبالتالي فإنها لا تمثل خطراً وجودياً على البشر.
وقد نُشرت هذه الدراسة ضمن فعاليات الاجتماع السنوي الـ62 للجمعية الدولية للغويات الحاسوبية ACL 2024، وهو المؤتمر الدولي الرائد في معالجة اللغات الطبيعية. وتكشف الدراسة أن هذه النماذج لديها القدرة على اتباع التعليمات والتميّز في الكفاءة اللغوية، ولكنها لا تمتلك الإمكانية لاتقان مهارات جديدة من دون تعليمات صريحة، ما يعني أنها تظل قابلة للتحكّم والتنبؤ والأمان.
وخلص فريق البحث إلى أن النماذج اللغوية الكبيرة، التي يتمّ تدريبها على مجموعات بيانات أكبر وأكبر، يمكن أن تستمر في الانتشار من دون مخاوف تتعلق بالسلامة، على الرغم من أن التكنولوجيا لا تزال قابلة لإساءة الاستخدام.
مع النمو، من المُرجّح أن تولّد هذه النماذج لغة أكثر تطوراً، وتصبح أفضل في اتباع التعليمات الصريحة والمفصلة، ولكن من غير المحتمل أن تكتسب مهارات التفكير المعقّدة.
يقول الدكتور هاريش تايار مادابوشي، عالم الكمبيوتر في جامعة باث والمؤلف المشارك في الدراسة الجديدة حول "القدرات الناشئة" للنماذج اللغوية الكبيرة: "إن السرد السائد الذي يصور هذا النوع من الذكاء الاصطناعي على أنه تهديد للإنسانية، يمنع الاعتماد الواسع وتطوير هذه التقنيات، ويحوّل الانتباه أيضًا عن القضايا الحقيقية التي تتطلّب تركيزنا".
أجرى فريق البحث التعاوني تجارب لاختبار قدرة النماذج اللغوية الكبيرة على إكمال المهام التي لم تواجهها النماذج من قبل - القدرات الناشئة المسماة.
على سبيل المثال، يمكن للنماذج اللغوية الكبيرة الإجابة عن أسئلة حول المواقف الاجتماعية من دون أن تكون قد تمّ تدريبها أو برمجتها على ذلك صراحة.
وفي حين أشارت الأبحاث السابقة إلى أن هذا كان نتيجة لـ "معرفة" النماذج بالمواقف الاجتماعية، أظهر الباحثون أنه كان في الواقع نتيجة لاستخدام النماذج لقدرة معروفة لديها على إكمال المهام، بناءً على بعض الأمثلة المقدمة لها، المعروفة باسم "التعلّم في السياق" ICL.
من خلال آلاف التجارب، أظهر الفريق أن مزيجاً من قدرة النماذج اللغوية الكبيرة على اتباع التعليمات ICL، والذاكرة، والكفاءة اللغوية، يمكن أن يفسّر كلاً من القدرات والقيود التي تظهرها النماذج اللغوية الكبيرة.
وفي السياق، يلفت المؤلف المشارك للدراسة: "لطالما كان الخوف من أنه مع تزايد حجم النماذج، ستكون قادرة على حل مشكلات جديدة، لا يمكننا التنبؤ بها حالياً، ما يشكّل تهديداً بأن هذه النماذج الأكبر قد تكتسب قدرات خطرة تشمل التفكير والتخطيط. وقد أثار هذا الكثير من النقاشات، على سبيل المثال، في قمة الأمان للذكاء الاصطناعي العام الماضي في بليتشلي بارك، حيث طُلب منا التعليق، لكن دراستنا تُظهر أن الخوف من أن نموذجاً ما سيذهب ويفعل شيئاً غير متوقع تماماً ومبتكراً وربما خطيراً ليس صحيحاً".
ويضيف أن القلق بشأن التهديد الوجودي الذي تشكّله النماذج اللغوية الكبيرة ليس مقتصراً على غير الخبراء، وقد عُبّر عنه من قبل بعض كبار الباحثين في مجال الذكاء الاصطناعي في جميع أنحاء العالم. ومع ذلك، يحافظ المؤلف على أن هذا الخوف لا أساس له من الصحة، حيث أظهرت اختبارات الباحثين بوضوح عدم وجود قدرات تفكير معقّدة ناشئة في النماذج اللغوية الكبيرة.
ويتابع قائلاً: "من المهمّ معالجة الإمكانات الحالية لسوء استخدام الذكاء الاصطناعي، مثل إنشاء الأخبار المزيفة وزيادة خطر الاحتيال، لكن سيكون من السابق لأوانه سن القوانين استناداً إلى التهديدات الوجودية المتصورة" .
ويؤكّد أن هذا يعني بالنسبة للمستخدمين، أن الاعتماد على النماذج اللغوية الكبيرة لتفسير وأداء المهام المعقّدة التي تتطلّب تفكيراً معقّداً من دون تعليمات صريحة، من المحتمل أن يكون خطأ. بدلاً من ذلك، من المرجح أن يستفيد المستخدمون من تحديد ما يتطلبونه من النماذج بشكل صريح، وتقديم أمثلة حيثما أمكن لجميع المهام باستثناء أبسطها.
ويختم: "لا تعني نتائجنا أن الذكاء الاصطناعي ليس تهديداً على الإطلاق. بل نُظهر أن الظهور المزعوم لمهارات التفكير المعقّدة المرتبطة بتهديدات محدّدة لا يدعمه الدليل، وأننا يمكن أن نتحكّم في عملية التعلّم للنماذج اللغوية الكبيرة جيداً بعد كل شيء. لذلك يجب أن تركّز الأبحاث المستقبلية على مخاطر أخرى تشكّلها النماذج، مثل إمكانية استخدامها لإنشاء أخبار مزيفة".