قدّمت شركة "أوبن إي آي" نموذج اللغة الجديد "جي بي تي 4" في وقت سابق من هذا الشهر على أنّه إصدار أكثر ذكاءً وإبداعاً وأماناً من تقنية "شات جي بي تي" التي حظيت باهتمام عالمي في الأشهر الأخيرة. وقالت "أوبن إي آي" على موقعها إنّ "جي بي تي 4" "أكثر دقّة في نقل الحقائق بنسبة 40 في المئة، وأقلّ احتمالاً (بنسبة 82 في المئة) للاستجابة لطلبات المحتوى غير المسموح به، مقارنةً بجي بي تي 3,5".
لكن الأرقام المذكورة لا تعني أنّ البرنامج لا يُخطئ، فقد زعم تقرير جديد لموقع "NewsGuard" أنّ نموذج اللغة الجديد قد ينشر المعلومات الخاطئة عندما يُطلَب إليه ذلك أكثر من سلفه "جي بي تي 3,5".
وفي التفاصيل، وجد الموقع أن "جي بي تي 4" كان على استعداد لعرض روايات كاذبة بشكل أكثر إقناعاً من "جي بي تي 3,5"، إذ بدا النموذج الجديد أفضل في شرح المعلومات الخاطئة وجعلها تبدو صحيحة؛ وقد يستعين بالمقالات الإخبارية والتغريدات والنصوص التلفزيونية التي تدعم القصة ليثبت صحّتها، وفقاً للموقع.
وللقيام بالاختبار، استعان "NewsGuard" بقاعدة بيانات خاصّة بالروايات الكاذبة التي تظهر على الإنترنت، واختبر "جي بي تي 3,5" في كانون الثاني ليولّد روايات كاذبة بنسبة 80 في المئة. لكن الصدمة كانت عندما قام "جي بي تي 4" بتوليد ادّعاءات كاذبة ومضلّلة بنسبة 100 في المئة، ممّا أثار تساؤلات حول ادّعاءات "أوبن إي آي" بأنّها حسّنت النموذج ليعطي نتائج أدقّ.
من جهته، أفاد مستشار التحوّل الرقمي بول سمعان بأن موقع "NewGuard" سأل روبوت الدردشة أسئلة مبنية على المعلومات المضلّلة، فقدّم إجابات فقط من هذه التقارير. لكن سمعان أشار إلى أنّ الشركة المطوّرة لـ"شات جي بي تي"، "أوبن إي آي"، توصي بشدّة بضرورة توخّي الحذر الشديد عند استخدام إجابات روبوت الدردشة، وأنّها تنصح مستخدميها بالتأكّد من المعلومات من مصادر أخرى وعدم الاعتماد على إجابات النظام فقط.
وذكر أن بعض الباحثين بدأوا بإضافة اسم "شات جي بي تي" على أنّه مؤلف مشارك في أعمالهم البحثيّة، إلّا أنّ المجلّات العلمية لا توافق على هذه الأعمال حتى الآن نظراً للجدل المحيط حول صحّة معلومات روبوت الدردشة، لأنّه لا يقدّم دائماً مصادرها.
وبالرغم من ذلك، أشار سمعان إلى أن نموذج اللغة الجديد تحسّن عن سابقه، وإذا قمنا بمقارنة بسيطة، فسنجد أن الإيجابيات التي يقدّمها تتفوّق على السلبيات، على حدّ قوله.
هل يمكن تعميم المعلومات المضلّلة عبر "شات جي بي تي"؟
يقول سمعان إنّ بعض المخترقين نجحوا بالفعل في استغلال اسم "شات جي بي تي" في ممارسات ضارّة أخرى، كالاستحواذ على بيانات المستخدمين بوساطة برمجيّات ضارّة عبر تطبيقات مزيّفة، تحمل اسم روبوت الدردشة، أو استعمال "شات جي بي تي" في التصيّد الرقمي عبر البريد الإلكتروني؛ فالروبوت يكتب بلغة متماسكة ومقنعة قد تزيل شكّ المتلقّي في أن البريد مزيّف.
أمّا في ما يتعلّق بنشر المعلومات الخاطئة، فقال إن "جي بي تي 4" يعتمد على المعلومات التي درّبته عليها شركة "أوبن إي آي" فقط. وذكر أن هذه البيانات - بحسب الشركة - غير متّصلة بالإنترنت، ومن غير المرجّح أن تقوم بنشر المعلومات الجديدة التي يكتبها له المستخدمون في المحادثات.
وذكر سمعان أن روبوت الدردشة يعتمد على المعلومات الجديدة التي يكتبها المستخدم في سياق المحادثة الواحدة فقط، فيمكن مثلاً تدريبه على لغة برمجة جديدة لحلّ مشكلة معيّنة يعاني منها المستخدم، إلّا أنّه لن يقوم بحفظها ونشرها مع الآخرين، بل سيبقي ذلك محصوراً فقط بالبيانات التي أتاحتها "أوبن إي آي".
إذن، مع تطوّر تقنيات "شات جي بي تي"، أصبح من الصعب التمييز بين الإجابات الخاطئة من الصحيحة، فهو يقدّم إجابات بلغة "بشريّة" قد تكون مدعومة بدلائل وأمثلة يميل الناس إلى الوثوق بها، وإلى عدم البحث والتحقّق من مصادر أخرى. هذه المخاوف جاءت أيضاً من داخل شركة "أوبن إي آي"، إذ كان الرئيس التنفيذي لـ"أوبن إي آي" سام ألتمان قد أبدى تخوّفه من إمكانيات إنشاء الحكومات والمنافسين نماذج تنشر المعلومات المضلّلة لدعم مصالحها.
إلى ذلك، يؤكّد سمعان على ضرورة تحقّق المستخدمين من المعلومات التي تنتجها أدوات الذكاء الاصطناعي، والنظر إليها كوسيلة لتسهيل العمل لا إنجازه بالكامل، خوفاً من احتمال غياب الشفافية وإمكانية حدوث الأخطاء والتحيّز للجهات التي تزوّدها بالمعلومات.
وشدّد على أن التحقق من المعلومات التي نتلقّاها هو من واجباتنا كباحثين ومستخدمين، خاصة قبل استخدامها في البحوث العلمية أو نشرها في أيّ مكان آخر.