النهار

"ميتا" قد تستخدم بياناتك لتدريب الذكاء الاصطناعي... كيف تمنعها؟
المصدر: النهار
"ميتا" قد تستخدم بياناتك لتدريب الذكاء الاصطناعي... كيف تمنعها؟
النهار - تصميم ديما قصاص
A+   A-
تترافق طفرة الذكاء الاصطناعي مع مخاوف متنوّعة، لعلّ أبرزها تلك المتعلّقة بالخصوصيّة والبيانات الشخصيّة الموجودة على شبكة الإنترنت بشكل عام، وعلى مواقع التواصل الاجتماعي بشكل خاص.

وفي هذا الإطار، قامت شركة "ميتا" بتحديث قسم في مركز مساعدة "فايسبوك" على موقعها على الويب هذا الأسبوع ليشمل نموذجًا بعنوان "حقوق بيانات الذكاء الاصطناعي التوليدي"، يسمح للمستخدمين "بإرسال طلبات تتعلّق بمعلومات الطرف الثالث الخاصّة بك المستخدمة في التدريب على نماذج الذكاء الاصطناعي التوليدي".

إلى ذلك، منحت "ميتا" المستخدمين خيار الوصول إلى، أو تغيير، أو حذف أيّ بيانات شخصيّة تمّ تضمينها في مصادر بيانات الطرف الثالث المختلفة، التي تستخدمها الشركة لتدريب نماذج لغتها الموسّعة ونماذج الذكاء الاصطناعيّ ذات الصّلة.

وتعرّف "ميتا" معلومات الطرف الثالث على أنّها بيانات "متاحة للجمهور على الإنترنت أو المصادر المرخّصة". وتقول الشركة إنّ هذا النوع من المعلومات يمكن أن يمثّل بعضًا من "مليارات القطع من البيانات" المستخدمة لتدريب نماذج الذكاء الاصطناعيّ التوليديّ التي "تستخدم التنبّؤات والأنماط لإنشاء محتوى جديد".

وأكدت "ميتا" في مدونة حول كيفية استخدام البيانات للذكاء الاصطناعي التوليدي أنها تجمع المعلومات العامة على الويب، بالإضافة إلى بيانات الترخيص من مقدّمي الخدمات الآخرين، مُضيفة أنّ منشورات المدوّنة - على سبيل المثال - يُمكن أن تتضمّن معلومات شخصيّة، مثل اسم شخص ما ومعلومات الاتصال به.

لكن النموذج لا يأخذ في الاعتبار نشاط المستخدم على المنصّات المملوكة لـ"ميتا"، سواء أكانت تعليقات "فايسبوك" أو صور "إنستغرام"؛ ولذلك من الممكن أن تستخدم الشركة بيانات الطرف الأول هذه لتدريب نماذج الذكاء الاصطناعيّ التوليديّ الخاصّة بها.

وللوصول إلى المعلومات المستخدمة في تدريب الذكاء الاصطناعي وحذفها، على المستخدم أن يدخل إلى نموذج "حقوق بيانات الذكاء الاصطناعي التوليدي" في صفحة سياسة خصوصية Meta حول الذكاء الاصطناعي التوليدي"، ثم ينتقل إلى "معرفة المزيد وإرسال الطلبات هنا"، ثمّ اختيار واحدٍ من الخيارات الثلاثة المتاحة.

وفيما يمكن للمستخدمين تعديل أو حذف أيّ من معلوماتهم، فإنّ إكمال النموذج يتطلّب اجتياز فحص الأمان، الأمر الذي قال بعض المستخدمين إنّهم غير قادرين على إتمامه بسبب ما يبدو أنه خطأ برمجيّ.
الكلمات الدالة

اقرأ في النهار Premium