يبدو أن منصة "سلاك" تستخدم رسائل مستخدميها وملفاتهم والمحتويات الأخرى لتدريب نماذج التعلم الآلي من دون إذونات صريحة. وقد اكتشف كوري كوين، أحد المسؤولين التنفيذيين في "DuckBill Group"، هذه الثغرة في سياسة الخصوصية التي تتبناها المنصة، ونشرَها عبر "إكس".
وتنصّ السياسة على ما يأتي: "من أجل تطوير نماذج الذكاء الاصطناعي وتعلّم الآلة، تُحلّل أنظمتنا بيانات العميل، مثل الرسائل والمحتوى والملفات، المقدّمة إلى سلاك، بالإضافة إلى المعلومات الأخرى، ويشمل ذلك معلومات الاستخدام، وفق ما هو محدّد في سياسة الخصوصية وفي اتفاقية العميل".
ووفقًا لسياسة الخصوصية، فإنه "من أجل إلغاء الاشتراك يجب مطالبة مالكي مؤسّستك أو مساحة العمل أو المالك الأساسي بالاتصال بفريق تجربة عملاء سلاك باستخدام عنوان مساحة العمل أو المؤسسة، ونعالج طلبك ونردّ بمجرّد اكتمال عمليّة إلغاء الاشتراك".
وردّت الشركة على تغريدة كوين بالقول: "لدى سلاك نماذج للتعلّم الآليّ على مستوى المنصة لأشياء، مثل توصيات القنوات والرموز التعبيرية ونتائج البحث. يمكن للعملاء استبعاد بياناتهم من المساعدة في تدريب نماذج تعلم الآلة".
وتقول صفحة تسويق أدوات الذكاء الاصطناعي التوليدي: "لا نستخدم بياناتك لتدريب نماذج الذكاء الاصطناعي. كل شيء يعمل عبر البنية التحتية الآمنة للمنصّة، ويلبّي معايير الامتثال نفسها التي تطبقها سلاك". في هذه الحالة، تتحدّث الشركة عن أدوات الذكاء الاصطناعي التوليدي المتميّزة المنفصلة عن نماذج التعلّم الآلي التي تدرّبها على البيانات من دون إذن صريح.
ومن غير الواضح منذ متى عدّلت الشركة المملوكة لشركة "سيلز فورس" سياسة الخصوصية.