النهار

توم هانكس يحذّر من إعلان يستخدم صورته وصوته بواسطة الذكاء الاصطناعي
المصدر: "أ ف ب"
توم هانكس يحذّر من إعلان يستخدم صورته وصوته بواسطة الذكاء الاصطناعي
الممثل الأميركي توم هانكس.
A+   A-
نبّه الممثل الأميركي توم هانكس والمذيعة التلفزيونية غايل كينغ معجبيهما إلى تداول إعلانين ترويجيين يستخدمان شكليهما وصوتيهما بفضل تقنيات الذكاء الاصطناعي من دون استئذانهما.

وكتب هانكس السبت عبر صفحته على شبكة "إنستغرام": "حذارِ! ثمة مقطع فيديو مُتداوَل للترويج لتأمين على الأسنان، باستخدام نسخة ذكاء اصطناعي مني. لا علاقة لي بالأمر". وأورد هانكس منشوره على لقطة شاشة لمقطع الفيديو المشكوّ منه.

أما غايل كينغ التي تشارك في تقديم البرنامج الصباحي على قناة "سي بي إس" الأميركية، فنشرت تحذيراً مماثلاً الاثنين على "إنستغرام" أيضاً.

وكتبت في تعليق على مقطع فيديو تبدو فيه وكأنها تروّج لمنتج لإنقاص الوزن: "لا يتوقف الناس عن إرسال هذا الفيديو لي ويطرحون عليّ أسئلة عن هذا المنتج، رغم أنّ لا علاقة لي إطلاقاً بهذه الشركة".

ونشرت كينغ أيضاً مقطع الفيديو الأصلي الذي استند إليه المحتالون، وكانت تروّج فيه لبرنامج إذاعي في 31 آب الفائت.

وأضافت: "لقد تلاعبوا بصوتي والفيديو ليجعلوا الأمر يبدو وكأنني أروّج لهذا المنتج، لم أسمع قط عن هذا المنتج ولم أستخدمه يوماً!"، وختمت: "لا تقعوا في فخ مقاطع الفيديو هذه القائمة على الذكاء الاصطناعي".

وتولّى نشر مقطع الفيديو الذي أشارت إليه غايل مستخدم يحمل اسم Artipet ("أرتيبت")، لكنّ عمليات بحث على "إنستغرام" و"غوغل" لا تسفر عن أي نتائج تشير إلى منتجات الحمية هذه.

وبات الذكاء الاصطناعي يتيح منذ سنوات اللجوء إلى "التزييف العميق"، أي التلاعب بصور وأصوات، لجعل اصحابها يقولون أو يفعلون أشياء لم تحدث في الواقع.

ولم تكن هذه التزييفات العميقة في بداياتها مقنعة، ولكنها أصبحت تتسم بواقعية شديدة مع ظهور الذكاء الاصطناعي التوليدي الذي يتيح إنتاج المحتويات بكل أنواعها ، ومنها الفيديو، بناءً على طلب بسيط باللغة اليومية.
الكلمات الدالة

اقرأ في النهار Premium