الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري
الإشراف العام
إلهام أبو الفتح
رئيس التحرير
أحمــد صبـري

مش أي فيديو تصدقه.. الذكاء الاصطناعي يورط المشاهير بفيديوهات مفبركة صوت وصورة

صورة إرشيفية
صورة إرشيفية

أذهلت قدرات الذكاء الاصطناعي العالم أجمع، مع تدخلها في شتي المجالات تقريبا، ولكن مع انتشارها الواسع أثارت التقنية المتطورة مخاوف الكثيرين حول المخاطر التي قد تتسبب بها هذه البرامج، وهو ما حدث بالفعل.

ولسوء الحظ، إساء الكثيرين استخدام تقنيات الذكاء الاصطناعي لمصالحهم الخاصة، دون دراية أن ما فعلوه يمكن أن يكون له تأثيرات سلبية على الآخرين، ففي الآوانة الأخيرة استخدام الذكاء الاصطناعي في الغش، الاحتيال، التجسس، أو لإيجاد طرق للتلاعب بالمعلومات والبيانات وحتي الأصوات.

 

 

إعلانات مزيفة بالذكاء الاصطناعي صوت وصورة

أدى إنشاء إعلانات مزيفة باستخدام الذكاء الاصطناعي، إلى تشوية صورة مشاهير معروفين أمام محبيهم وخلق مشاكل أخلاقية وقانونية خطيرة، ومن بين أحدث ضحايا التزييف العميق الفنان أحمد حلمي واللاعب الدولي محمد صلاح وآخرين.

صورة محمد صلاح المفبركة على منصة 1XBET للمراهنات

وقد قامت منصة 1XBET للمراهنات، مؤخرا، بفبركة فيديوهات باستخدام تقنية الذكاء الاصطناعي للترويج لألعاب المقامرة الخاصة بها، مستغلة شهرة “أحمد حلمي” ونجومية “محمد صلاح”، لإثارة انتباه الناس وتحقيق مشاهدات عالية، وخداع المزيد من الضحايا بأن هؤلاء النجوم من رواد منصتها. 

صورة من فيديو أحمد حلمي المفبركة على منصة 1XBET للمراهنات

ولم يصل الأمر فقط إلى تعديل أو إنشاء مقاطع مصورة فقط، بل استخدمت تقنيات الذكاء الاصطناعي لسرقة أصوات المشاهير وجعلها مطابقة لأصواتهم الحقيقة واستخدامها دون موافقتهم في أعمال أخري بهدف الاحتيال أو تشويه صورتهم، فيما يسمى التزوير العميق للصوت.

وتعد تلك البرامج أحد سبل النصب والاحتيال وانتحال الشخصية، حيث تطورت أدوات صناعة الفيديوهات المفبركة بشكل خطير لدرجة تهدد خصوصية الآخرين، لذلك تتصاعد مخاوف بشأن انتشار محتوى التزييف العميق واستخدامه في جرائم الاحتيال والنصب، وتعريض المشاهير والشخصيات البارزة إلى مواقف محرجة وخسائر هائلة.

ويمكن لتلك البرامج المدعومة بالذكاء الاصطناعي، إنشاء مقاطع فيديو مفبركة أكثر دقة من صورة واحدة فقط، وإضافة الإيمات وحركة الشفاه لتكون متزامنة مع محتوي الصوت الخاص بالفيديو المزيف، إلى جانب برامج تحاكي الأصوات البشرية تعمل بالذكاء الاصطناعي تستخدم لإجراء عملية احتيال صوتية.

ومن بين أشهر الوقائع التي شهدت احتيالا بصوت إحدي الشخصيات البارزة والمشاهير، الواقعة الخاصة بالرئيس الأمريكي الأسبق، باراك أوباما، الذي ظهر في مقطع فيديو مدته دقيقة يستخدم ألفاظا نابية بحق نظيره “دونالد ترامب”، وكما ظهر الممثل الأمريكي “توم هانكس”، أيضا في فيديو دعائي مفبرك للترويج إلى أحد المنتجات.

وبالنسبة لأولئك الذين لا يعرفون، فإن “التزييف العميق” عبارة عن صور أو مقاطع فيديو مزيفة تم إنشاؤها باستخدام الذكاء الاصطناعي، تنطوي على استبدال شخص ما في صورة أو مقطع فيديو موجود بوجه شخص آخر أويقول شيئا مغاير للحقيقة.

وأثار إساءة استخدام تكنولوجيا التزييف العميق، غضب الكثير من المشاهير حول العالم على الرغم من بعض النجوم يستفيدون من هذه التكنولوجيا في أعمالهم، إلا أنهم يكافحون بكل جهد إساءة استخدامها خاصة إذا تم ذلك بدون أذن أو اتفاق في إعلانات مخصصة مدعومة بالذكاء الاصطناعي، أو استخدمت بشكل غير أخلاقي يسئ إلى صورتهم في المجتمع، كما حدث مع بعض نجوم السينما في الهند وأمريكا.

ويشار إلى أن استخدام التزييف العميق دون موافقة شخص ما، فإن ذلك يعد انتهاكا لخصوصيته ويمكن أن يكون له عواقب وخيمة، حيث أن إساءة استخدام الذكاء الاصطناعي قد تؤثر سلبا على أعمال أحد النجوم وحرمانه من الأرباح الخاصة بالعمل الذي يتم الترويج له.

وبالفعل، يمكن للذكاء الاصطناعي بالفعل أن يشوه السمعة ويضر بها، مما يسلط الضوء على الحاجة إلى لوائح خاضعة للمراقبة لحماية الشخصيات العامة من هجمات الذكاء الاصطناعي التي تضر بالصورة خاصة بالنسبة للشخصيات العامة.

ومع ذلك، فإن هذه الجرائم تتجاوز المشاهير، حيث يمكن لأي شخص بغض النظر عن ملفه الشخصي العام، أن يقع فريسة لإبداعات التزييف العميق الخبيثة، مما يجعله أمر مقلق بشكل خاص من وجهة نظر المرأة خاصة عند استخدامها لمنصات السوشيال ميديا، لذلك يحتاج مستخدمو الإنترنت إلى ضمانات قانونية لمعالجة هذه التهديدات، والتأكد من أن الناس يستخدمونها بشكل مسؤول.