الإفتاء: لا يجوز شرعا استخدام تقنية "Deep Fake".. ومعلومات لا تعرفها عن الخاصية المثيرة للجدل

كتب: ضياء السقا

أعلنت دار الإفتاء المصرية، أنه لا يجوز شرعًا استخدام تقنية (Deep Fake التزييف العميق) لتَلْفِيق مقاطع مَرْئية أو مسموعة للأشخاص، باستخدام الذكاء الاصطناعي، لإظهارهم يفعلون أو يقولون شيئًا لم يفعلوه ولم يقولوه في الحقيقة؛ لأنَّ في ذلك كَذِبًا وغِشًّا وإخبارًا بخلاف الواقع، وفي الحديث: «مَنْ غَشَّنَا فَلَيْسَ مِنَّا» (رواه مسلم)، وهو نَصٌّ قاطعٌ صريحٌ في تحريم الغِشِّ بكل صوره وأشكاله.

وأضافت الإفتاء في بيان، أن اختلاق هذه المقاطع بهذه التقنية فيه قَصْدُ الإضرار بالغير، وهو أمر منهيّ عنه في حديث النبي صلى الله عليه وآله وسلم: «لَا ضَرَرَ وَلَا ضِرَارَ»، إضافة لما فيها من الترويع والتهديد لحياة الناس، والشريعة الإسلامية جعلت حفظ الحياة من مقاصدها العظيمة وضرورياتها المهمة؛ حتى بالغت في النهي عن ترويع الغير ولو بما صورته المُزْاح والترفيه.

وأشارت دار الإفتاء إلى أن اختلاق المقاطع أيضًا جريمة قانونية يُعاقَب عليها وَفْق القانون رقم (175) لسنة 2018، الخاص بـ«مكافحة جرائم تقنية المعلومات»؛ فقد جَرَّم المُشَرِّع المصري في هذا القانون نشر المعلومات المُضَلِّلة والمُنَحرِّفة، وأَوْدَع فيه مواد تتعلق بالشق الجنائي للمحتوى المعلوماتي غير المشروع.

ما هي تقنية الديب فيك Deepfake؟

الديب فيك هو تقنية من تقنيات الذكاء الاصطناعي، والتي تستخدم لإنتاج فيديو أو التعديل على محتواه بشكل كامل ليستعرض شيئًا لم يكن موجودًا فيه بالأصل.

تسمية هذه التقنية تعود إلى حساب في موقع التواصل الاجتماعي ريديت Reddit وكان الحساب يحمل اسم deepfakes، واستخدام تقنيات الذكاء الاصطناعية للتعلم العميق من أجل العبث بوجوه النجوم والمشاهير وإدخال وجوههم في فيديوهات لا علاقة لهم فيها، ولذلك، فإنّ التسمية جاءت لتجمع بين تقنيات التعلم العميق والتزييف.

ومن الجدير بالذكر أن هذه التقنية تعتبر من الأساليب السهلة والبسيطة للتعديل على الفيديوهات أو تركيبها بالكامل، مما يجعلها خطيرة وتفتح باب لإساءة سمعة الأخرين أو الترويج لأجندة معينة.

آلية عمل الديب فيك Deepfake

يتم إنشاء فيديو الديب فيك باستخدام نظامين من أنظمة الذكاء الاصطناعي؛ هما المولد والمميز، فعندما يقوم نظام المولد بإنشاء فيديو جديد يتم إرساله لنظام المُميّز ليحدّد ما إذا كان هذا الفيديو حقيقيًا أو مزيفًا، وإذا تأكد أنه حقيقي سيقوم المولد بتعلم إنشاء فيديو قابل للتصديق أكثر وهكذا.

يشكل هذان النظامان معًا ما يمكن تسميته شبكة الخصومة التوليفية أو GNN وتحتاج هذه التقنية إلى إمدادها بمخزون من الفيديوهات لتتعلم كيفية التعديل عليها وتحديد المنطقي من المزيف، حيث في البداية سيكون طرف المولد من التقنية ضعيف ويحتاج إلى التدريب المستمر وعندما يصل إلى درجة مقبولة من الجودة يبدأ بإرسال فيديوهاته إلى المُميّز، وكلما زاد ذكاء المولد يزداد ذكاء المُميّز، وبهذه الطريقة سوف نصل في النهاية إلى فيديو معدل بشكل كامل وقابل للتصديق للعين البشرية.

هل تمثل هذه التقنية خطرًا كبيرًا؟

في بداية ظهور تقنية الديب فيك كانت تُستخدم لأغراض ترفيهية سواء للتسلية أو السخرية من النجوم أو شيء من هذا القبيل، ووقتها كان من السهل للغاية معرفة الفيديو الحقيقي من المزيف، لأن طبيعة الفيديو ببساطة لا يمكن أن تكون صحيحة.

إلا أن ازياد شعبية هذه التقنية أدى إلى وصولها إلى عدد أكبر من الناس، وهو ما جعلها للأسف موضع للتسائل إذا كنا بحاجة إليها بالفعل أم يجب وضع حد لها.

فقد انتشرت في الهند خلال العام الماضي حالات كثيرة من إساءة السمعة واتهام النساء في مجال الصحافة بمشاهد غير أخلاقية تم تركيبها لازعاجهن وإنهاض أجندة فاسدة ضدهن.

ومثل هذه الحالات تزداد يومًا بعد يوم نظرًا إلى سهولة استخدام الديب فيك، وبات هنالك الكثير من المحاولات لنشر أخبار كاذبة “موثوقة” بفيديوهات، وارتفع معدل الإهانات والازعاجات عبر الإنترنت بشكل ملحوظ.

وفي الحقيقة، فإنّ الضرر من الديب فيك انتشر بشكل كبير لدرجة أن ولاية Virginia الأمريكية قررت وضع قوانين لجعل المحتوى الإباحي الملفق غير قانوني ولا يسمح بمشاهدته أو نشره.

والمخاوف الحالية هي أن نصل إلى مرحلة من التطور لن نتمكن فيها أن ندرك أبدًا أننا نرى فيديو مزيف تم إنشاؤه بهذه التقنية.

تعليقات القراء