هل سبقَ لك وشاهدتَ الفيديو الذي يظهر فيه الممثّلُ السينمائيُّ الشهيرُ مورغان فريمان، وهو يقول: "أنا لست مورغان فريمان؛ لستُ بشريًّا على الإطلاق"؟ في جميعِ الأحوالِ عُدَّ هذا الترويجُ التحذيريُّ الأكثرَ بروزًا وأهميّةً في مواجهة تقنيّات التزييف العميق؛ لأنّه يحذّرُ الجميعَ من وحشٍ غامض، يملكُ أدواتٍ تكنولوجيّة، ليست باهظةَ الثمن، يستطيعُ أن يجعلك في بثٍّ حيٍّ ومباشر، تقول ما لم تقله، وتفعل ما تفعله، وأنت تشاهد أيضًا مع الملايين، مضّجعًا في صالون بيتك، تشاهدُ نفسَك وتصرخ: هذا ليس أنا! ولكن لا أحد سيسمعك.
في الماضي شكّلت تقنيّاتُ التزييف البسيط، صدمةً اجتماعيّةً وسياسيّةً حتى قبل ظهور الذكاء الاصطناعيّ، وكان أبطالُها برامجَ رسوميّةً، مثل: "الفوتوشوب" ورغمَ حرفيّتها وإتقانها إلّا أنّها عُدّت محاولاتٍ تشويشيّةً تافهةً؛ بسببِ سهولةِ اكتشافها، رغمَ أنّها أدّت إلى مآسٍ إنسانيّةٍ في ظروفٍ ومجتمعاتٍ معيّنة، لكن مع ظهور تقنيّات الذكاء الاصطناعي، وكونها أصبحت رخيصةً وسهلةَ الوصول؛ فإنّ كلَّ شيءٍ قد تغيّر.
يترجم مصطلح "مصطلح deepfake "إلى العربيّة على أنّه "تزييفٌ عميق" وهو عمليّةٌ رقميّة، يتمُّ من خلالها، وعن طريق تطبيقٍ تكنولوجيٍّ يعتمد على الذكاء الاصطناعي، معالجةُ محتوى الصور، والفيديو، والصوت، وإحداث تغييراتٍ فيها، حيث يصنع محتوى قابلًا للتصديق؛ يصعب بشكلٍ كبيرٍ اكتشافُ أنّه مزور. وقد بدأت هذهِ العمليّات بالانتشار، مع انتشار التطبيقات المعنية، ورخص ثمنها وسهولة استخدامها نسبيًّا حتى من قبل بعض المستخدمين العاديّين، بل أحيانًا وفي بعض الحالات أصبح هذا الأمرُ متاحًا لأيّ شخصٍ لديه إمكانيّةُ الوصول إلى الإنترنت عن طريق تطبيقاتٍ مفعّلةٍ مباشرةٍ على الشبكة، ولا تحتاج حتى إلى التحميل على الجهاز الخاص.
جاء التزييفُ العميقُ نتاجًا فرعيًّا للتعلّم العميق، الذي تعود جذورُهُ إلى أقلَّ من عقدٍ من الزمان؛ والتعلّمُ العميقُ هو حقلٌ فرعيٌّ من التعلّم الآليّ يستخدم الشبكات العصبيّة الاصطناعيّة، وهذهِ الشبكات العصبيّة عبارةٌ عن خوارزميّاتٍ تستلهم من طريقةِ عملِ الشبكةِ العصبيّة في الدماغ البشريّ. تتعلّمُ الشبكةُ العصبيّةُ عن طريقِ تصحيحِ العديد من الاتّصالات داخلها، وهي تقوم بإجراء تصحيحاتٍ صغيرةٍ عن طريق فحص الكثير من المعلومات من أجل تحسين دقّتها، وبفضل النجاحات الملحوظة؛ أصبحت الشبكاتُ العصبيّةُ على مرّ السنين أكثرَ أساليبِ التعلّم الآليّ شيوعًا، وهي مسؤولةٌ عن مجموعةٍ متنوّعةٍ من الإنجازات في الذكاء الاصطناعيّ وما حوله: التعرّف على الوجوه، والتعرّف على الأشياء في الصور، والنسخ والترجمة، والمركبة المستقلّة الحركة والتحكّم بالطائرة المسيّرة والمزيد.
هناك طرقٌ عدّةٌ لإنشاء تزييفٍ عميق، وأكثرها شيوعًا في مجال الفيديو، وتعتمد على استخدام الشبكات العصبيّة العميقة التي تتضمّن خوارزميّاتٍ تستخدم تقنيةَ تبديلِ وجهِ شخصٍ واحد.
عادةً ما تعملُ التطبيقاتُ المعنيّةُ وما شابه ذلك بطريقةٍ مماثلة، وهي تستندُ إلى عددٍ من الصور أو مقاطع الفيديو للشخص "أ" - الشخص الذي نريد أن يظهر في الفيديو - ومن هذه المعلومات تكتسب الخوارزميّة، وتتعرّف على شكل الشخص "أ" ونطقه وشكل كلامه. بالإضافة إلى ذلك، هناك حاجةٌ إلى مقطع فيديو أساسي يقول فيه الشخص "ب" كلامًا معيّنًا أو يفعلُ شيئًا، ونريد منه أن يتصرّف كما لو كان الشخص "أ" يفعل أو يقول (على الرغم من أنّه لم يفعل أو يقول). تعرف الخوارزميّةُ كيفيّةَ تغييرِ وجهِ الشخص "ب" وصوته، حيث يبدو كما لو ظهر الشخص "أ" في الفيديو. ومكّن للتطبيق الحصول على أيّ صورةٍ للبديل، واستبدال وجهه بالوجه الآخر وربطها بالجسم بطريقةٍ تبدو موثوقة.
وهناك ثلاثُ طرقٍ رئيسيّة لإنشاءِ تزييفاتٍ عميقةٍ في مجال الفيديو والصوت؛ الأوّل: هو الإنتاجُ الذاتي المستند إلى التطبيقات والبرامج المدمجة المصمّمة للكمبيوتر، التي يوفّر معظمُها إمكاناتِ تبديلِ الوجه في مقاطع الفيديو الحاليّة، ويسمحُ أحدُها حتّى باستنساخ الصوت الاصطناعي. غالبًا ما يتطلّب الاستخدام الفعّال لهذه البرامج معرفةً برمجيّةً ومعالجَ رسوماتٍ قويًّا؛ ما يجعلُ الوصول إليها أقلَّ من قبل الهواة. على الرغم من ذلك، فقد تمَّ توزيعُ عددٍ من الكتيّبات التفصيليّة لاستخدامها في هذه التطبيقات الشائعة، وعلى مرِّ السنين تمَّ إجراءُ بعضِ تحديثاتِ البرامج الشائعة التي أدّت إلى تحسين الوصول للعديد من المستخدمين. ومع ذلك، ما تزالُ المعرفةُ والقدرةُ التشغيليّةُ للتطبيقات المتقدّمة نسبيًّا مطلوبة. والطريقةُ الثانيةُ هي شراءُ مقاطعِ الفيديو من خلال بوابّاتِ الإنترنت التي تقدّم الخدمة. والطريقةُ الثالثةُ هي طلب مثل هذه الخدمات من المنتجين الخاصين الذين يعلنون عن خدماتهم في مختلف المنتديات والأسواق عبرَ الإنترنت. ويتمُّ تسعيرُ الطرق الثلاث المدرجة في نطاقٍ يتراوح من ثلاثةٍ إلى نحو 30 دولارًا في المتوسّط لمقطع فيديو، لكن يمكن أن يكون لها أيضًا تكاليف أعلى. أيضًا، يُطلب من العميل توفيرُ كميّةٍ كبيرةٍ من الصور ومقاطع الفيديو للشخص الذي يطلبه للظهور في الفيديو وتدريجيًّا تصبح هذه الوسائلُ أرخصَّ وأسهل.
تسمح هذهِ التقنيةُ بمجموعةٍ واسعةٍ من الاستخدامات في مقاطع فيديو Deep-Pike، وبعضُها شائعٌ بالفعل اليوم. إلى جانب الاستخدامات السلبيّة لتكنولوجيا التزوير العميق، مثل: الموادّ الإباحيّة والابتزاز والاحتيال، يتمُّ أيضًا استخدامُ مجموعةٍ متنوّعةٍ من الاحتياجات الإيجابيّة، في مجموعةٍ متنوّعةٍ من مجالاتِ الحياة:
السينما والتلفزيون: في هذا المجال، تساعدُ التقنيّة على تحسينِ جودة الفيديو وجعل الأفلام أكثرَ احترافيّة، كما يسمحُ للممثّلين بالظهور في الإعلانات التجاريّة والأفلام حتى دون وجودهم.
الطبّ وعلم النفس: المرضى الذين فقدوا القدرة على الكلام بسبب أمراضٍ، مثل الحثل العضلي، سيتمكنون من استخدام جهازٍ يقرأ نصَّ صوتهم الذي سيتمُّ إدخاله في الخوارزميّة. هناك أيضًا علاجاتٌ نفسيّة، على سبيل المثال في مجال التعامل مع الفجيعة.
التعليمُ التاريخيّ والحفظ: إجراءُ مقابلاتٍ أو موادٍّ مرئيّةٍ مع شخصيّاتٍ تاريخيّة، بناءً على وثائقَ مكتوبةٍ أو مصوّرة؛ بغرض إتاحتها لعامة الناس.
ألعابُ الكمبيوتر: تحسين تجربة اللعبة، وموثوقيّتها من خلال إنشاء شخصيّاتٍ واقعيّة، مع تقليل الاستثمار أحيانًا في التصوير الفوتوغرافي طويل المدى أو تعيين لاعبين محترفين.
على الرغم من الإمكانات الإيجابيّة في هذا المجال، إلّا أنّه يجلبُ معه أيضًا ممارساتٍ خطيرةً ومزعجةً وإجراميّةً أحيانًا، تستندُ إلى نفس الإمكانات، بما في ذلك إنشاء مقاطع فيديو إباحيّةٍ مزيّفة، وإنشاء منتجاتٍ لأغراض الابتزاز والاحتيال، فضلًا عن التأثير على السياسة والتلاعب بالرأي العام والإضرار بالأمن القوميّ للدول. ويؤدّي deepfake إلى تفاقم تحدّيات عصر (ما بعد الحقيقة)، حيث من الممكن إنتاجُ عرضٍ خاطئٍ (وممارسات العلم الزائف أيضًا) من شأنه أن يضلّل صانعي القرار، ويؤثّر بالطبع على الرأي العام، وربّما يحفّز أيضًا على اتّخاذ إجراءاتٍ لصالح المزوّرين أو الموزّعين.
في عام 2019، تمَّ تصنيفُ استخدامِ قدرات Deep-Pike من قبل وكالات الاستخبارات الأمريكيّة على أنّه أكبرُ تهديدٍ استراتيجيٍّ للأمن القوميّ، وليس فقط أجهزة المخابرات، بل يشعرُ عامّةُ الناس بالقلق إزاءَ هذه الظاهرة. ففي استطلاعٍ للرأي العام أجري عام 2020 قال 66 في المائة ممن شملهم الاستطلاع: إنهم قلقون من أن "التكنولوجيا تجعل من المستحيل معرفة ما إذا كان ما يراه الناس ويسمعونه حقيقيًّا". ومن ثَمَّ، فإنّ استخدامَ قدراتِ deepfake يؤدي، من بين أمورٍ أخرى، إلى تقويض الحقيقة والشكّ في كلّ جزءٍ من المحتوى على أنّه زائف، حتّى لو كان صحيحًا، وهذا يفرضُ تحدّياتٍ حقيقيّةٍ على الحقيقة والديمقراطيّة. وفي السنوات الأخيرة، تمَّ توثيقُ عددٍ من حالاتٍ خطيرةٍ في هذا المجال، مثل: حالات احتيال مالي في المملكة المتحدة، وفي الإمارات العربيّة المتّحدة.
وفي مجال التأثير السياسي، فقد تمَّ توثيقُ مجموعةٍ متنوّعةٍ من القضايا في هذا المجال في كلٍّ من الولايات المتّحدة والكيان الصهيوني، وأماكن أخرى؛ لكنَّ الحالةَ الأكثرَ شهرةً هي محاولةُ الانقلاب التي نُفّذت ضدَّ الرئيس الغابوني عام 2018.
في خريف 2018، أفادت الأنباء أن الرئيس الغابوني علي بونغو أصيب بمرضٍ أثناءَ زيارةٍ للسعوديّة، واختفى من الحياة العامة، وأدّى نقصُ المعلومات والتقارير غير المتّسقة حولَ حالته إلى خلقِ طاحونةِ إشاعاتٍ حولَ حالته الصحيّة، وحتّى وفاة الرئيس. في ليلة رأس السنة الجديدة 2019، أصدرت الحكومةُ الغابونيّةُ مقطعَ فيديو يظهر فيه الرئيس، وهو يتحدّث إلى الأمّة، لأوّلِ مرّةٍ منذ ثلاثةِ أشهرٍ، ويظهرُ الفيديو تحرّكات الرئيس ميكانيكيّة ومجمّدة قليلًا. وورد لاحقًا في الأخبار أنّ الفيديو تمَّ تزويرُهُ باستخدام تقنيةDeep-Pike ، وأنّ الشائعاتِ حولَ وفاته ربّما كانت صحيحة. بعد نحو أسبوع، استغلّ خصومُ بونجو الموقفَ وقاموا بانقلابٍ عسكريٍّ فاشل.
وتسلّط هذهِ القضيّةُ الضوءَ على إمكانيّة تداعياتٍ تقنيّة Deep Pike على استقرار الأنظمة من خلال تقويض تصوّر الحقيقة. أظهرت القضيّة أنّه من الممكن إحداثُ تأثيرٍ ليس فقط من خلال استخدام التكنولوجيا، ولكن المعرفة بحدِّ ذاتها بأنّ التكنولوجيا موجودةٌ وممكنةٌ قد تؤدي إلى تقويض الثقة في المعروضات الحقيقيّة أيضًا.
حدثت حالةٌ أخرى في الكيان الصهيوني خلال انتخابات الكنيست الرابعة والعشرين، عندما تمَّ استخدامُ مقتطفٍ مزّيفٍ يظهر فيه يائير لابيد، زعيم حزب يش عتيد، وهو يقول أشياء لم يقلها في الواقع، التي يمكن أن تضرَّ بانتخابه لأنّه كان كذلك. تمَّ تصويرُهُ على أنّه متعاونٌ مع فصائلَ معيّنةٍ في المجتمع الصهيونيّ. ظهرت في الفيديو علامةٌ صغيرةٌ تشير إلى أن المقطعَ المعنيّ كان مزّيفًا، لكن لم يكن من السهل اكتشافُه. قدّم حزب يش عتيد التماسًا إلى لجنة الانتخابات المركزيّة ضدّ الفيديو، ولكن بعد الالتماس، وحتى قبل نشر الحكم، تمَّ إجراءُ تغييرٍ آخرَ في الفيديو من قبل منتجيه، وأضيفت شريحةٌ كبيرةٌ توضّح أنه تزويرٌ لتوضيح فكرة. في ضوء ذلك، حكمت لجنةُ الانتخابات؛ لأنّه لا يوجد انتهاكٌ في الفيديو بحكم القسم 13 من القانون، الذي يتحدّث عن خداعٍ متعمّدٍ للجمهور، ومن ثَمَّ لم يكن مطلوبًا إزالتُهُ من الإنترنت.
في الوقت الحاضر، يتطلّب إنشاءُ فيديو Deep-Pike موثوقٍ به، الذي سيجعلُ من الصعب اكتشافُه، وسائلَ الحوسبة المقّلدة باهظةَ الثمن، ولا تزال الشركاتُ المصنّعة ذات الخبرة مطلوبة. في بعض الأحيان، في حالات التأثير السياسي المحتمل، قد يكون هناك أصحابُ مصلحةٍ، مثل اللاعبين الرئيسيين في السوق، وحتى في الساحة الدوليّة، الذين سيكون لديهم الوسائلُ لإنتاج مثل هذه الفيديوهات، وهذا كلُّهُ ليس مستبعدًا في ضوء القفزات التكنولوجيّة التي تجعلُ التقنيّات رخيصةً وسهلةً. ولعلَّ أيَّ مستخدمٍ لبرنامج أدوبي فوتوشوب في إصداره الأخير، قد لمس فعليًّا ما الذي يمكن أن تفعله تكنولوجيا الذكاء الاصطناعي.

