إحياء الموتى وتزييف الحقائق: ما هي تقنية التزييف العميق Deepfake ؟
كيف سيكون مستقبل العالم مع انتشار تقنيات الفبركة مثل التزييف العميق (Deepfake) وكيف تعمل هذه التقنية ؟
قبل عام من الآن تم نشر فيديو مفبرك لنانسي بيلوسي وهي سياسية أمريكية تشغل حاليًا منصب رئيسة مجلس النواب يبين أنها تحت تأثير الكحول أثناء إلقاءها لأحد خطاباتها، وتم مشاهدة الفيديو من قبل ملايين الأشخاص على مختلف مواقع التواصل الاجتماعي قبل أن يتبين أن الفيديو مفبرك وتم تبطيئه بنسبة 75%، لاحقًا، تم حذف الفيديو من قبل مختلف منصات التواصل الاجتماعي.
تعديلات بسيطة كهذه تغير في الرأي العام وقد تؤثر على انتخابات ومصير دولة ما، ولكن ظهرت تقنية جديدة قد تغير معطيات اللعبة، لا أتكلم عن تعديل بسيط لصورة أو فيديو، بل إنشاء محتوى جديد كليًا وجعل شخص يقول شيئا لم يقله أو يفعل فعلًا لم يفعله بدقة عالية جدًا، تسمى هذه التقنية بالتزييف العميق (Deep Fake).
ما هي تقنية التزييف العميق، ومتى بدأت؟
هي تقنية تقوم بفبركة الفيديوهات بدقة عالية جدًا، تعتمد على الذكاء الاصطناعي وتحتاج إلى موارد وخبرات عالية لصناعتها مع ظهور بعض التطبيقات المتاحة لعامة المستخدمين ذات الجودة المنخفضة.
يعود مصطلح التزييف العميق إلى أحد مستخدمي موقع Reddit حيث نشر عدد من الفيديوهات الإباحية عام 2017 بتبديل وجوه الممثلات الإباحيات بوجوه مشاهير، تم إغلاق الحساب من قبل الموقع ولكن المصطلح والتقنية انتشرت بين مستخدمين الإنترنت بعدها.
علميًا، التقنية تعود إلى بحث نشر لجامعة كورنيل عام 2014 بإشراف الدكتور Ian Goodfellow مبتكر إطار يدعى بالشبكة التخاصمية المولدة (GAN) وسميت بالتخاصمية لأنها مكونة من شبكتين تعمل واحدة ضد الأخرى، ووصفها Yann LeCun الحائز على جائزة تورنغ بأنها أدهش فكرة خلال الـ20 عامًا الأخيرة. علاوة على عدة أبحاث أخرى طورت ووسعت من تقنيات التزييف العميق مثل مشروع Synthesizing Obama الذي يمكن معرفة حركة الفم من خلال الصوت فقط عن طريق الذكاء الاصطناعي.
كيف تعمل تقنية التزييف العميق؟
كما ذكرنا سابقًا، تعمل تقنية التزييف العميق تحت إطار عمل يسمى بالشبكة التخاصمية المولدة (GAN) وهو إطار يجمع بين شبكتين للذكاء الاصطناعي تعمل واحدة ضد الأخرى. الشبكة الأولى تسمى بالمولد والتي تقوم بتكوين الصورة مشابه للصورة الأصلية والشبكة الثانية تسمى بالمميز والتي تقوم بمقارنة الصورة المولدة ومقارنتها بالصورة الأصلية.
بعد أن يتم توليد الصورة في شبكة المولد يتم إرسالها إلى شبكة المميز التي تقوم بمقارنة الصورة المولدة بالصورة الأصلية واِتخاذ القرار بقبولها أم لا، فإذا لم تكتشف شبكة المميز أي فارق فسوف تقبل الصورة، وإذا حدث العكس سوف تعيد الصورة إلى شبكة المولد ليقوم بعمله من جديد. ومن خلال هذه العملية تتدرب الشبكتين على صناعة محتوى مفبرك بدقة أكبر وأكبر.
ما هي خطوات صناعة فيديو من خلال تقنية التزييف العميق؟
الخطوة الأولىمن صناعة الفيديو المفبرك هي أن نأتي بفيديو مُسجل مسبقا يظهر به الشخص ونقسمه إلى آلاف الصور (كل ثانية تتكون من 30 إلى 60 صورة)، ثم نقوم بتدريب الذكاء الاصطناعي على الصور.
الخطوة الثانية، نأتي بممثل يمكنه محاكاة تعابير وجه الشخص إلى حد ما، ونقوم بتصويره لإنشاء الفيديو المفبرك. حيث يقوم الممثل بالفعل أو القول المطلوب.
الخطوة الثالثة،تبقى الصوت، المشكلة إن تقنيات التزييف العميق للصوت متواجدة فقط على الورق ولا توجد تطبيقات متاحة للعامة، ولكن هناك شركات مثل Resemble AI تقوم بالمطلوب بجودة مقبولة إلى حد ما. بعد إنهاء الخطوات السابقة نقوم بعملية دمجها من خلال تقنية التزييف العميق بالإضافة إلى برامج تعديل الفيديو لإضافة بعض اللمسات مثل معالجة الألوان وتعديل الإضاءة وتصحيح الأخطاء. هذه العملية ليتم إنجازها بدقة عالية تحتاج إلى أسابيع من المعالجة الحاسوبية وخبراء تقنيين.
هل سينجوا المذنبين بفعلتهم؟
عندما يمكن تزييف أي شيء، يمكن للمذنب أن ينجوا بفعلته من خلال تكذيب الحقيقة لأن الدليل قد يكون مزيفًا، ومع تطور التقنية، التفريق بين الحقيقة والفبركة عملية مستحيلة. قبل الإنتخابات الأمريكية في عام 2016 ظهر فيديو للرئيس الأمريكي السابق دونالد ترامب يتكلم بكلام جنسي بذيء، بعدها اِعتذر دونالد ترامب عن فعلته، ولكن لاحقا، قال: “لست متأكدًا أني قلت هذا”، بمعنى أن ليس لديكم دليل على أن الفيديو غير مفبرك.
التقنية مستقبلًا سوف تدخل في مجال صناعة المحتوى بكل قوة، قبل أشهر بثت قناة MBN الكورية برنامجًا إخباريًا يستعمل تقنية التزييف العميق بدلًا من مذيعة بشرية. بالطبع مع انتشار المحتوى المزيف يجب أن تظهر بعض التقنيات التي تحارب المحتوى المزيف، أعلنت شركة Sensity المتخصصة بالذكاء الاصطناعي إتاحة أداة لكشف المحتوى المصنوع من خلال تقنية التزييف العميق للعامة وبشكل مجاني، كخطوة لمحاربة الأخبار الكاذبة.
Trump _ Deepfakes Replacement
ولكن بالطبع هناك بعض المحتوى لن يُكشف من خلال أي أداة أو سوف يصل إلى غايته قبل أن يُكشف، وهناك مشاكل أخرى، مثل تناقض نتائج أداتين كشف حول صورة أو فيديو معين، فمن نصدق حينها؟
في الوقت الحالي، الحل الأفضل هو نشر التوعية بين المستخدمين حول تقنيات التزييف وخطورتها ويجب علينا عدم تصديق أي خبر يقع بين أيدينا.