فيديوهات التزييف العميق: اتجاه الإنترنت الجديد المخيف يهدد ديمقراطيتنا

تقنية

برجك ليوم غد

بالطبع إنها مقاطع فيديو مزيفة ، ويمكن للجميع أن يروا أنها ليست حقيقية. على الرغم من ذلك ، لقد قالوا هذه الأشياء حقًا ، أليس كذلك؟ '



هذه كلمات فيفيان روك ، السياسية الخيالية التي لعبت دور إيما طومسون في الدراما الرائعة على تلفزيون بي بي سي. سنوات وسنوات .



الحلقة المعنية ، التي تدور أحداثها في عام 2027 ، تتناول موضوع 'التزييف العميق' - مقاطع فيديو يتم فيها التلاعب رقميًا بوجه شخص حي وصوته ليقول أي شيء يريده المبرمج.



يلخص Rook مشكلة مقاطع الفيديو هذه تمامًا - حتى لو كنت تعلم أنها مزيفة ، فإنها تترك انطباعًا طويل الأمد.

إيما طومسون في دور فيفيان روك في سنوات وسنوات (الصورة: بي بي سي)

وولف مون المملكة المتحدة 2019

وكلماتها أكثر إقناعًا لأن التزييف العميق حقيقي وبيننا بالفعل.



في العام الماضي ، ظهرت العديد من مقاطع الفيديو الإباحية عن طريق التزييف العميق على الإنترنت ، ويبدو أنها تظهر مشاهير مثل إيما واتسون ، وجال غادوت ، و تايلور سويفت في مواقف صريحة.

كما تم استخدام تقنية التزييف العميق لتصوير شخصيات بارزة مثل دونالد ترامب وباراك أوباما ومارك زوكربيرج وهم يدلون بتصريحات مثيرة.



في فيديو Zuckerberg ، على سبيل المثال ، فإن ملف فيسبوك يدعي المؤسس أنه 'رجل واحد يتمتع بالسيطرة الكاملة على بيانات مليارات الأشخاص المسروقة ، وجميع أسرارهم ، وحياتهم ، ومستقبلهم.'

تحميل الفيديوالفيديو غير متوفرانقر للعب انقر للعب سيتم تشغيل الفيديو تلقائيًا قريبًا8يلغيالعب الان

في بعض الحالات ، لا يمكن تمييز التزييف العميق عن الشيء الحقيقي - وهو أمر مقلق بشكل خاص للسياسيين وغيرهم من الناس في نظر الجمهور.

يمكن بسهولة أن يسيء المشاهدون تفسير مقاطع الفيديو التي ربما تم إنشاؤها في البداية للضحك.

في وقت سابق من هذا العام ، على سبيل المثال ، ظهر مقطع فيديو معدَّل رقميًا يظهر نانسي بيلوسي ، رئيسة مجلس النواب الأمريكي ، وهي تتكلم في حالة سكر خلال خطاب.

تمت مشاركة مقطع الفيديو على نطاق واسع على Facebook و YouTube ، قبل أن يتم تغريدة من قبل الرئيس دونالد ترامب مع التعليق: 'PELOSI STAMMERS من خلال مؤتمر الأخبار'.

تم فضح فضح الفيديو ، ولكن ليس قبل ذلك تمت مشاهدته ملايين المرات. لم يحذف ترامب حتى الآن التغريدة ، التي أعيد تغريدها أكثر من 30 ألف مرة.

يتمثل النهج الحالي لشركات التواصل الاجتماعي في تصفية وتقليل توزيع مقاطع الفيديو المزيفة ، بدلاً من إزالتها تمامًا - ما لم تكن إباحية.

يمكن أن يؤدي ذلك إلى معاناة الضحايا من أضرار جسيمة لسمعتهم ، ناهيك عن الإذلال المستمر والسخرية من المشاهدين.

قالت عضوة الكونجرس الأمريكي إيفيت كلارك: 'التزييف العميق من أكثر الاتجاهات إثارة للقلق التي شهدتها كعضوة في الكونجرس حتى الآن المقال الأخير لكوارتز .

إذا كان من الممكن جعل الجمهور الأمريكي يصدق ويثق في مقاطع الفيديو المعدلة لمرشحي الرئاسة ، فإن ديمقراطيتنا في خطر شديد.

نحن بحاجة إلى العمل معًا لمنع التزييف العميق من أن يصبح السمة المميزة لانتخابات 2020.

تحميل الفيديوالفيديو غير متوفرانقر للعب انقر للعب سيتم تشغيل الفيديو تلقائيًا قريبًا8يلغيالعب الان

بالطبع ، ليست الديمقراطية فقط في خطر ، ولكن أيضًا الاقتصاد والنظام القانوني وحتى الأفراد أنفسهم.

داني يقطع الموت 2018

يحذر كلارك من أنه إذا استمرت تقنية deepfake في التطور دون فحص ، فقد تفقد أدلة الفيديو مصداقيتها أثناء التجارب.

ليس من الصعب تخيل أنه يتم استخدامه من قبل عشاق سابقين وموظفين وأشخاص عشوائيين ساخطين على الإنترنت للانتقام وإفساد سمعة الناس.

برنامج إنشاء مقاطع الفيديو هذه متاح بالفعل على نطاق واسع.

تمكّن برامج مثل FakeApp المستخدمين من وضع وجه أي شخص فوق جسم أي شخص آخر.

وفي الوقت نفسه ، عرضت شركة Samsung العملاقة للتكنولوجيا مؤخرًا خوارزمية يمكنها إنشاء مقاطع فيديو مزيفة لأشخاص بناءً على صورة واحدة لوجههم.

اختبرت الشركة خوارزميتها على صور ثابتة لوجوه معروفة ، بما في ذلك مارلين مونرو وألبرت أينشتاين والموناليزا - بنتائج واقعية بشكل مخيف.

يمكن للذكاء الاصطناعي من Samsung إنشاء مقاطع فيديو مزيفة لأشخاص بناءً على صورة واحدة لوجههم (الصورة: Samsung)

كان من السهل تحديد المحاولات المبكرة لمقاطع الفيديو ذات التزييف العميق - غالبًا لأنها لم تتضمن القدر الطبيعي من وميض عين الشخص.

ومع ذلك ، فقد تكيف الجيل الأحدث من تقنية التزييف العميق ، وتحسنت التكنولوجيا ، مما يجعلها أكثر واقعية من أي وقت مضى.

يحاول الباحثون الآن تحديد التلاعب في مقاطع الفيديو من خلال النظر عن كثب إلى وحدات البكسل الخاصة بإطارات معينة واكتشاف العيوب التي لا يمكن إصلاحها بسهولة.

طور علماء الكمبيوتر في جامعة ألباني خوارزمية لـ اكتشاف 'القطع الأثرية' للتحول الرقمي ، حتى عندما لا يرى الناس الاختلافات.

'عندما تولد خوارزمية تركيب فيديو التزييف العميق تعبيرات وجه جديدة ، فإن الصور الجديدة لا تتطابق دائمًا مع الموضع الدقيق لرأس الشخص ، أو ظروف الإضاءة ، أو المسافة إلى الكاميرا ،' قال Siwei Lyu ، مدير مختبر الرؤية الحاسوبية وتعلم الآلة بجامعة ألباني.

بيتسي الجميلة الضرر

عندما يضع الكمبيوتر وجه نيكولاس كيج على رأس إيلون ماسك ، فقد لا يصطف الوجه والرأس بشكل صحيح. (الصورة: Siwei Lyu)

لجعل الوجوه المزيفة تنسجم مع البيئة المحيطة ، يجب أن يتم تحويلها هندسيًا - تدويرها أو تغيير حجمها أو تشويهها بأي طريقة أخرى. تترك هذه العملية المشغولات الرقمية في الصورة الناتجة.

تحسب خوارزمية الباحثين الاتجاه الذي يشير إليه أنف الشخص في الصورة. كما أنه يقيس الاتجاه الذي يتجه فيه الرأس ، ويحسب باستخدام محيط الوجه.

في فيديو حقيقي لرأس شخص حقيقي ، يجب أن يصطف هؤلاء جميعًا بشكل متوقع تمامًا. في حالة التزييف العميق ، غالبًا ما تكون منحرفة.

بالإضافة إلى اكتشاف التزييف العميق ، يستكشف الباحثون أيضًا طرقًا لإعاقة إنشائها.

الذكاء الاصطناعي

تعمل خوارزميات Deepfake من خلال معالجة آلاف الصور ومقاطع الفيديو عبر الإنترنت واستخدام التعلم الآلي لاكتشاف الوجوه واستخراجها.

كلما زادت جودة صور الوجوه في المكتبة ، زاد إقناع الفيديو الناتج عن التزييف العميق.

قال ليو: 'لقد وجدنا طريقة لإضافة ضوضاء مصممة خصيصًا للصور الرقمية أو مقاطع الفيديو غير المرئية للعين البشرية ولكن يمكن أن تخدع خوارزميات اكتشاف الوجه'.

يمكن أن يخفي أنماط البكسل التي تستخدمها أجهزة الكشف عن الوجه لتحديد موقع الوجه ، ويخلق أفخاخًا تشير إلى وجود وجه لا يوجد فيه وجه ، كما هو الحال في قطعة من الخلفية أو مربع من ملابس الشخص.

على اليسار ، يمكن بسهولة اكتشاف وجه في الصورة قبل المعالجة. في المنتصف ، تمت إضافة الاضطرابات ، مما جعل الخوارزمية تكتشف الوجوه الأخرى ، ولكن ليس الوجوه الحقيقية. على اليمين التغييرات التي تمت إضافتها إلى الصورة ، تم تحسينها 30 مرة لتكون مرئية. (الصورة: Siwei Lyu)

12 رقم الملاك المعنى

مع وجود عدد أقل من الوجوه الحقيقية والمزيد من الملوثات غير الواضحة لبيانات التدريب ، ستكون خوارزمية التزييف العميق أسوأ في إنشاء وجه مزيف.

'هذا لا يؤدي فقط إلى إبطاء عملية صنع التزييف العميق ، ولكن أيضًا يجعل التزييف العميق الناتج أكثر عيبًا ويسهل اكتشافه.'

في المستقبل ، قد يكون الأفراد قادرين على اختيار تطبيق هذه 'الضوضاء الرقمية' على أي مقاطع فيديو يقومون بتحميلها على وسائل التواصل الاجتماعي ، مما يزيد من صعوبة استخدامها في عمليات التزييف العميق.

ومع ذلك ، يعترف ليو بأن علم اكتشاف التزييف العميق هو ، على نحو فعال ، سباق تسلح.

وقال: 'سيصبح المخيفون أفضل في صنع قصصهم ، ولذا يجب أن يحاول بحثنا دائمًا مواكبة ذلك ، بل وحتى المضي قدمًا'.

[data-redesign-embed] 'data-priority =' 1 'data-rec-type =' WhatsHot 'data-source =' https: //recommendations.data.tm-awx.com/fallback/mostReadChannel 'عدد البيانات = '3' data-display = 'list' data-numbered = 'true'>الأكثر قراءة
لا تفوت

أنظر أيضا: