التكنولوجيا: من الصعب التعرف على التزييف العميق. ومع ذلك ، لا تزال هذه التكنولوجيا بها بعض نقاط الضعف. ويمكنهم المساعدة في حمايتك من المحتالين.
يأتي التزييف العميق في شكل فيديو لشخص يفعل شيئا لم يفعله أبدا. وفي شكل صور من الناس الذين لم يكونوا موجودين أبدا، والتي تم إنشاؤها عن طريق خلط وجوه من الناس الحقيقيين. الآن ، يمكن أن يذهب إلى حد نسخ صوت شخص لجعلها تقول شيئا لم تقله أبدا.
غالبا ما تبدو التزييف العميق واقعية للغاية ، حيث يستخدم منشئوها تقنية متطورة تسمى GAN (الشبكات العدائية التوليدية). في الواقع ، وهذا المصطلح مشتق من “التعلم الوهمي”. ومع ذلك ، لا تزال التكنولوجيا بعيدة عن الكمال ، خاصة عندما يتعلق الأمر بالفيديو. تحتوي معظمها على عيوب خفية يمكن اكتشافها إذا كنت تعرف أين تبحث.
كيف يمكن اكتشاف التزييف العميق؟
إذا كنت قلقا من أن تكون الصورة أو الفيديو مزيفا للغاية ، فهناك بعض العلامات الواضحة. على وجه الخصوص ، تحتاج إلى البحث عن التناقضات العددية: المناطق التي لا تسير معا. يشبه إلى حد ما الألغاز للأطفال حيث يتعين عليك اكتشاف 7 أخطاء:
- على سبيل المثال ، انعكاس يتحول في الاتجاه الخاطئ في المرآة.
- يمكن أن تكون التناقضات على النظارات التي لا تصل بالكامل إلى الأذن ، أو اللحية التي لا تتحرك مع الوجه عندما يتحدث الشخص.
- الشفاه هي منطقة أخرى يمكن فيها رصد الأخطاء: غالبا ما يكون للتزييف العميق شفاه لا تبدو طبيعية أو تتطابق مع ملامح الوجه الأخرى للشخص.
- يمكنك أيضا البحث عن القطع الأثرية الرقمية: العناصر التي تواجه أجهزة الكمبيوتر مشكلة في توليدها بشكل صحيح.
- يمكن أن تكون هذه قوام الوجه (الوجه ، وخاصة الجبهة ، قد تكون ناعمة للغاية) ، أو الظلال (التي قد لا تكون في المكان المناسب) ، أو الحواجب ذات المظهر غير الواقعي
- أخيرا ، في مقاطع الفيديو المتحركة ، انتبه إلى الوميض. هل يبدو أن الشخص يومض قليلا جدا أو في كثير من الأحيان؟
ما هي الأنواع المختلفة من التزييف العميق؟
ركزت التزييف العميق المبكر على تغيير الوجوه في مقاطع الفيديو ، على سبيل المثال عن طريق استبدال وجه الممثل بوجه شخص آخر في فيلم. ، على الرغم من أنها غير مقنعة ، كان لها عواقب سلبية خطيرة عندما يتم نشرها دون موافقة مسبقة من الأشخاص الذين يظهرون فيها. هذا صحيح بشكل خاص لأن الكثير من الناس لا يعرفون بعد أنه من الممكن إنشاء التزييف العميق.
الذكاء الاصطناعي فهم الباحثون على الفور أن هذه التكنولوجيا يمكن استخدامها لانتحال شخصية قادة العالم وغيرهم من الشخصيات المؤثرة. لذلك قدموا دليلا على المفهوم في عام 2018: فيديو للرئيس السابق أوباما يحذر من مخاطر التزييف العميق!
ومع ذلك ، في هذا الفيديو ، فإن الممثل الكوميدي جوردان بيل هو الذي يضاعف أوباما. في الواقع، سوف يستغرق الأمر عدة سنوات أخرى لخلق أصوات واقعية.
مستقبل التزييف في الفيديو
في المستقبل ، يمكننا أن نتوقع دمج التزييف العميق في المشهد الأوسع لحرب المعلومات والمعلومات المضللة. كما يمكننا أيضا التنبؤ بالتهديدات التي تجمع بين مخاطر الأمن السيبراني التقليدية ونقاط الضعف العاطفية البشرية.
ولمواجهة هذه التهديدات، نحتاج إلى اتباع نهج شامل بنفس القدر: تأمين نقاط النهاية والخوادم الخاصة بنا بأحدث تقنيات الأمن السيبراني، والكشف عن هذه التزييف باستخدام الأساليب اليدوية وبمساعدة الكمبيوتر، ووقف انتشار المعلومات المضللة بواسطة الروبوتات.