لن تنقذنا تقنية Deepfake من Facebook ، كما يقول الخبراء

جدول المحتويات:

لن تنقذنا تقنية Deepfake من Facebook ، كما يقول الخبراء
لن تنقذنا تقنية Deepfake من Facebook ، كما يقول الخبراء
Anonim

الوجبات الجاهزة الرئيسية

  • نظرًا لأنه أصبح صنع التزييف العميق أسهل ، أصبحت الطرق الجديدة والمحسّنة لاكتشافها أولوية.
  • تستخدم تقنية اكتشاف التزييف العميق في Facebook التعلم الآلي العكسي للكشف عما إذا كان مقطع الفيديو مزيفًا أم لا.
  • يقول الخبراء إن استخدام تقنية blockchain سيكون أفضل طريقة لمعرفة ما إذا كان الفيديو حقيقيًا أم لا لأن الطريقة تعتمد على البيانات السياقية.
Image
Image

Facebook واثق من نموذج التعلم الآلي الخاص به لمكافحة التزييف العميق ، لكن الخبراء يقولون إن التعلم الآلي من تلقاء نفسه لن ينقذنا من التعرض للخداع من خلال التزييف العميق.

تعمل شركات مثل Facebook و Microsoft و Google على مكافحة التزييف العميق من الانتشار عبر الويب والشبكات الاجتماعية. على الرغم من اختلاف الطرق ، إلا أن هناك طريقة واحدة محتمَلة للخداع لاكتشاف مقاطع الفيديو الخاطئة هذه: blockchains.

"تمنحك [Blockchains] الكثير من الإمكانات للتحقق من صحة التزييف العميق بطريقة تُعد أفضل شكل للتحقق من الصحة يمكنني رؤيته" ، هكذا قال ستيفن ولفرام ، المؤسس والرئيس التنفيذي لشركة Wolfram Research ومؤلف كتاب A New Kind of قال العلم Lifewire عبر الهاتف.

تقنية اكتشاف التزييف العميق على Facebook

نمت تقنية Deepfake بسرعة خلال السنوات القليلة الماضية. تستخدم مقاطع الفيديو المضللة أساليب التعلم الآلي للقيام بأشياء مثل تركيب وجه شخص ما على جسم شخص آخر ، وتغيير ظروف الخلفية ، ومزامنة الشفاه الزائفة ، والمزيد. وهي تتراوح من المحاكاة الساخرة غير المؤذية إلى جعل المشاهير أو الشخصيات العامة يقولون أو يفعلون شيئًا لم يفعلوه.

يقول الخبراء أن التكنولوجيا تتقدم بسرعة ، وأن تقنية التزييف العميق ستصبح أكثر إقناعًا (وأسهل في الإنشاء) حيث تصبح التكنولوجيا متاحة على نطاق أوسع وأكثر ابتكارًا.

Image
Image

أعطى Facebook مؤخرًا مزيدًا من الأفكار حول تقنية اكتشاف التزييف العميق بالشراكة مع جامعة ولاية ميشيغان. تقول الشبكة الاجتماعية إنها تعتمد على الهندسة العكسية من صورة واحدة تم إنشاؤها بواسطة الذكاء الاصطناعي إلى النموذج التوليدي المستخدم لإنتاجها.

قال علماء الأبحاث الذين عملوا مع Facebook أن الطريقة تعتمد على الكشف عن الأنماط الفريدة وراء نموذج الذكاء الاصطناعي المستخدم لإنشاء التزييف العميق.

من خلال تعميم إحالة الصورة إلى التعرف على المجموعة المفتوحة ، يمكننا استنتاج مزيد من المعلومات حول النموذج التوليفي المستخدم لإنشاء التزييف العميق الذي يتجاوز إدراك أنه لم يتم رؤيته من قبل. ومن خلال تتبع أوجه التشابه بين أنماط مجموعة من الصور المزيفة ، يمكننا أيضًا معرفة ما إذا كانت سلسلة من الصور قد نشأت من مصدر واحد ، كما كتب عالما البحث Xi Yin و Tan Hassner في منشور مدونة Facebook حول طريقة اكتشاف التزييف العميق.

Image
Image

يقول Wolfram أنه من المنطقي أن تستخدم التعلم الآلي لاكتشاف نموذج ذكاء اصطناعي متقدم (التزييف العميق). ومع ذلك ، هناك دائمًا مجال لخداع التكنولوجيا.

قال ولفرام: "لست مندهشًا على الإطلاق من وجود طريقة لائقة للتعلم الآلي [لاكتشاف التزييف العميق]". "السؤال الوحيد هو إذا بذلت ما يكفي من الجهد ، هل يمكنك أن تخدعه؟ أنا متأكد من أنه يمكنك ذلك."

محاربة التزييف العميق بطريقة مختلفة

بدلاً من ذلك ، قال ولفرام إنه يعتقد أن استخدام blockchain سيكون الخيار الأفضل لتحديد أنواع معينة من التزييف العميق بدقة. يعود رأيه في استخدام blockchain على التعلم الآلي إلى عام 2019 ، وقال إنه في النهاية ، يمكن أن يوفر نهج blockchain حلاً أكثر دقة لمشكلة deepfake لدينا.

كتب ولفرام في مقال نُشر في مجلة Scientific American: "أتوقع أن يتمكن مشاهدو الصور والفيديو بشكل روتيني من التحقق من سلاسل الكتل (و" حسابات تثليث البيانات ") تمامًا مثل كيفية فحص متصفحات الويب الآن لشهادات الأمان.

نظرًا لأن البلوكشين تخزن البيانات في كتل يتم ربطها معًا بترتيب زمني ، وبما أن البلوكشين اللامركزية غير قابلة للتغيير ، فإن البيانات المدخلة لا رجوع فيها.

السؤال الوحيد هو إذا بذلت جهدًا كافيًا ، فهل يمكنك خداعها؟ أنا متأكد من أنك تستطيع.

أوضح ولفرام أنه من خلال وضع مقطع فيديو في blockchain ، ستتمكن من رؤية الوقت الذي تم استغراقه فيه والموقع والمعلومات السياقية الأخرى التي تسمح لك بمعرفة ما إذا كان قد تم تغييره بأي شكل من الأشكال.

"بشكل عام ، كلما زاد عدد البيانات الوصفية التي تضع الصورة أو الفيديو في سياقها ، زادت احتمالية قدرتك على معرفة ذلك ،" قال. "لا يمكنك تزييف الوقت على blockchain."

ومع ذلك ، قال ولفرام إن الطريقة المستخدمة - سواء كانت تعلم آليًا أو باستخدام blockchain - تعتمد على نوع التزييف العميق الذي تحاول الحماية منه (على سبيل المثال ، مقطع فيديو لكيم كارداشيان يقول شيئًا سخيفًا أو مقطع فيديو لـ سياسي يدلي ببيان أو اقتراح).

"نهج blockchain يحمي من أنواع معينة من التزييف العميق ، تمامًا كما تحمي معالجة صور التعلم الآلي من أنواع معينة من التزييف العميق" ، قال.

الخلاصة ، على ما يبدو ، هي اليقظة بالنسبة لنا جميعًا عندما يتعلق الأمر بمكافحة طوفان التزييف العميق القادم.

موصى به: