لا تثق في أي شيء تراه على الويب ، قل الخبراء

جدول المحتويات:

لا تثق في أي شيء تراه على الويب ، قل الخبراء
لا تثق في أي شيء تراه على الويب ، قل الخبراء
Anonim

الوجبات الجاهزة الرئيسية

  • يكشف بحث جديد أنه لا يمكن للناس فصل الصور الناتجة عن الذكاء الاصطناعي عن الصور الحقيقية.
  • صنف المشاركون الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على أنها أكثر جدارة بالثقة.
  • يعتقد الخبراء أن على الناس التوقف عن الوثوق بأي شيء يرونه على الإنترنت.
Image
Image

القول المأثور "الرؤية إيمان" لم يعد ذا صلة عندما يتعلق الأمر بالإنترنت ، ويقول الخبراء إنه لن يتحسن في أي وقت قريبًا.

وجدت دراسة حديثة أن صور الوجوه التي تم إنشاؤها بواسطة الذكاء الاصطناعي (AI) لم تكن صورًا واقعية للغاية فحسب ، بل بدت أيضًا أكثر فضيلة من الوجوه الحقيقية.

"يشير تقييمنا للواقعية للوجوه المُصنّعة بالذكاء الاصطناعي إلى أن محركات التخليق قد مرت عبر الوادي الخارق ، وهي قادرة على تكوين وجوه لا يمكن تمييزها وأكثر جدارة بالثقة من الوجوه الحقيقية" ، لاحظ الباحثون.

هذا الشخص غير موجود

أجرى الباحثان ، الدكتورة صوفي نايتنجيل من جامعة لانكستر والبروفيسور هاني فريد من جامعة كاليفورنيا ، بيركلي ، التجارب بعد الاعتراف بالتهديدات المعلنة جيدًا للتزييف العميق ، بدءًا من جميع أنواع الاحتيال عبر الإنترنت إلى التنشيط. حملات التضليل

"ربما تكون النتيجة الأكثر ضررًا هي أنه في عالم رقمي يمكن فيه تزوير أي صورة أو مقطع فيديو ، يمكن التشكيك في صحة أي تسجيل غير مريح أو غير مرحب به".

جادلوا بأنه بينما كان هناك تقدم في تطوير تقنيات تلقائية لاكتشاف المحتوى المزيف العميق ، فإن التقنيات الحالية ليست فعالة ودقيقة بما يكفي لمواكبة التدفق المستمر للمحتوى الجديد الذي يتم تحميله عبر الإنترنت.هذا يعني أن الأمر متروك لمستهلكي المحتوى عبر الإنترنت لفرز الحقيقي من المزيف ، كما يقترح الثنائي.

وافقت Jelle Wieringa ، مدافعة عن الوعي الأمني في KnowBe4 ، على ذلك. أخبر Lifewire عبر البريد الإلكتروني أن مكافحة المنتجات المقلدة الحقيقية من الصعب للغاية القيام بها بدون التكنولوجيا المتخصصة. "يمكن أن تكون [تقنيات التخفيف] مكلفة ويصعب تنفيذها في عمليات الوقت الفعلي ، وغالبًا ما يتم اكتشاف التزييف العميق فقط بعد حدوثه."

مع هذا الافتراض ، أجرى الباحثون سلسلة من التجارب لتحديد ما إذا كان بإمكان المشاركين البشريين تمييز الوجوه المُصنَّعة الحديثة عن الوجوه الحقيقية. في اختباراتهم ، وجدوا أنه على الرغم من التدريب للمساعدة في التعرف على المنتجات المزيفة ، إلا أن معدل الدقة تحسن فقط إلى 59٪ ، ارتفاعًا من 48٪ بدون تدريب.

أدى ذلك بالباحثين إلى اختبار ما إذا كانت تصورات الجدارة بالثقة يمكن أن تساعد الأشخاص في تحديد الصور الاصطناعية. في دراسة ثالثة ، طلبوا من المشاركين تقييم مصداقية الوجوه ، فقط ليكتشفوا أن متوسط تصنيف الوجوه الاصطناعية كان 7.أكثر جدارة بالثقة بنسبة 7٪ من متوسط تصنيف الوجوه الحقيقية. قد لا يبدو الرقم كثيرًا ، لكن الباحثين يزعمون أنه ذو دلالة إحصائية.

مزيفة أعمق

كانت المنتجات المقلدة العميقة مصدر قلق كبير بالفعل ، والآن تم تعكير المياه بشكل أكبر من خلال هذه الدراسة ، مما يشير إلى أن مثل هذه الصور المزيفة عالية الجودة يمكن أن تضيف بُعدًا جديدًا تمامًا لعمليات الاحتيال عبر الإنترنت ، على سبيل المثال ، من خلال المساعدة في إنشاء المزيد ملفات تعريف وهمية مقنعة على الإنترنت.

"الشيء الوحيد الذي يحرك الأمن السيبراني هو الثقة التي يتمتع بها الناس في التقنيات والعمليات والأشخاص الذين يحاولون الحفاظ على سلامتهم" ، قال ويرينغا. "المزيفات العميقة ، خاصة عندما تصبح واقعية ، تقوض هذه الثقة ، وبالتالي تبني وقبول الأمن السيبراني. يمكن أن تؤدي إلى عدم ثقة الناس في كل ما يرونه."

Image
Image

وافق كريس هوك ، بطل خصوصية المستهلك في Pixel Privacy. في تبادل قصير عبر البريد الإلكتروني ، قال لـ Lifewire إن الصور المزيفة العميقة الواقعية يمكن أن تسبب "فوضى" عبر الإنترنت ، خاصة في هذه الأيام عندما يمكن الوصول إلى جميع أنواع الحسابات باستخدام تقنية معرف الصورة.

الإجراء التصحيحي

لحسن الحظ ، يقول جريج كون ، مدير إنترنت الأشياء ، Prosegur Security ، أن هناك عمليات يمكن أن تتجنب مثل هذه المصادقة الاحتيالية. أخبر Lifewire عبر البريد الإلكتروني أن أنظمة الاعتماد المستندة إلى الذكاء الاصطناعي تطابق فردًا تم التحقق منه مقابل قائمة ، لكن لدى العديد منها ضمانات مضمنة للتحقق من "الحياة".

"هذه الأنواع من الأنظمة يمكن أن تتطلب وتوجه المستخدم لأداء مهام معينة مثل الابتسامة أو إدارة رأسك إلى اليسار ، ثم إلى اليمين. هذه هي الأشياء التي لا يمكن أن تؤديها الوجوه المولدة بشكل ثابت" ، شارك Kuhn.

اقترح الباحثون مبادئ توجيهية لتنظيم إنشائها وتوزيعها لحماية الجمهور من الصور الاصطناعية. بالنسبة للمبتدئين ، يقترحون دمج العلامات المائية الراسخة بعمق في شبكات تركيب الصور والفيديو نفسها لضمان إمكانية التعرف على جميع الوسائط الاصطناعية بشكل موثوق.

حتى ذلك الحين ، يقول بول بيشوف ، المدافع عن الخصوصية ومحرر أبحاث إنفوسيك في شركة كومباريتيك ، إن الناس وحدهم.قال بيشوف لـ Lifewire عبر البريد الإلكتروني: "سيتعين على الناس أن يتعلموا عدم الثقة في الوجوه عبر الإنترنت ، تمامًا كما تعلمنا جميعًا (نأمل) ألا نثق في أسماء العرض في رسائل البريد الإلكتروني الخاصة بنا".

موصى به: