لماذا قد تنتهك برامج قراءة المشاعر خصوصيتك

جدول المحتويات:

لماذا قد تنتهك برامج قراءة المشاعر خصوصيتك
لماذا قد تنتهك برامج قراءة المشاعر خصوصيتك
Anonim

الوجبات الجاهزة الرئيسية

  • ورد أن Zoom قال إنه سيستخدم الذكاء الاصطناعي لتقييم شعور المستخدم أو مستوى المشاركة.
  • تطلب جماعات حقوق الإنسان من Zoom إعادة التفكير في خطتها بسبب مخاوف تتعلق بالخصوصية وأمن البيانات.
  • تستخدم بعض الشركات أيضًا برامج الكشف عن المشاعر أثناء المقابلات لتقييم ما إذا كان المستخدم منتبهًا أم لا.
Image
Image

الاستخدام المتزايد للذكاء الاصطناعي (AI) لمراقبة المشاعر البشرية يثير مخاوف بشأن الخصوصية.

تطلب منظمات حقوق الإنسان من Zoom إبطاء خطتها لإدخال الذكاء الاصطناعي لتحليل المشاعر في برنامج مؤتمرات الفيديو الخاص بها. ورد أن الشركة قالت إنها ستستخدم الذكاء الاصطناعي لتقييم شعور المستخدم أو مستوى مشاركته.

كتب اتحاد جماعات حقوق الإنسان ، بما في ذلك اتحاد الحريات المدنية الأمريكي ، في رسالة إلى Zoom. "غالبًا ما يتم فصل تعبيرات الوجه عن المشاعر الموجودة تحتها ، وقد توصلت الأبحاث إلى أنه لا يمكن حتى للبشر قراءة أو قياس مشاعر الآخرين بدقة في بعض الأوقات. تطوير هذه الأداة يضيف مصداقية إلى العلوم الزائفة ويضع سمعتك على المحك."

Zoom لم يستجب على الفور لطلب من Lifewire للتعليق.

حفظ علامات التبويب على مشاعرك

وفقًا لمقالة البروتوكول ، سيتحقق نظام مراقبة Zoom المسمى Q for Sales من نسبة وقت التحدث للمستخدمين ، وتأخر وقت الاستجابة ، وتغييرات المتحدث المتكررة لتتبع مدى تفاعل الشخص.سوف يستخدم Zoom هذه البيانات لتعيين درجات بين صفر و 100 ، مع درجات أعلى تشير إلى مشاركة أو عاطفة أعلى.

تدعي مجموعات حقوق الإنسان أن البرنامج يمكن أن يميز ضد الأشخاص ذوي الإعاقة أو بعض الأعراق من خلال افتراض أن كل شخص يستخدم نفس تعبيرات الوجه وأنماط الصوت ولغة الجسد للتواصل. تشير المجموعات أيضًا إلى أن البرنامج قد يمثل خطرًا على أمن البيانات.

Image
Image

"جمع البيانات الشخصية بعمق يمكن أن يجعل أي كيان ينشر هذه التكنولوجيا هدفًا لتطفل السلطات الحكومية والمتسللين الضارين" ، وفقًا للرسالة.

جوليا ستويانوفيتش ، أستاذة علوم الكمبيوتر والهندسة بجامعة نيويورك ، أخبرت Lifewire في مقابلة عبر البريد الإلكتروني أنها متشككة في الادعاءات الكامنة وراء اكتشاف المشاعر.

قال ستويانوفيتش"لا أرى كيف يمكن لمثل هذه التكنولوجيا أن تعمل - فالتعبير العاطفي للناس فردي جدًا ، ومعتمد جدًا على الثقافة ، ومحدّد جدًا بالسياق"."ولكن ، ربما الأهم من ذلك ، أنني لا أفهم سبب رغبتنا في تشغيل هذه الأدوات. وبعبارة أخرى ، سنواجه المزيد من المشاكل إذا عملت بشكل جيد. ولكن ربما حتى قبل التفكير في المخاطر ، يجب علينا اسأل - ما هي الفوائد المحتملة لهذه التقنية؟"

Zoom ليست الشركة الوحيدة التي تستخدم برامج الكشف عن المشاعر. قال ثيو ويلز ، كبير مديري الخصوصية في Kuma LLC ، وهي شركة استشارية للخصوصية والأمن ، لـ Lifewire عبر البريد الإلكتروني أن البرنامج لاكتشاف العواطف يتم استخدامه أثناء المقابلات لتقييم ما إذا كان المستخدم منتبهًا أم لا. كما يتم تجريبها في صناعة النقل لمراقبة ما إذا كان السائقون يشعرون بالنعاس ، وعلى منصات الفيديو لقياس الاهتمام وتخصيص التوصيات ، وفي الدروس التعليمية لتحديد ما إذا كانت طريقة التدريس معينة جذابة.

أكد Wills أن الجدل حول برنامج مراقبة المشاعر هو أكثر من مسألة أخلاقيات البيانات من الخصوصية. قالت إن الأمر يتعلق بالنظام الذي يتخذ قرارات واقعية بناءً على الحدس.

"باستخدام هذه التقنية ، أنت تفترض الآن سبب وجود تعبير معين على وجهي ، لكن الدافع وراء التعبير يختلف اختلافًا كبيرًا بسبب أشياء مثل التنشئة الاجتماعية أو الثقافية ، أو السلوكيات الأسرية ، أو التجارب السابقة ، أو العصبية في الوقت الحالي ". "إن تأسيس الخوارزمية على افتراض معيب بطبيعته ومن المحتمل أن يكون تمييزيًا. لا يتم تمثيل العديد من المجموعات السكانية في المجموعة التي تستند إليها الخوارزميات ، ويلزم إعطاء الأولوية للتمثيل المناسب قبل استخدام ذلك."

اعتبارات عملية

قد تكون المشكلات التي تثيرها برامج تتبع المشاعر عملية وكذلك نظرية. قال مات هيزي ، المؤسس المشارك لـ Ferret.ai ، وهو تطبيق مدفوع بالذكاء الاصطناعي يوفر معلومات عن العلاقة ، لـ Lifewire في رسالة بريد إلكتروني أن المستخدمين بحاجة إلى السؤال عن مكان إجراء تحليل الوجوه وما هي البيانات التي يتم تخزينها. هل يتم إجراء الدراسة على تسجيلات المكالمات أو معالجتها في السحابة أو على الجهاز المحلي؟

أيضًا ، سأل هيزي ، كما تعلم الخوارزمية ، ما هي البيانات التي تجمعها حول وجه الشخص أو حركاته التي يمكن فصلها عن الخوارزمية واستخدامها لإعادة إنشاء القياسات الحيوية لشخص ما؟ هل تقوم الشركة بتخزين اللقطات للتحقق من تعلم الخوارزمية أو التحقق من صحتها ، وهل يتم إخطار المستخدم بهذه البيانات المشتقة الجديدة أو الصور المخزنة التي من المحتمل أن يتم جمعها من مكالماتهم؟

قال هيزي"هذه كلها مشاكل قامت العديد من الشركات بحلها ، ولكن هناك أيضًا شركات تعرضت للفضيحة عندما اتضح أنها لم تفعل ذلك بشكل صحيح". "Facebook هو أهم حالة لشركة تراجعت عن نظامها الأساسي للتعرف على الوجه بسبب مخاوف بشأن خصوصية المستخدم. تقوم الشركة الأم Meta الآن بسحب ميزات AR من Instagram في بعض الولايات القضائية مثل إلينوي وتكساس بشأن قوانين الخصوصية المحيطة بالبيانات الحيوية."

موصى به: