لماذا تثير برامج التنميط الجديدة مخاوف بشأن الخصوصية

جدول المحتويات:

لماذا تثير برامج التنميط الجديدة مخاوف بشأن الخصوصية
لماذا تثير برامج التنميط الجديدة مخاوف بشأن الخصوصية
Anonim

الوجبات الجاهزة الرئيسية

  • البرامج التي تستخدم الذكاء الاصطناعي لتشخيص الأشخاص تثير مخاوف تتعلق بالخصوصية.
  • تجمع Cryfe بين تقنيات التحليل السلوكي والذكاء الاصطناعي.
  • واجهت شركة علي بابا الصينية انتقادات مؤخرًا بعد أن قيل إن برنامجها يمكن أن يكتشف الأويغور والأقليات العرقية الأخرى.
Image
Image

برنامج جديد مدعوم بالذكاء الاصطناعي مخصص لأصحاب العمل لتوصيف موظفيهم يثير مخاوف تتعلق بالخصوصية.

منصة برمجية جديدة ، تسمى Cryfe ، تجمع بين تقنيات التحليل السلوكي والذكاء الاصطناعي. يدعي المطور أنه من خلال تحليل القرائن الدقيقة ، يمكن للبرنامج الكشف عن نوايا الأشخاص أثناء المقابلات. لكن بعض المراقبين يقولون إن Cryfe وأنواع أخرى من البرامج التي تحلل السلوك يمكن أن تنتهك الخصوصية.

قال فاكلاف فينسيل خبير الذكاء الاصطناعي في مقابلة عبر البريد الإلكتروني:"تعتمد الشركات بشكل متزايد على الذكاء الاصطناعي في التنميط". "ولكن حتى البشر الذين يرمزون إلى هذه الخوارزميات ، ناهيك عن شخص دعم العملاء الذي تصل إليه عبر الهاتف ، لم يتمكنوا من إخبارك عن سبب تقديمهم لأي توصية معينة."

أكثر من الكلمات

تم تطويرCryfe بواسطة شركة سويسرية تم تدريب موظفيها من قبل مكتب التحقيقات الفيدرالي على تقنيات التنميط. قالت كارولين ماتيوتشي ، مؤسسة Cryfe ، في مقابلة عبر البريد الإلكتروني: "Cryfe ، في جميع الاتصالات الشخصية ، لا يستمع فقط إلى الكلمات ، ولكنه يحدد الإشارات الأخرى التي يصدرها الإنسان مثل العواطف ، والتعبيرات الدقيقة ، وجميع الإيماءات".

"أثناء التوظيف ، على سبيل المثال ، هذا يسمح لنا بالذهاب والبحث عن الشخصية الحقيقية لمحاورنا."

قالMatteucci إن خصوصية المستخدمين محمية لأن الشركة تتمتع بالشفافية بشأن كيفية عمل برامجها. وقالت: "قبل أن يتمكن المستخدم من استخدام المنصة ، يجب أن يقبل الشروط العامة".

"تم التحديد هناك أنه لا يجوز للمستخدم بأي حال من الأحوال تقديم مقابلة للتحليل دون الحصول على موافقة كتابية من المحاور."

Cryfe ليس البرنامج الوحيد المدعوم بالذكاء الاصطناعي الذي يهدف إلى تحليل السلوك البشري. هناك أيضًا Humantic ، والذي يدعي تحليل سلوك المستهلك. وفقًا لموقع الشركة على الويب ، "تتنبأ تقنية Humantic الرائدة في هذا المجال بسلوك الجميع دون الحاجة إلى إجراء اختبار الشخصية".

Image
Image

تدعي الشركة أنها تستخدم الذكاء الاصطناعي لإنشاء ملفات تعريف نفسية للمتقدمين بناءً على الكلمات التي يستخدمونها في السير الذاتية ، وخطابات الغلاف ، وملفات تعريف LinkedIn ، وأي جزء آخر من النص يرسلونه.

واجهت البرامج السلوكية تحديات قانونية في الماضي. في عام 2019 ، أفاد قانون بلومبرج أن لجنة تكافؤ فرص العمل (EEOC) نظرت في حالات التمييز غير القانوني المزعوم بسبب القرارات المتعلقة بالموارد البشرية بمساعدة الخوارزمية.

قال المحامي برادفورد نيومان لـ Bloomberg: "كل هذا يجب أن يتم العمل عليه لأن مستقبل التوظيف هو الذكاء الاصطناعي".

يواجه بعض المراقبين مشكلة مع الشركات التي تستخدم برامج تتبع السلوك لأنها ليست دقيقة بما فيه الكفاية. في مقابلة ، قال نايجل دافي ، رائد الذكاء الاصطناعي العالمي في شركة الخدمات المهنية EY ، لـ InformationWeek إنه منزعج من البرامج التي تستخدم اختبارات الوسائط الاجتماعية وتؤثر على الاكتشاف.

قال"أعتقد أن هناك بعض الأدبيات المقنعة حقًا حول إمكانية اكتشاف التأثير ، لكن ما أفهمه هو أن الطريقة التي يتم تنفيذها في كثير من الأحيان هي طريقة ساذجة إلى حد ما".

"يستنتج الناس أن العلم لا يدعم حقًا [مثل] تحديد شخص ما ربما يكون موظفًا جيدًا لأنهم يبتسمون كثيرًا أو يقررون أن شخصًا ما يحب منتجاتك لأنه يبتسم كثيرًا."

الشركات الصينية يقال إنها ملف تعريف الأقليات

يمكن أن يكون للتتبع السلوكي أغراض أكثر شريرة أيضًا ، كما تقول بعض جماعات حقوق الإنسان. في الصين ، أثارت شركة علي بابا العملاقة للسوق عبر الإنترنت ضجة مؤخرًا بعد أن زعمت أن برنامجها يمكن أن يكتشف الأويغور والأقليات العرقية الأخرى.

ذكرت صحيفة نيويورك تايمز أن أعمال الحوسبة السحابية للشركة لديها برنامج يمكنه مسح الصور ومقاطع الفيديو.

لكن حتى البشر الذين يرمزون إلى هذه الخوارزميات … لم يتمكنوا من إخبارك لماذا يقدمون أي توصية معينة.

ذكرت صحيفة واشنطن بوست أيضًا مؤخرًا أن شركة Huawei ، وهي شركة تكنولوجيا صينية أخرى ، قد اختبرت برنامجًا يمكن أن ينبه سلطات إنفاذ القانون عندما اكتشفت كاميرات المراقبة وجوه الأويغور.

ورد أن طلب براءة الاختراع لعام 2018 من Huawei ادعى أن "تحديد سمات المشاة مهم جدًا" في تقنية التعرف على الوجه.قال التطبيق "سمات الكائن المستهدف يمكن أن تكون الجنس (ذكر ، أنثى) ، العمر (مثل المراهقين ، منتصف العمر ، كبار السن) [أو] العرق (الهان ، الأويغور)".

قال متحدث باسم Huawei لشبكة CNN Business إن ميزة تحديد العرق "لا يجب أن تصبح أبدًا جزءًا من التطبيق".

الاستخدام المتزايد للذكاء الاصطناعي لفرز كميات هائلة من البيانات لا بد أن يثير مخاوف بشأن الخصوصية. قد لا تعرف أبدًا من أو ما الذي يحللك في المرة القادمة التي تذهب فيها لمقابلة عمل.

موصى به: