يشير التحيز العنصري لخوارزمية Twitter إلى مشكلة تقنية أكبر

جدول المحتويات:

يشير التحيز العنصري لخوارزمية Twitter إلى مشكلة تقنية أكبر
يشير التحيز العنصري لخوارزمية Twitter إلى مشكلة تقنية أكبر
Anonim

الوجبات الجاهزة الرئيسية

  • يأمل Twitter في معالجة ما يسميه المستخدمون التحيز العنصري في برنامج معاينة الصور الخاص بهم.
  • قد يكون استدعاء العملاق التكنولوجي هو الحساب الثقافي الذي تحتاجه الصناعة لمعالجة قضايا التنوع.
  • افتقار التكنولوجيا للتنوع يضر بفعالية تقدمها التكنولوجي.
Image
Image

تم تعيين Twitter لإجراء تحقيق في خوارزمية اقتصاص الصور الخاصة به بعد أن أصبح موضوعًا شائعًا أدى إلى إجراء محادثة أكبر حول قضايا التنوع في صناعة التكنولوجيا.

تصدرت وسائل الإعلام الاجتماعية العملاقة عناوين الأخبار بعد أن اكتشف المستخدمون تحيزًا عنصريًا واضحًا في خوارزمية معاينة الصورة. حدث الاكتشاف بعد أن استخدم مستخدم Twitter Colin Madland المنصة لاستدعاء فشل Zoom في التعرف على زملائه السود الذين استخدموا تقنية الشاشة الخضراء ، ولكن في عرض كبير للمفارقة ، وجد أن خوارزمية اقتصاص الصور على Twitter تتصرف بشكل مشابه وتقلل من أولويات الوجوه السوداء.

بالتأكيد ، إنها مشكلة كبيرة بالنسبة لأية أقلية ، لكني أعتقد أن هناك مشكلة أكبر بكثير أيضًا.

دخل المستخدمون الآخرون في هذا الاتجاه مما أثار سلسلة من التغريدات الفيروسية التي تظهر الخوارزمية تعطي الأولوية باستمرار للوجوه البيضاء وذات البشرة الفاتحة ، بدءًا من الأشخاص إلى الشخصيات الكرتونية وحتى الكلاب. يشير هذا الفشل إلى حركة ثقافية أكبر في صناعة التكنولوجيا التي فشلت باستمرار في حساب مجموعات الأقليات ، والتي امتدت إلى الجانب التقني.

"إنه يجعل الأقليات تشعر بالفزع ، وكأنهم ليسوا مهمين ، ويمكن استخدامه لأشياء أخرى قد تسبب ضررًا أكثر خطورة في المستقبل ،" إريك ليرن ميلر ، أستاذ علوم الكمبيوتر في الجامعة من ولاية ماساتشوستس ، في مقابلة عبر الهاتف."بمجرد أن تقرر الغرض من البرنامج الذي يمكن استخدامه وكل الأضرار التي يمكن أن تحدث ، نبدأ في الحديث عن طرق تقليل فرصة حدوث ذلك."

كناري على الجدول الزمني

يستخدم Twitter الشبكات العصبية لقص الصور المضمنة في التغريدات تلقائيًا. من المفترض أن تكتشف الخوارزمية الوجوه لمعاينتها ، ولكن يبدو أنها تحتوي على تحيز أبيض ملحوظ. غردت المتحدثة باسم الشركة ليز كيلي ردًا على جميع المخاوف.

غردكيلي ، "شكرًا لكل من أثار هذا. لقد اختبرنا التحيز قبل شحن النموذج ولم نعثر على دليل على التحيز العنصري أو الجنساني في اختبارنا ، ولكن من الواضح أننا حصلنا على مزيد من التحليل افعل. سنفتح مصدر عملنا حتى يتمكن الآخرون من المراجعة والتكرار."

مؤلف مشارك في الورقة البيضاء "تقنيات التعرف على الوجه في البرية: دعوة لمكتب فيدرالي" ، ليرند ميلر باحث رائد في تجاوزات برامج التعلم المعتمدة على الوجه.لقد كان يناقش التأثير السلبي المحتمل لبرامج التعلم بالصور لسنوات ، وتحدث عن أهمية خلق واقع يتم فيه تخفيف هذه التحيزات بأفضل ما لديهم من قدرات.

تستخدم العديد من الخوارزميات لتقنية التعرف على الوجه مجموعات مرجعية للبيانات ، والتي تُعرف غالبًا باسم مجموعات التدريب ، وهي عبارة عن مجموعة من الصور المستخدمة لضبط سلوك برامج تعلم الصور. إنه يسمح في النهاية للذكاء الاصطناعي بالتعرف بسهولة على مجموعة واسعة من الوجوه. ومع ذلك ، يمكن أن تفتقر هذه المجموعات المرجعية إلى مجموعة متنوعة ، مما يؤدي إلى مشكلات مثل تلك التي واجهها فريق Twitter.

"بالتأكيد ، إنها مشكلة كبيرة بالنسبة لأية أقلية ، لكنني أعتقد أن هناك مشكلة أوسع نطاقا أيضًا ،" قال ليرند ميلر. "يتعلق الأمر بنقص التنوع في قطاع التكنولوجيا والحاجة إلى قوة تنظيمية مركزية لإظهار الاستخدامات المناسبة لهذا النوع من البرامج القوية المعرضة لسوء الاستخدام وإساءة الاستخدام."

التكنولوجيا تفتقر إلى التنوع

قد يكون Twitter هو أحدث شركة تقنية في مجال التقطيع ، لكن هذه ليست مشكلة جديدة. لا يزال مجال التكنولوجيا مجالًا يغلب عليه البيض ويهيمن عليه الذكور دائمًا ، وقد وجد الباحثون أن الافتقار إلى التنوع يؤدي إلى تكرار الاختلالات النظامية والتاريخية في البرامج المطورة.

في تقرير صدر عام 2019 عن معهد AI Now التابع لجامعة نيويورك ، وجد الباحثون أن السود يشكلون أقل من 6٪ من القوى العاملة في كبرى شركات التكنولوجيا في البلاد. وبالمثل ، تمثل النساء 26 في المائة فقط من العاملين في هذا المجال - وهي إحصائية أقل من حصتهم في عام 1960.

يجعل الأقليات تشعر بالسوء ، وكأنهم ليسوا مهمين ، ويمكن استخدامه لأشياء أخرى قد تسبب ضررًا أكثر خطورة في المستقبل.

على السطح ، قد تبدو هذه القضايا التمثيلية عادية ، ولكن من الناحية العملية ، يمكن أن يكون الضرر الناجم عميقاً. يشير الباحثون في تقرير معهد AI Now إلى أن هذا يرتبط سببيًا بمشكلات تتعلق بالبرامج التي غالبًا ما تفشل في حساب السكان غير البيض وغير الذكور.سواء كانت موزعات الصابون بالأشعة تحت الحمراء تفشل في اكتشاف البشرة الداكنة أو فشل برنامج الذكاء الاصطناعي من أمازون في التمييز بين الوجوه الأنثوية وتلك الخاصة بنظرائهن من الرجال ، فإن الفشل في معالجة التنوع في صناعة التكنولوجيا يؤدي إلى فشل التكنولوجيا في التعامل مع عالم متنوع.

"هناك الكثير من الأشخاص الذين لم يفكروا في المشكلات ولا يدركون حقًا كيف يمكن أن تسبب هذه الأشياء ضررًا ومدى أهمية هذه الأضرار ،" اقترح Learned-Miller حول تعلم الصور بالذكاء الاصطناعي. "نأمل أن يتقلص هذا العدد من الأشخاص!"

موصى به: