القيود العمرية الجديدة على YouTube تقلق منظمة العفو الدولية من مجتمع LGBTQ +

جدول المحتويات:

القيود العمرية الجديدة على YouTube تقلق منظمة العفو الدولية من مجتمع LGBTQ +
القيود العمرية الجديدة على YouTube تقلق منظمة العفو الدولية من مجتمع LGBTQ +
Anonim

الوجبات الجاهزة الرئيسية

  • برنامج تقييد العمر التلقائي في YouTube مدعاة للقلق بشأن محتوى LGBTQ + على المنصة.
  • لقد شاب الشركة الجدل حول منشئي محتوى LGBTQ + الذي يعزز الشك.
  • تضفي التحيزات في التعلم الآلي مصداقية على فكرة أن التنفيذ غير الكامل للفلاتر من المحتمل أن يقيد الوصول بشكل غير عادل.
Image
Image

مع تاريخ من الاستهداف غير العادل لمنشئي المحتوى LGBTQ + في عملية الاعتدال ، يُنظر إلى تقنية YouTube الجديدة القائمة على الذكاء الاصطناعي على أنها الخطوة التالية المقلقة لعملاق التكنولوجيا.

في مدونة YouTube الرسمية الأسبوع الماضي ، كشفت منصة مشاركة الفيديو عن خطط لإصدار برنامج تلقائي جديد "لتطبيق قيود العمر بشكل أكثر اتساقًا" على مقاطع الفيديو التي تعتبر غير مناسبة للمشاهدين الأصغر سنًا.

بدافع من المخاوف الأخيرة بشأن الأطفال على التطبيق ، يعتمد النظام الجديد على برامج الذكاء الاصطناعي للتعلم الآلي مع القدرة على التخلي عن المشرفين البشريين لعملية أكثر تلقائية. المشكلة؟ تم اتهام الأنظمة الآلية في YouTube باستفراد محتوى LGBTQ + ومنشئي المحتوى لمجرد وجودهم.

حتى لو لم يكن خبيثًا ، وهو ما لا أعتقد أنه كذلك ، فهو نقص في المدخلات من أصوات متنوعة - أو على الأقل عدم احترام.

قال موقع YouTuber Rowan Ellis في مقابلة عبر الهاتف مع Lifewire"التعلم الآلي مستوحى من البشر ومن صنعه ، ومن الممكن أن تكون هذه التحيزات متأصلة فيه أو تتعلمها الآلة نفسها". "كان تحيزها فيما يتعلق بمحتوى [LGBTQ +] واضحًا في التجارب السابقة لمستخدمي YouTube [LGBTQ +] ، ولم أر أي دليل على أنه تم القيام بأي شيء لمنع حدوث ذلك."

طفل ، الآن لدينا دم سيء

Ellis هي منشئ محتوى على YouTube تنشئ محتوى تعليميًا مع ميول نسوية وكويرية ، وفي عام 2017 نشرت مقطع فيديو عن الوضع المقيد للشركة. كغزوة أولية في الإشراف التلقائي على المحتوى ، سمح هذا الوضع للمستخدمين بالفرز المسبق اختياريًا "للمحتوى المحتمل أن يكون ناضجًا" من اقتراحات البحث والتوصيات.

حصدت أكثر من 100000 مشاهدة ، وهي تعتقد أن هناك جهدًا واعيًا لمنع قناتها من التقييد بسبب معارضتها الصريحة لتجاوزات خطوة YouTube الجديدة نحو الاعتدال. لم يحالف الحظ المستخدمون الآخرون على المنصة ، وقد جعلوا موقع YouTube يعرف ذلك.

تم رفع دعوى قضائية جماعية ضد YouTube في أغسطس 2019 من قبل مجموعة من ثمانية منشئي محتوى من مجتمع LGBTQ + اتهموا شركة Silicon Valley بتقييد صانعي ومحتوى الفيديوهات الجنسية والمثيرة للجنس. تزعم الدعوى القضائية أن الموقع يستخدم "ممارسات تنظيم المحتوى وتوزيعه وتحقيق الدخل غير القانوني التي توصم المدعين المثليين والمثليين ومزدوجي الميل الجنسي ومغايري الهوية الجنسانية وتقييدهم وحظرهم وإضفاء الطابع المالي عليهم وإلحاق الضرر بهم ماليًا."ما زالت تشق طريقها عبر محاكم كاليفورنيا.

تعلم الآلة يتم إطلاعه من قبل البشر وخلقه ، ومن الممكن أن تكون هذه التحيزات متأصلة فيه أو تتعلمها الآلة نفسها.

في يونيو من نفس العام ، تلقت المنصة طوفانًا من اهتمام وسائل الإعلام بعد أن رفضت بسرعة توبيخ المعلق المحافظ الشهير ستيفن كراودر على مدى أشهر ، وحملة مضايقة ضد المثليين ضد صحفي فوكس والمضيف كارلوس مازا. عزز هذا ما قاله إليس بأنه نمط مع النظام الأساسي عبر الإنترنت لتجاهل التحديات الفريدة التي يواجهها المبدعون المثليون. لا يخلو افتقار منشئي المحتوى من LGBTQ + للثقة بقدرة YouTube على الظهور أمامهم بلا مزايا.

قالت"لا أعتقد أنهم فهموا الحاجة إلى وجود شفافية فيما يتعلق بالقضايا الاجتماعية وضمان المساواة". "لا يزال هناك أطفال في جميع أنحاء العالم نشأوا على فكرة أن كون المرء مثليًا أمرًا خاطئًا ، وعندما يبدأون في التشكيك في هذا الاعتقاد ، ولكنهم يجدون أنه مغلق من خلال البحث الآمن أو التقييد ، فإن ذلك سيعزز هذه الفكرة القائلة بأنه هو خطأ ، وغير مناسب ، وكبار ، ومنحرف ، وقذر."

الفشل في التعلم التلقائي

مع تاريخها الدنيء فيما يتعلق بمنشئي محتوى LGBTQ + على نظامها الأساسي ، لا تزال هناك مخاوف بشأن تنفيذ قدرة برنامج التعلم الآلي على تمييز معايير أكبر. دون هايدر ، المدير التنفيذي لمركز ماركولا للأخلاقيات التطبيقية ، يشير إلى أن احتمالية الحماقة هي مخاطر كبيرة للغاية للمقامرة.

كتب في مقابلة عبر البريد الإلكتروني: "من الصعب تصديق أن الذكاء الاصطناعي يمكنه التحكم بفعالية في المحتوى من بلدان متعددة بمعايير ومعايير ثقافية مختلفة". "غالبًا ما يُنظر إلى الذكاء الاصطناعي على أنه إجابة للأسئلة المعقدة. في هذه المرحلة ، يكافح الذكاء الاصطناعي وطريقة إنشائه للتعامل مع المهام البسيطة ، ناهيك عن أي تعديل للمحتوى بأي مستوى من التعقيد."

قرر YouTube استخدام تقنية الذكاء الاصطناعي بسبب عدم وجود اعتدال متسق من قبل المشرفين ، وفقًا لمدونته. أصبحت زيادة استخدام الفلاتر المحوسبة لإزالة مقاطع الفيديو التي تعتبر غير مناسبة هي القاعدة ، ويُنظر إلى تنفيذ نفس الإجراءات لسياسات تقييد العمر كخطوة منطقية تالية.

كشركة تسعى إلى تحسين عملياتها تدريجياً بعد انتقادات طويلة الأمد بشأن علاقتها بالمستهلكين الأطفال ، لم يكن هذا القرار مفاجئًا.

لا أعتقد أنهم فهموا الحاجة إلى وجود شفافية فيما يتعلق بالقضايا الاجتماعية وضمان المساواة.

أصبح الأطفال فئة ديموغرافية رئيسية لموقع مشاركة الفيديو. في آب (أغسطس) ، وجدت شركة Tubular لتحليلات الفيديو الرقمي أنه ، بصرف النظر عن مقاطع الفيديو الموسيقية ، يتصدر المحتوى الموجه للأطفال قائمة نهاية الشهر لمقاطع الفيديو الأكثر مشاهدة على YouTube.

اهتمام الشركة بحماية هذه القوة الناشئة المربحة على المنصة أمر منطقي. ومع ذلك ، فإن الأدوات المستخدمة لفرض هذه الحماية لا تزال مزعجة لأولئك الذين وجدوا أنفسهم بالفعل في نهاية إجراءات الإشراف في الشركة.

"ما يقلقني هو أنه سيلحق الكثير من الضرر ولن يحمي [LGBTQ +] الشباب الذين يحتاجون إلى محتوى إعلامي وصريح وصادق قد يقدمه الكثير من [LGBTQ +] على YouTube ، ولكن يتم الإبلاغ عنه في نظامه قال إليس."حتى لو لم يكن الأمر ضارًا ، وهو ما لا أعتقد أنه كذلك ، فهو نقص في المدخلات من الأصوات المتنوعة - أو على الأقل عدم الاحترام.

"نرى ذلك طوال الوقت في مجال التكنولوجيا. عندما تنظر في فشل التعرف على الوجه في التمييز بين الوجوه السوداء المختلفة ، أو عندما ننظر إلى الطب ونرى أن الدواء قد تم اختباره فقط على جنس معين. هذه هي محادثات أكبر ، ويوتيوب ليس مستثنى من ذلك"