تنبؤات جرائم الذكاء الاصطناعي يمكن أن تتهم الأشخاص الخطأ

جدول المحتويات:

تنبؤات جرائم الذكاء الاصطناعي يمكن أن تتهم الأشخاص الخطأ
تنبؤات جرائم الذكاء الاصطناعي يمكن أن تتهم الأشخاص الخطأ
Anonim

الوجبات الجاهزة الرئيسية

  • يقال إن شركة برمجيات تجمع معلومات الوسائط الاجتماعية لإنشاء ملفات تعريف يمكن استخدامها لتحديد الأشخاص الذين يشكلون مخاطر أمنية.
  • أبرمت Voyager Labs صفقة مهمة مع وكالة حكومية يابانية.
  • لكن الخبراء يحذرون من أن برامج التنبؤ بالذكاء الاصطناعي يمكن أن تنخدع.
Image
Image

يمكن استخدام معلوماتك عبر الإنترنت للتنبؤ بما إذا كنت سترتكب جريمة.

يقال إن Voyager Labs تجمع معلومات وسائل التواصل الاجتماعي لإنشاء ملفات تعريف يمكن استخدامها لتحديد الأشخاص الذين يشكلون مخاطر أمنية.إنه جزء من جهد متزايد لاستخدام الذكاء الاصطناعي (AI) للتحقيق مع المجرمين المحتملين. لكن بعض الخبراء يقولون إن الحركة مليئة بالمشاكل المحتملة.

قال ماثيو كار ، الباحث الأمني في Atumcell Group ، لـ Lifewire في مقابلة عبر البريد الإلكتروني: "من الصعب جدًا التنبؤ بالسلوك البشري". "نحن لسنا قادرين حتى على التنبؤ بسلوكنا ، ناهيك عن سلوك شخص آخر. أعتقد أنه من الممكن استخدام الذكاء الاصطناعي في المستقبل لهذا الغرض ، لكننا بعيدون جدًا عن القدرة على القيام بذلك في الوقت الحالي."

إنشاء ملفات التعريف

كما ذكرت صحيفة الغارديان مؤخرًا ، نظرت إدارة شرطة لوس أنجلوس في استخدام برنامج التنبؤ بالجرائم الخاص بـ Voyager Lab. كما أعلنت الشركة أنها أبرمت صفقة مهمة مع وكالة حكومية يابانية.

توفر الاتفاقية اليابانية للوكالة الحكومية منصة تحقيق قائمة على الذكاء الاصطناعي تحلل كميات هائلة من المعلومات من أي مصدر ، بما في ذلك البيانات المفتوحة والعميقة.

"أنا سعيد لأننا نتعاون في مكافحة الإرهاب والجريمة" ، قالت ديفيا خانغاروت ، المدير الإداري لآسيا والمحيط الهادئ في Voyager Labs ، في البيان الصحفي. "باستخدام حلول الذكاء المتطورة من Voyager Lab ، يكتسب عملاؤنا إمكانات فريدة لتحديد التهديدات المحتملة بشكل استباقي وتعطيلها. إننا نقدم طبقات إضافية من الرؤى الاستقصائية العميقة باستخدام مزيج من الذكاء الاصطناعي ، والتعلم الآلي ، و OSINT للكشف عن المسارات المخفية والمعلومات المنتهكة ، والجهات السيئة.

ليست ذكية جدا؟

لكن في مقابلة عبر البريد الإلكتروني ، ألقى مات هيزي ، المؤسس المشارك لـ Ferret.ai ، والذي يستخدم أيضًا الذكاء الاصطناعي للتنبؤ بالجناة ، بظلال من الشك على بعض مزاعم Voyager Labs.

"هل هناك ارتباط واضح ، على سبيل المثال ، بين سجل الاعتقال والسلوك الإجرامي المستقبلي ، حيث توجد بقعة سوداء في الاختبار وتطور الورم؟" هو قال. "فكر في كل الالتباسات المحتملة التي حدثت في ذلك الاعتقال - في أي حي يعيش فيه الشخص ، وكمية ونوعية ، بل وتحيزات الشرطة في تلك المنطقة.عمر الشخص وجنسه ومظهره الجسدي ، كل هؤلاء لديهم تأثيرات متقاطعة على احتمال أن يكون لدى هذا الشخص سجل اعتقال ، منفصل تمامًا عن ميوله الفعلية لارتكاب الجريمة التي نحاول توقعها."

من المرجح أن يكون المدعى عليهم الذين لديهم محامين أفضل قادرين على منع السجلات من أن تصبح متاحة للجمهور ، على حد قول هيزي. تحد بعض الولايات القضائية من إصدار صور mugshots أو سجلات الاعتقال لحماية المتهم.

"سيتعلم الكمبيوتر بناءً على البيانات التي تقدمها ودمج جميع التحيزات التي دخلت في عملية جمع البيانات هذه …"

"كل هذا يضيف المزيد من التحيز للخوارزميات" ، أضاف. "سيتعلم الكمبيوتر بناءً على البيانات التي تقدمها ودمج جميع التحيزات التي دخلت في عملية جمع البيانات هذه في التعلم والتفسير."

قال هيسيكانت هناك عدة محاولات لخلق جرائم تتنبأ بالذكاء الاصطناعي ، ونتائج فاضحة في كثير من الأحيان.

COMPAS ، وهي خوارزمية يستخدمها تطبيق القانون للتنبؤ بإعادة الإجرام ، غالبًا ما تستخدم في تحديد الحكم والكفالة. لقد واجهت فضيحة تعود إلى عام 2016 بسبب التحيز العنصري ، وتوقعت أن المتهمين السود يشكلون خطرًا أكبر من العودة إلى الإجرام أكثر مما فعلوا بالفعل ، والعكس بالنسبة للمتهمين البيض.

تحدث أكثر من 1000 عالم وباحث ، بما في ذلك الأكاديميون وخبراء الذكاء الاصطناعي من هارفارد ومعهد ماساتشوستس للتكنولوجيا وجوجل ومايكروسوفت ، في عام 2020 ضد ورقة تدعي أن الباحثين طوروا خوارزمية يمكنها التنبؤ بالإجرام بناءً على وجه الشخص ، قائلاً إن نشر مثل هذه الدراسات يعزز التحيز العنصري الموجود مسبقًا في نظام العدالة الجنائية ، كما أشار هيسي.

Image
Image

الصين هي السوق الأكبر والأسرع نموًا لهذا النوع من التكنولوجيا ، ويرجع ذلك أساسًا إلى الوصول الواسع إلى البيانات الخاصة ، مع أكثر من 200 مليون كاميرا مراقبة وأبحاث الذكاء الاصطناعي المتقدمة التي تركز على هذه المشكلة لسنوات عديدة ، كما قال هيزي.تُستخدم الآن أنظمة مثل CloudWalk's Police Cloud للتنبؤ بالمجرمين وتعقبهم وتحديد تطبيق القانون.

قال هيزي"ومع ذلك ، تم الإبلاغ عن تحيزات كبيرة هناك أيضًا".

أضاف Heisie أن شركته تنظم بعناية البيانات التي تدخل ولا تستخدم صور mugshot أو سجلات الاعتقال ، "تركز بدلاً من ذلك على معايير أكثر موضوعية".

"لقد تعلم الذكاء الاصطناعي لدينا من البيانات المنسقة ، ولكن الأهم من ذلك ، أنه يتعلم أيضًا من الأشخاص ، الذين يقومون بأنفسهم بتحليل السجلات وتنظيمها وتقييمها ، ويخبروننا عن تفاعلاتهم مع الآخرين" ، أضاف. "نحافظ أيضًا على شفافية كاملة ووصول مجاني وعام إلى تطبيقنا (بأسرع ما يمكننا السماح لهم في الإصدار التجريبي) ، ونرحب بإلقاء نظرة ثاقبة على عملياتنا وإجراءاتنا."

موصى به: