أبل تتصدى للمخاوف بشأن التدابير الجديدة لمكافحة إساءة معاملة الأطفال

أبل تتصدى للمخاوف بشأن التدابير الجديدة لمكافحة إساءة معاملة الأطفال
أبل تتصدى للمخاوف بشأن التدابير الجديدة لمكافحة إساءة معاملة الأطفال
Anonim

تشرح Apple المزيد عن العملية المتضمنة في إجراءاتها الجديدة لمكافحة إساءة معاملة الأطفال.

أعلن عملاق التكنولوجيا عن سياسة جديدة الأسبوع الماضي تستخدم التكنولوجيا لاكتشاف الصور المحتملة لإساءة معاملة الأطفال في iCloud والرسائل. ذكرت The Verge أن Apple أصدرت صفحة الأسئلة الشائعة في الأيام الأخيرة تشرح كيفية استخدام التكنولوجيا وكيف تبدو جوانب الخصوصية بعد أن أعرب الأشخاص عن مخاوفهم بشأن الإجراءات الجديدة.

Image
Image

قالت Apple إن تقنيتها تقتصر على وجه التحديد على اكتشاف مواد الاعتداء الجنسي على الأطفال (CSAM) ولا يمكن تحويلها إلى أدوات مراقبة.

كتبت آبل في صفحة الأسئلة الشائعة الجديدة: "أحد التحديات المهمة في هذا المجال هو حماية الأطفال مع الحفاظ على خصوصية المستخدمين أيضًا".

"باستخدام هذه التقنية الجديدة ، ستتعرف Apple على صور CSAM المعروفة التي يتم تخزينها في iCloud Photos حيث يخزن الحساب مجموعة من CSAM المعروفة. لن تتعلم Apple أي شيء عن البيانات الأخرى المخزنة على الجهاز فقط."

تعمل التقنية عن طريق مسح الصورة ضوئيًا قبل نسخها احتياطيًا على iCloud. ثم ، إذا كانت الصورة تتطابق مع معايير CSAM ، فإن Apple تتلقى بيانات قسيمة التشفير.

أعربت مجموعات مثل Electronic Frontier Foundation عن مخاوفها بشأن التكنولوجيا الأسبوع الماضي ، قائلة إن التكنولوجيا يمكن "إعادة استخدامها لإنشاء قاعدة بيانات للمحتوى" الإرهابي "يمكن للشركات المساهمة فيه والوصول إليه لغرض حظر مثل هذا المحتوى."

أحد التحديات المهمة في هذا الفضاء هو حماية الأطفال مع الحفاظ أيضًا على خصوصية المستخدمين.

ومع ذلك ، تعالج صفحة الأسئلة الشائعة التفصيلية الخاصة بشركة Apple بعض هذه المخاوف من خلال توضيح أن التقنية لن تقوم بمسح جميع الصور المخزنة على الجهاز ، ولن تكسر التشفير من طرف إلى طرف في الرسائل ، وأنها لن تفعل ذلك قم بالإبلاغ زوراً عن أشخاص أبرياء لتطبيق القانون.

لاحظ The Verge أن الأسئلة الشائعة من Apple لا تعالج المخاوف التي أثيرت بشأن التكنولوجيا المستخدمة لمسح الرسائل وكيف تضمن الشركة أن المسح يركز فقط على CSAM.

موصى به: