بعد الكثير من المعارضة من قبل النقاد والمستخدمين على حد سواء ، آبل تؤخر إجراءاتها لمكافحة إساءة معاملة الأطفال.
في أغسطس ، أعلن عملاق التكنولوجيا في البداية عن سياسة جديدة تستخدم التكنولوجيا لاكتشاف الصور المحتملة لإساءة معاملة الأطفال في iCloud والرسائل ، لكن المخاوف اتبعت ذلك. حذر الخبراء من أنه على الرغم من أن Apple وعدت بخصوصية المستخدم ، إلا أن التكنولوجيا ستعرض جميع مستخدمي Apple في النهاية للخطر.
يوم الجمعة ، قالت شركة Apple إنها ستؤخر طرح التكنولوجيا تمامًا لإجراء تحسينات وضمان خصوصية المستخدم تمامًا.
"استنادًا إلى التعليقات الواردة من العملاء ومجموعات المناصرة والباحثين وغيرهم ، قررنا تخصيص وقت إضافي خلال الأشهر المقبلة لجمع المدخلات وإجراء التحسينات قبل إطلاق ميزات سلامة الأطفال بالغة الأهمية هذه ،" قالت شركة Apple في تقرير بيان محدث على موقعه على الإنترنت.
كان من المفترض أن تصبح تقنية الكشف عن مواد الاعتداء الجنسي على الأطفال متاحة في وقت لاحق من هذا العام في طرح iOS 15 ، ولكن لم يتضح الآن متى أو ما إذا كانت الميزة ستظهر لأول مرة.
ستعمل التقنية الجديدة بطريقتين: أولاً ، عن طريق مسح الصورة ضوئيًا قبل نسخها احتياطيًا إلى iCloud. إذا كانت هذه الصورة تتطابق مع معايير CSAM ، فستتلقى Apple تلك البيانات. يستخدم الجزء الآخر من التكنولوجيا التعلم الآلي لتحديد وتمويه الصور الجنسية الصريحة التي يتلقاها الأطفال من خلال الرسائل.
ومع ذلك ، بعد الإعلان عن السياسة الجديدة ، قال دعاة الخصوصية والجماعات إن Apple تفتح بشكل أساسي بابًا خلفيًا قد يسيء الفاعلون السيئون استخدامه.
لمعالجة هذه المخاوف ، أصدرت Apple صفحة الأسئلة الشائعة بعد وقت قصير من الإعلان عن تقنية CSAM. أوضحت شركة آبل أن التقنية لن تقوم بمسح جميع الصور المخزنة على الجهاز ، ولن تقوم بكسر التشفير التام بين الطرفين في الرسائل ، ولن تقوم بإبلاغ الأشخاص الأبرياء بشكل خاطئ إلى جهات إنفاذ القانون.