آبل-تؤخر-ميزاتها-الخاصة-بسلامة-الأطفال

آبل تؤخر ميزاتها الخاصة بسلامة الأطفال

 

آبل تؤخر ميزاتها الخاصة بسلامة الأطفال

تقول شركة Apple إنها تؤخر طرح أدوات الكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM) “لإجراء تحسينات” بعد ردود فعل النقاد. تتضمن الميزات ميزة تحليل صور iCloud بحثًا عن CSAM المعروفة ، الأمر الذي أثار قلقًا بين دعاة الخصوصية.


تقول شركة Apple: “أعلنا الشهر الماضي عن خطط لميزات تهدف إلى المساعدة في حماية الأطفال من المحتالين الذين يستخدمون أدوات الاتصال لتجنيدهم واستغلالهم ، والحد من انتشار مواد الاعتداء الجنسي على الأطفال”. مجموعات المناصرة والباحثين وغيرهم ، قررنا تخصيص وقت إضافي خلال الأشهر المقبلة لجمع المدخلات وإجراء التحسينات قبل إطلاق ميزات سلامة الأطفال بالغة الأهمية هذه”. 


خططت Apple لطرح أنظمة الكشف عن CSAM كجزء من تحديثات نظام التشغيل القادمة ، وهي iOS 15 و iPadOS 15 و watchOS 8 و macOS Monterey. ومن المتوقع أن تفرج الشركة عن تحديثات نظام التشغيل القادمة في الأسابيع المقبلة.


تضمنت الميزات المخطط لها ميزة خاصة بالرسائل ، والتي ستُعلم الأطفال وأولياء أمورهم عندما تكتشف Apple أن الصور الجنسية الصريحة تتم مشاركتها في التطبيق باستخدام أنظمة التعلم الآلي على الجهاز. سيتم تعتيم مثل هذه الصور المرسلة إلى الأطفال وتتضمن تحذيرات. سيقوم Siri ووظائف البحث المضمنة في iOS و macOS بتوجيه المستخدمين الموجودين إلى الموارد المناسبة عندما يسأل شخص ما عن كيفية الإبلاغ عن CSAM أو يحاول إجراء عمليات بحث متعلقة بـ CSAM.