قد يهمك

كل ما تريد معرفته حول مميزات سلامة الأطفال من آبل

أعلنت شركة آبل مؤخرًا عن إجراءات حماية جديدة لسلامة الأطفال تأتي هذا الخريف بالتزامن مع الإطلاق التحديث الرسمي والنهائي المستقر لأنظمة iOS 15 و iPadOS 15 و macOS Monterey، وفي هذه المقالة سنلقي نظرة فاحصة على مميزات سلامة الأطفال هذه، والتقنية التي تقف وراءها.

البحث عن مواد الاعتداء الجنسي على الأطفال

التغيير الأبرز هو أن شركة آبل ستبدأ في إستخدام تقنية جديدة لإكتشاف الصور التي تظهر إساءة معاملة الأطفال المخزنة في iCloud Photos، وتُعرف هذه الصور بمواد الإعتداء الجنسي على الأطفال أو CSAM.

في حالة إكتشاف هذه الصور، ستقوم شركة آبل بالإبلاغ عنها إلى المركز الوطني للأطفال المفقودين والمستغلّين، في حين أن هذه الميزة ستقتصر فقط على الولايات المتحدة الأمريكية عند الإطلاق.

تقول آبل أن النظام يستخدم التشفير وقد تم تصميمه مع مراعاة الخصوصية، ويتم فحص الصور على جهاز المستخدم قبل رفعها إلى الخدمة السحابية iCloud Photos.

وفقًا لشركة آبل، لا داعي للقلق بشأن رؤية موظفي آبل للصور الشخصية للمستخدمين، حيث يتم تحويل الصور إلى سلسلة طويلة وفريدة من الحروف والأرقام بحيث تكون غير قابلة للقراءة إلا للتقنية.

قبل أن تتم مزامنة الصور مع آيكلاود، يتم فحصها على أجهزة المستخدم بإستخدام تقنية تشفير خاصة، وتحدد التقنية ما إذا كانت الصور تطابق نتيجة البحث وتحتوي بالفعل على مواد الإعتداء الجنسي على الأطفال.

في حالة وجود تطابق، سيقوم الجهاز بإنشاء قسيمة أمان مشفرة تقوم بترميز المطابقة إلى جانب المزيد من البيانات المشفرة حول الصورة، ويتم إبلاغ الجهة المعنية بخصوصها داخل شركة آبل أولًا ويتم مراجعتها يدويًا للتأكد من التطابق قبل إبلاغ المركز الوطني للأطفال المفقودين والمستغلّين، وقالت الشركة أن التقنية توفر قدرًا كبيرًا من الدقة، وتضمن أقل من واحد من كُل ترليون فرصة للإبلاغ عن حساب بشكل غير صحيح.

قالت شركة آبل أيضًا أن هناك عملية إستئناف إذا شعر المستخدم أنه تم الإبلاغ عن حسابه بواسطة هذه التقنية عن طريق الخطأ، إضافة إلى أنه لن يتم فحص أي صور بإستخدام هذه التقنية إذا قمت بتعطيل مزامنة الصور مع آيكلاود، ويُمكنك تعطيل المزامنة في أي وقت من خلال الإعدادات > آيكلاود.







وضع القراءة :
حجم الخط
+
16
-
تباعد السطور
+
2
-