.

أطلقت Apple نظامًا لمنع تحميل صور الاعتداء الجنسي على الأطفال

دستور نيوز6 أغسطس 2021
أطلقت Apple نظامًا لمنع تحميل صور الاعتداء الجنسي على الأطفال

ألدستور

شعار شركة آبل. رويترز كاليفورنيا (رويترز) – 06/08/2021. 07:41 أعلنت شركة Apple يوم الخميس أنها ستنفذ نظامًا لفحص الصور على أجهزة iPhone في الولايات المتحدة قبل تحميلها على خدمة التخزين iCloud للتأكد من أنها لا تحتوي على صور استغلال جنسي للأطفال. قالت الشركة إنها إذا اكتشفت أن مثل هذه الصور يتم تحميلها على iCloud ، فسوف تقوم بمراجعتها وإبلاغ مسؤولي إنفاذ القانون عن المستخدم قبل تعليق حسابهم. يستجيب نظام Apple الجديد لطلبات سلطات إنفاذ القانون للمساعدة في وقف الاعتداء الجنسي على الأطفال مع احترام الخصوصية ، وهو مبدأ أساسي للعلامة التجارية للشركة. مع هذا النظام ، تنضم Apple إلى معظم شركات التكنولوجيا الكبرى ، مثل Alphabet’s Google و Facebook و Microsoft ، والتي تقوم بالفعل بمسح الصور عن طريق مطابقتها مع قاعدة بيانات لصور الاستغلال الجنسي للأطفال المعروفة. “مع وجود الكثير من الأشخاص الذين يستخدمون منتجات Apple ، فإن تدابير السلامة الجديدة هذه لديها القدرة على إنقاذ حياة الأطفال الذين يتم إغواءهم على الإنترنت والذين تتم مشاركة صورهم الجنسية المروعة … يمكن أن تساعد الخصوصية وحماية الأطفال في إنقاذ الأرواح” ، قال جون كلارك وقال الرئيس التنفيذي للمركز الوطني للأطفال المفقودين والمستغلين في بيان. في الواقع ، إنهم يتعايشون “. مخاوف بشأن تأثير النظام الجديد على الخصوصية ستخزن Apple قاعدة بيانات لصور الاستغلال الجنسي للأطفال على هواتف iPhone. عندما يقوم المستخدم بتحميل صورة إلى iCloud ، يصدر الهاتف فورًا رمزًا رقميًا للصورة ويقارنها بقاعدة البيانات المذكورة أعلاه. قد ينتهي حساب المستخدم الذي يحمل مثل هذه الصور بالتعليق. لكن شركة آبل قالت إن المستخدمين الذين يشعرون بتعليق حساباتهم دون سبب وجيه يمكنهم استئناف هذا القرار واستعادتها. لكن المدافعين عن الخصوصية قالوا إن النظام يمكن أن يفتح الباب أمام مراقبة الخطاب السياسي وأشكال المحتوى الأخرى على أجهزة iPhone. .

أطلقت Apple نظامًا لمنع تحميل صور الاعتداء الجنسي على الأطفال

– الدستور نيوز

.