شركة Apple تؤخر ميزاتها الخاصة بسلامة الأطفال

انتقد المدافعون عن الخصوصية أدوات الكشف عن CSAM ، والتي كان من المفترض أن تصل إلى جانب تحديث iOS 15.

شركة Apple تؤخر ميزاتها الخاصة بسلامة الأطفال

قالت شركة Apple في منتصف شهر أغسطس (آب) الماضي ، إن ضعف التواصل أدى إلى حدوث ارتباك بشأن الميزات ، والتي أعلنت عنها قبل أسبوع بقليل. وأشار نائب رئيس الشركة الأول لهندسة البرمجيات ، كريج فيديريغي ، إلى أن نظام مسح الصور لديه "مستويات متعددة من قابلية التدقيق". ومع ذلك ، فإن شركة آبل تعيد التفكير في نهجها. لم تعلن عن جدول زمني جديد لطرح الميزات

وتقول شركة آبل إنها تؤخر طرح أدوات الكشف عن مواد الاعتداء الجنسي على الأطفال (CSAM) "لإجراء تحسينات" بعد رد النقاد. تتضمن الميزات ميزة تحلل صور iCloud بحثًا عن CSAM المعروفة ، الأمر الذي أثار قلقًا بين دعاة الخصوصية.

قالت شركة Apple في بيان لها "أعلنا الشهر الماضي عن خطط لميزات تهدف إلى المساعدة في حماية الأطفال من المحتالين الذين يستخدمون أدوات الاتصال لتجنيدهم واستغلالهم ، والحد من انتشار مواد الاعتداء الجنسي على الأطفال" . مجموعات المناصرة والباحثين وغيرهم ، قررنا تخصيص وقت إضافي خلال الأشهر المقبلة لجمع المدخلات وإجراء التحسينات قبل إطلاق ميزات سلامة الأطفال بالغة الأهمية هذه. "

وايضا خططت آبل لطرح أنظمة الكشف عن CSAM كجزء من تحديثات نظام التشغيل القادمة ، وهي iOS 15 و iPadOS 15 و watchOS 8 و macOS Monterey . ومن المتوقع أن تفرج الشركة عن هؤلاء في الأسابيع المقبلة. لم تدخل Apple في التفاصيل حول التحسينات التي قد تجريها. اتصلت Engadget بالشركة للتعليق.

تضمنت الميزات المخطط لها ميزة خاصة بالرسائل ، والتي ستُعلم الأطفال وأولياء أمورهم عندما تكتشف آبل أن الصور الجنسية الصريحة تتم مشاركتها في التطبيق باستخدام أنظمة التعلم الآلي على الجهاز. سيتم تعتيم مثل هذه الصور المرسلة إلى الأطفال وتتضمن تحذيرات. سيقوم Siri ووظائف البحث المضمنة في iOS و macOS بتوجيه المستخدمين الموجودين إلى الموارد المناسبة عندما يسأل شخص ما عن كيفية الإبلاغ عن CSAM أو يحاول إجراء عمليات بحث متعلقة بـ CSAM.

ربما تكون أداة iCloud Photos هي أكثر ميزات الكشف عن CSAM إثارة للجدل التي أعلنت عنها Apple. وتخطط لاستخدام نظام على الجهاز لمطابقة الصور مع قاعدة بيانات تجزئات صور CSAM المعروفة (نوع من البصمة الرقمية لمثل هذه الصور) التي يحتفظ بها المركز الوطني للأطفال المفقودين والمستغلين ومنظمات أخرى. من المفترض أن يتم هذا التحليل قبل تحميل الصورة على iCloud Photos. إذا اكتشف النظام CSAM وأكد المراجعون البشريون المطابقة يدويًا ، فستقوم Apple بتعطيل حساب الشخص وإرسال تقرير إلى NCMEC.

و زعمت شركة Apple أن هذا النهج سيوفر "مزايا الخصوصية على التقنيات الحالية لأن آبل لا تعرف سوى صور المستخدمين إذا كان لديهم مجموعة من CSAM المعروفة في حساب iCloud Photos الخاص بهم." ومع ذلك ، فقد كان دعاة الخصوصية في حالة غضب بشأن الخطوة المخطط لها.

يقترح البعض أن مسح صور CSAM يمكن أن يؤدي إلى تطبيق القانون أو تدفع الحكومات شركة آبل للبحث عن أنواع أخرى من الصور ربما ، على سبيل المثال ، لتضييق الخناق على المعارضين. باحثان من جامعة برينستون يقولان إنهما بنيا نظامًا مشابهًا يسمى التكنولوجيا "الخطرة". لقد كتبوا أن "نظامنا يمكن إعادة توظيفه بسهولة للمراقبة والرقابة. لم يقتصر التصميم على فئة معينة من المحتوى ؛ يمكن للخدمة ببساطة التبديل في أي قاعدة بيانات لمطابقة المحتوى ، ولن يكون الشخص الذي يستخدم هذه الخدمة أكثر حكمة .

كما دعا النقاد أيضًا شركة آبل لمخالفتها على ما يبدو موقف طويل الأمد لدعم خصوصية المستخدم. إنها مشهورة رفض فتح iPhone المستخدمة من قبل مطلق النار 2016 سان بيرناردينو ، انطلاقًا من a معركة قانونية مع مكتب التحقيقات الفدرالي.

هل استمتعت بهذا المقال؟ ابق على اطلاع من خلال الانضمام إلى النشرة الإخبارية لدينا!

التعليقات

You must be logged in to post a comment.

About Author

بكالوريوس تقنيه معلومات ( IT ) ،مهتم بالتكنولوجيا والانترنت ، مدون وكاتب ، مصور فوتوغرافي ، مبرمج ومطور برامج ، احب السفر والترحال والاستكشاف