يضيف أحدث إصدار تجريبي من iOS 15.2 ميزة أمان اتصالات Apple إلى تطبيق الرسائل ، تم تصميم ميزة الاشتراك لحماية الأطفال من الصور غير الملائمة عن طريق مسح الصور الواردة والصادرة بحثًا عن مواد "جنسية صريحة".
أمان الاتصالات هي ميزة مشاركة عائلية يمكن للوالدين تمكينها ، ويتم تمكينها بدلاً من تنشيطها افتراضيًا. عند تشغيله ، يكون تطبيق الرسائل قادرًا على اكتشاف العري في الصور التي يرسلها الأطفال أو يستقبلونها. إذا تلقى طفل أو حاول إرسال صورة بها عُري ، فسيتم تعتيم الصورة وسيتم تحذير الطفل بشأن المحتوى ، وإخباره بأنه لا بأس من عدم عرض الصورة ، وعرض موارد للاتصال بشخص يثق به للحصول على المساعدة.
عندما تم الإعلان عن سلامة الاتصالات لأول مرة ، قالت آبل إن آباء الأطفال الذين تقل أعمارهم عن 13 عامًا لديهم خيار تلقي إشعار إذا شاهد الطفل صورة عارية في الرسائل ، ولكن بعد تلقي التعليقات ، قامت آبل بإزالة هذه الميزة. تقول آبل الآن أنه لا يتم إرسال أي إشعارات إلى الآباء. ستقدم آبل بدلاً من ذلك إرشادات حول الحصول على المساعدة من شخص بالغ موثوق به في موقف يتضمن صورًا عارية.
يتم التحقق من العري في الصور على الجهاز ، مع تحليل الرسائل المرفقات بالصور. لا تؤثر هذه الميزة على التشفير من طرف إلى طرف للرسائل ، ولا يترك الجهاز أي مؤشر على اكتشاف العري. وليس لشركة آبل حق الوصول إلى الرسائل.
يختلف أمان الاتصالات عن ميزة اكتشاف صور الاعتداء الجنسي على الأطفال (CSAM) التي تقوم بمسح صور iCloud للمستخدم والإبلاغ عن المحتوى المسيء لمشرفي Apple ، والتي تسببت في الجزء الأكبر من الاحتجاج من دعاة الخصوصية.
هناك أيضًا تحديث قادم إلى بحث Siri مصمم لتقديم موارد إذا كان المستخدم يبحث عن مواضيع تتعلق بالاعتداء الجنسي على الأطفال. ليس من الواضح حاليًا متى يتم التخطيط لإصدار هاتين الميزتين ، ولم ترد تقارير عن ظهورهما في برنامج آبل التجريبي العام.
تجدر الإشارة إلى أن الميزات المضافة إلى الإصدار التجريبي الأحدث من iOS 15.2 لا يزال من الممكن أن تتغير بشكل كبير قبل إصدارها الرسمي ، وقد تتم إزالتها من التحديث بالكامل. تشمل الميزات الجديدة الأخرى التي وصلت في أحدث إصدار تجريبي ميزة مسح AirTag يدويًا ، بالإضافة إلى خيار نقل بيانات iCloud الخاصة بك إلى أحد أفراد أسرتك في حالة وفاتك.
ليست هناك تعليقات:
إرسال تعليق