أبل تتعقب صور الأطفال الإباحية في آيفون.. تمسحها ثم تُبلغ

[ad_1]

وبحسب صحيفة “غارديان”، فإن الشركة الأميركية العملاقة تتجه أيضا لأول مرة إلى مراقبة محتوى الرسائل التي يجري إرسالها عبر التشفير التام أو ما يعرف بـ”end to end”.

وتبدي جماعات حقوقية ترحيبا بهذه الخطوة الساعية إلى حماية الأطفال من الاستغلال، لكنها تبدي المخاوف أيضا من انتهاك خصوصية المستخدمين.

وعند إطلاق هذه التقنية المسماة “نيورال ماتش”، سيجري فحص الصور قبل حفظها في منصة التخزين السحابي “آيكلاود”.

وفي حال نبه هذا الفحص الآلي إلى وجود تطابق كبير بين الصور التي يراد تخزينها، وبين صور اعتداءات على الأطفال موجودة في قاعدة البيانات، فإن “أبل” يصبح بحقها، وقتئذ، أن تقوم بمراجعة الأمر عن طريق طاقمها.

وإذا تأكد أن الأمر يتعلق فعلا بصور إباحية للأطفال، فإن شركة “أبل” تقوم بتوقيف حساب المستخدم، ثم تبلغ المركز الوطني الأميركي للأطفال المفقودين والمستغلين.

لكن شركة “أبل” ستعتمد فقط على المقارنة مع الصور الموجودة في قاعدة بيانات المركز الوطني الأميركي للأطفال المفقودين والمستغلين.

 ويقول خبراء إن هذه التقنية دقيقة، لأنها تعتمد على قاعدة بيانات موجودة لدى مؤسسة رسمية، وبالتالي، لا داعي إلى قلق الآباء الذين يلتقطون صورا لأبنائهم الصغار وهم يستحمون، لأن هذه الصور لن يجري النظر إليها كمحتوى إباحي.

وهذا النظام الآلي لا يطلع على الصور بشكل مباشر، وإنما يعتمد على بصمات رياضية تمثل المحتوى أو الصورة من أجل رصد أي تطابق.

لكن المشكلة، بحسب ناشطين، هي أن هذا النظام الذي يحمي الأطفال ربما يجري تسخيره من أجل الإضرار بالمستخدمين.

ويوضح الباحث في شؤون التشفير بجامعة جونز هوبكنز، ماثيو غرين، إن هذه الطريقة قد تستخدم من أجل الإضرار بأناس أبرياء، من خلال إرسال صور تبدو بريئة من حيث الظاهر، لكنها ستشير آليا إلى تطابق مع الصور الإباحية، إذا تم فحصها من قبل نظام “أبل”.

وإلى جانب تقنية “نيورال ماتش”، تتجه “آبل” إلى فحص رسائل المستخدمين المشفرة عبر منصة “آي ماسج”، من أجل تعقب الصور الإباحية بشكل آلي، وهو ما يتيح للآباء أن يطلقوا خاصية تحذف هذا المحتوى المؤذي بشكل تلقائي من هواتف أبنائهم.

 



[ad_2]