ویژگی Child Safety اپل این روزها خیلی سروصدا کرده است. خیلی ها می پرسند که آیا اسکن عکس های آیفون و پیام های iMessage توسط اپل صحت دارد؟ ما پیش از این مطالب خیلی خوبی در ترنجی پیرامون این موضوع داشته ایم و توصیه می کنم حتما آن ها را بخوانید. با این حال امشب می خواهیم در یک ویدیو به توضیح ساده مسائل بپردازیم و در نهایت پرسشی داشته باشیم که برای آینده فناوری مهم است.
ابتدا بیاید به تماشای ویدئو بنشینیم:
ویژگی جدید اپل پیرامون محافظت از کودکان چیست و چرا حساسیتها نسبت به آن بالاست؟
اپل تلاش می کند تا با ارایه یک راه میان بر به قلب داده های هر کاربر، داده های اجتمالی آسیب زننده به کودکان را بررسی کند. این کار را از ۳ روش انجام می دهد:
بررسی پیام های آیفون برای داده های جنسی احتمالی ارسال شده برای کودک شما یا ارسال شده توسط وی می تواند با ماهیت کنترل کننده بزرگسالان و والدین منطقی به نظر برسد. با این شاید اگر صدای کاربران زیر ۱۲ سال بلندتر بود یا نماینده ای داشتند، آن ها هم به این شرایط اعتراض می کردند.
این ویژگی به صورتی عمل می کند که اگر تصویر نامناسبی برای کودک شما ارسال شود (یا وی تلاش کند ارسال نماید) این تصویر در سمت گیرنده به صورت مات نشان داده می شود. اپل به کودک شما (کاربر زیر ۱۲ سال) توصیه می کند که این تصویر برای او مناسب نیست و نباید آن را ببیند.
اگر وی اقدام به دیدن آن کند، اپل بار دیگر هشدار می دهد که چرا نباید این محتوا را ببیند. اگر دوباره درخواست دیدن کند، به کودک گفته می شود که به والد تو اطلاع داده خواهد شد. در صورت موافقت نهایی، محتوا به کودک نشان داده شده و همزمان به والد او اطلاع داده می شود.
برای این ویژگی باید آیفون کودک و والد با یکدیگر هماهنگ شده باشند اما ارتباط نزدیک نیازی ندارد.
محدودیت Siri و جستجو در آیفون درباره مصادیق آزار جنسی کودکان (CSAM) می تواند مفید باشد. همچنین راهنمایی کاربران درباره گزارش چنین موارد می تواند مناسب واقع شود.
بررسی تصاویر آیفون، آیپد یا مک بوک شما که روی iCloud بک آپ گرفته می شوند با ارایه آپدیت جدید iOS 15 و دیگر سیستم عامل های جدید اپل صورت خواهد گرفت. این ویژگی فعلا در امریکا عمل می کند. همچنین سنجش مصادیق نامناسب جنسی برای یا سواستفاده جنسی از کودکان به صورت On Device و بر اساس پایگاه داده رمزنگاری شده امریکایی (که به صورت عمومی منتشر نشده است) صورت خواهد پذیرفت.
این ویژگی به آن صورت است که اگر اپل تصویری را با مصادیق محتوای آزار حنسی کودکان روی دستگاه شما پیدا کند (تصویری که می خواهد در آی-کلود بک آپ گرفته شود) آن را برچسب زده و آپلود می کند. اگر تعداد این تصاویر بیشتر از ۳۰ عدد شود، یک بررسی مجدد روی ابر می شود، اگر مشکلی وجود داشته باشد رمزگذاری شکسته شده و یک اپراتور انسانی آن را بررسی می کند. اگر بررسی ها صحیح باشد اکانت شما غیرفعال شده و به مراجع قانونی ارجاع داده می شوید.
مشخصا وقتی به جرم برزگ و مذمت شده ای مثل آزار جنسی کودکان فکر می کنید، قطعا این یک ویژگی دوست داشتنی است اما بیاید این جرم را به عنوان جرم A بنامیم! اینجا چند نگرانی وجود دارد که باید به آن ها پاسخ داده شود.
درباره حریم خصوصی می توان گفت:
اگر ما صاحب یک دستگاه، یک ملک یا یک حریم خصوصی هستیم، باید روی آن اختیار داشته باشیم. اینکه وقتی من دستگاه را تهیه کرده ام اما اپل به من بگوید چه داده ای می توانی داشته باشید یا چه چیزی را می توانی روی سرویس من داشته باشی یا خیر، با حریم خصوصی من در تضاد است.
توجه داشته باشید که این بررسی اطلاعات با بررسی اطلاعات عمومی منتشر شده در شبکه های اجتماعی متفاوت است. آن جا کاربران به اختیار خود تصاویر با صورت عمومی یا نیمه عمومی منتشر می کنند. با توجه به ماهیت رایگان این سرویس ها هم می شود یکی از راه های کسب درآمد را آنالیز داده کاربران دانست.
با این وجود شما یک آیفون (یا iDevice) می خرید. این موبایل هوشمند جز حریم خصوصی شما حساب می شود. همچنین هزینه استفاده از iCloud را پرداخته یا از حافظه محدود رایگان آن استفاده می کنید که به سبب خریدن آیفون به شما تعلق گرفته است.
اپل همان شرکتی که از تسهیل باز کردن قفل گوشی تروریستی که به ضرب گلوله ۵۰ نفر را کشت، خودداری کرد. این شرکت حالا می خواهد از قلب اطلاعات شما ورود کند و با مصادیق یک جرم واقعا بزرگ مقابله کند اما به چه قیمتی؟ زیرپا گذاشتن حریم خصوصی کاربران؟
درباره ابزار کنترلی می توان گفت:
لطفا توجه داشته باشید که اینجا موضوع حمایت از جرائم نیست اما چه تضمینی وجود دارد برای جرائم دیگر چنین فناوری استفاده نشود؟ مثلا برای مبارزه با تروریست؟ تروریست از نگاه هر قدرت، یک تعریف و یک گروه است. چطور باید برای آن مصادیق مشخص کرد؟
همانطور که ما دید نظارتی به کودکان داریم، دولت ها هم دید نظارتی به شهروندان. چه تضمینی وجود دارد که برای نظارت شهروندان توسط قدرت های برزگ، این درب پشتی باز نشود؟
این فناوری به صورت مشابه در سرویس های گوگل، فیس بوک و … هم استفاده می شود. با این حال اپل به دلیل گستردگی مخاطبینش که عموما یک موبایل یعنی ابزار خصوصی دارند و برندی است که همیشه ادعای بالایی در زمینه حریم خصوصی دارد، بیشتر زیر ذره بین است.
نظر شما چیست؟ به صورت کلی باید چنین دسترسی و ابزار نظارتی وجود داشته باشد؟
به گفته قانون گذار آلمانی قابلیت CSAM اپل “بزرگترین ابزار نظارتی تاریخ” است