حساب کاربری ندارید؟ ثبت نام کنید

اسکن عکس های آیفون و پیام های iMessage توسط اپل صحت دارد؟ قابلیت Child Safety اپل چیست؟

نوشته

2 سال قبل | بدون دیدگاه | اپل، تماشا کنید، حتما بخوانید

ویژگی Child Safety اپل این روزها خیلی سروصدا کرده است. خیلی ها می پرسند که آیا اسکن عکس های آیفون و پیام های iMessage توسط اپل صحت دارد؟ ما پیش از این مطالب خیلی خوبی در ترنجی پیرامون این موضوع داشته ایم و توصیه می کنم حتما آن ها را بخوانید. با این حال امشب می خواهیم در یک ویدیو به توضیح ساده مسائل بپردازیم و در نهایت پرسشی داشته باشیم که برای آینده فناوری مهم است.

اسکن عکس های آیفون و پیام های iMessage توسط اپل؟

ابتدا بیاید به تماشای ویدئو بنشینیم:

 

 

 

ویژگی جدید اپل پیرامون محافظت از کودکان چیست و چرا حساسیت‌ها نسبت به آن بالاست؟

اپل تلاش می کند تا با ارایه یک راه میان بر به قلب داده های هر کاربر، داده های اجتمالی آسیب زننده به کودکان را بررسی کند. این کار را از ۳ روش انجام می دهد:

  1. ۱- بررسی پیام های iMessage کودکان (کاربران زیر ۱۲ سال)
  2. ۲- محدود کردن اطلاعات پیرامون مصادیق مجرمانه جنسی کودکان در سیری و جستجو
  3. ۳- برررسی تصاویر آیفون، آیپد یا مک بوک شما که روی iCloud آپلود می شوند (به اصطلاح عمومی اسکن عکس های آیفون اما به صورت رمزنگاری شده و توسط هوش مصنوعی)

بررسی پیام های آیفون برای داده های جنسی احتمالی ارسال شده برای کودک شما یا ارسال شده توسط وی می تواند با ماهیت کنترل کننده بزرگسالان و والدین منطقی به نظر برسد. با این شاید اگر صدای کاربران زیر ۱۲ سال بلندتر بود یا نماینده ای داشتند، آن ها هم به این شرایط اعتراض می کردند.

این ویژگی به صورتی عمل می کند که اگر تصویر نامناسبی برای کودک شما ارسال شود (یا وی تلاش کند ارسال نماید) این تصویر در سمت گیرنده به صورت مات نشان داده می شود. اپل به کودک شما (کاربر زیر ۱۲ سال) توصیه می کند که این تصویر برای او مناسب نیست و نباید آن را ببیند.

اگر وی اقدام به دیدن آن کند، اپل بار دیگر هشدار می دهد که چرا نباید این محتوا را ببیند. اگر دوباره درخواست دیدن کند، به کودک گفته می شود که به والد تو اطلاع داده خواهد شد. در صورت موافقت نهایی، محتوا به کودک نشان داده شده و همزمان به والد او اطلاع داده می شود.

برای این ویژگی باید آیفون کودک و والد با یکدیگر هماهنگ شده باشند اما ارتباط نزدیک نیازی ندارد.

محدودیت Siri و جستجو در آیفون درباره مصادیق آزار جنسی کودکان (CSAM) می تواند مفید باشد. همچنین راهنمایی کاربران درباره گزارش چنین موارد می تواند مناسب واقع شود.

بررسی تصاویر آیفون، آیپد یا مک بوک شما که روی iCloud بک آپ گرفته می شوند با ارایه آپدیت جدید iOS 15 و دیگر سیستم عامل های جدید اپل صورت خواهد گرفت. این ویژگی فعلا در امریکا عمل می کند. همچنین سنجش مصادیق نامناسب جنسی برای یا سواستفاده جنسی از کودکان به صورت On Device و بر اساس پایگاه داده رمزنگاری شده امریکایی (که به صورت عمومی منتشر نشده است) صورت خواهد پذیرفت.

این ویژگی به آن صورت است که اگر اپل تصویری را با مصادیق محتوای آزار حنسی کودکان روی دستگاه شما پیدا کند (تصویری که می خواهد در آی-کلود بک آپ گرفته شود) آن را برچسب زده و آپلود می کند. اگر تعداد این تصاویر بیشتر از ۳۰ عدد شود، یک بررسی مجدد روی ابر می شود، اگر مشکلی وجود داشته باشد رمزگذاری شکسته شده و یک اپراتور انسانی آن را بررسی می کند. اگر بررسی ها صحیح باشد اکانت شما غیرفعال شده و به مراجع قانونی ارجاع داده می شوید.

مشخصا وقتی به جرم برزگ و مذمت شده ای مثل آزار جنسی کودکان فکر می کنید، قطعا این یک ویژگی دوست داشتنی است اما بیاید این جرم را به عنوان جرم A بنامیم! اینجا چند نگرانی وجود دارد که باید به آن ها پاسخ داده شود.

  1. ۱- حریم خصوصی
  2. ۲- ابزار کنترلی

درباره حریم خصوصی می توان گفت:

کاربر باید به صورت خصوصی بتواند اطلاعات دریافتی، ارسالی یا ذخیره شده روی دستگاه خود را، خود مشخص کند!

اگر ما صاحب یک دستگاه، یک ملک یا یک حریم خصوصی هستیم، باید روی آن اختیار داشته باشیم. اینکه وقتی من دستگاه را تهیه کرده ام اما اپل به من بگوید چه داده ای می توانی داشته باشید یا چه چیزی را می توانی روی سرویس من داشته باشی یا خیر، با حریم خصوصی من در تضاد است.

اینجا صحبت از اطلاعات خصوصی است نه اطلاعاتی که کاربر به صورت عمومی منتشر می کند!

توجه داشته باشید که این بررسی اطلاعات با بررسی اطلاعات عمومی منتشر شده در شبکه های اجتماعی متفاوت است. آن جا کاربران به اختیار خود تصاویر با صورت عمومی یا نیمه عمومی منتشر می کنند. با توجه به ماهیت رایگان این سرویس ها هم می شود یکی از راه های کسب درآمد را آنالیز داده کاربران دانست.

با این وجود شما یک آیفون (یا iDevice) می خرید. این موبایل هوشمند جز حریم خصوصی شما حساب می شود. همچنین هزینه استفاده از iCloud را پرداخته یا از حافظه محدود رایگان آن استفاده می کنید که به سبب خریدن آیفون به شما تعلق گرفته است.

اپل قفل گوشی تروریست ها را باز نمی کند اما به کنکاش گالری تصاویر آپلود شده کاربران آیفون، آیپد و مک بوک می پردازد!

اپل همان شرکتی که از تسهیل باز کردن قفل گوشی تروریستی که به ضرب گلوله ۵۰ نفر را کشت، خودداری کرد. این شرکت حالا می خواهد از قلب اطلاعات شما ورود کند و با مصادیق یک جرم واقعا بزرگ مقابله کند اما به چه قیمتی؟ زیرپا گذاشتن حریم خصوصی کاربران؟

درباره ابزار کنترلی می توان گفت:

قابلیت CSAM اپل

قابلیت CSAM اپل

چه تضمینی وجود دارد این فناوری برای جرائم دیگر استفاده نشود؟

لطفا توجه داشته باشید که اینجا موضوع حمایت از جرائم نیست اما چه تضمینی وجود دارد برای جرائم دیگر چنین فناوری استفاده نشود؟ مثلا برای مبارزه با تروریست؟ تروریست از نگاه هر قدرت، یک تعریف و یک گروه است. چطور باید برای آن مصادیق مشخص کرد؟

اگر این فناوری به اجبار دولت ها استفاده شود چطور؟

همانطور که ما دید نظارتی به کودکان داریم، دولت ها هم دید نظارتی به شهروندان. چه تضمینی وجود دارد که برای نظارت شهروندان توسط قدرت های برزگ، این درب پشتی باز نشود؟

این فناوری پیش از این هم استفاده شده است!

این فناوری به صورت مشابه در سرویس های گوگل، فیس بوک و … هم استفاده می شود. با این حال اپل به دلیل گستردگی مخاطبینش که عموما یک موبایل یعنی ابزار خصوصی دارند و برندی است که همیشه ادعای بالایی در زمینه حریم خصوصی دارد، بیشتر زیر ذره بین است.

نظر شما چیست؟ به صورت کلی باید چنین دسترسی و ابزار نظارتی وجود داشته باشد؟

به گفته قانون گذار آلمانی قابلیت CSAM اپل “بزرگترین ابزار نظارتی تاریخ” است

اشتراک در
اطلاع از
0 Comments
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
سینا عطایی
حال روزگارت به خودت بستگی داره :)