امروز، کمپانی اپل بیسروصدا تمام موارد ذکر شده برنامه CSAM را از صفحه وبسایت رسمی مخصوص محافظت از کودکان خود حذف کرده است. با این حال، این شرکت اطمینان داده که طرح بحثبرانگیز آنها برای شناسایی تصاویر سوءاستفاده جنسی از کودکان در آیفون و آیپد تغییری نکرده و انتشار آن تنها مدتی بهتعویق خواهد افتاد.
اپل در ماه آگوست مجموعه برنامهریزیشدهای از ویژگیهای جدید ایمنی کودکان را معرفی کرد، ازجمله اسکن کتابخانههای iCloud Photos کاربران برای مواد سوءاستفاده جنسی از کودکان (CSAM)، ایمنی ارتباطات برای هشدار به کودکان و والدین آنها هنگام دریافت یا ارسال عکسهای غیراخلاقی جنسی و راهنمای گسترشیافته CSAM در سیری.
پس از معرفی، این ویژگیها توسط طیف گستردهای از افراد و سازمانها، ازجمله محققان امنیتی، ادوارد اسنودن افشاگر مشهور حریم خصوصی، بنیاد مرزهای الکترونیکی (EFF)، رئیس سابق امنیت فیسبوک، سیاستمداران، گروههای سیاستگذاری، محققان دانشگاه و حتی برخی از خود کارمندان اپل موردانتقاد قرار گرفت.
اکثر انتقادها متوجه تشخیص CSAM روی دستگاه اپل بود که توسط محققان بهدلیل تکیهبر فناوری خطرناکی که با نظارت گسترده همراه بود، موردانتقاد قرار گرفت و بهدلیل ناکارآمدی در شناسایی تصاویر سوءاستفاده جنسی از کودکان مورد تمسخر قرار گرفت.
اپل درابتدا با انتشار اطلاعات دقیق، اشتراکگذاری پرسشهای متداول، اسناد جدید مختلف، مصاحبه با مدیران شرکت و موارد دیگر سعی در رفع برخی سوءتفاهمها و اطمینان دادن به کاربران داشت تا نگرانیها را برطرف کند.
با این حال، علیرغم تلاشهای اپل، این جنجال از بین نرفت. اپل درنهایت با عرضه ویژگیهای ایمنی ارتباطات برای پیامها پیش رفت که در اوایل این هفته با انتشار iOS 15.2 فعال شد، اما درنهایت این شرکت تصمیم گرفت انتشار CSAM را بهدنبال سیل انتقاداتی که بهوضوح پیشبینی آنها را نمیکرد، بهتعویق بیندازد.
اپل بهصورت رسمی بیان کرده است که تصمیمش برای تأخیر «براساس بازخورد مشتریان، گروههای مدافع، محققان و دیگران است… ما تصمیم گرفتهایم در ماههای آینده زمان بیشتری را برای جمعآوری اطلاعات و ایجاد بهبودها قبل از انتشار این ویژگیهای حیاتی ایمنی کودک اختصاص دهیم».
بیانیه فوق مدتی قبل به صفحه ایمنی کودکان اپل اضافه شد، اما اکنون همراه با تمام ارجاعات مربوط به برنامه CSAM حذف شده است که این تصمیم، احتمال این فرضیه را افزایش میدهد که اپل قصد داشته (و یا دارد) این طرح را بهکلی کنار بگذارد.
نظر شما درباره حذف ارجاعات به برنامه CSAM از وبسایت رسمی محافظت از کودکان اپل چیست؟