بر اساس بیانیهای که با WIRED بهاشتراک گذاشته شده است، اپل امروز اعلام کرد که از برنامه بحثبرانگیز خود برای شناسایی مواد شناختهشده سوءاستفاده جنسی از کودکان (CSAM) که در iCloud Photos ذخیره میشود، صرفنظر کرده است.
بیانیه کامل اپل به شرح زیر است:
«پس از مشاوره گسترده با کارشناسان برای جمعآوری بازخورد در مورد طرحهای حمایت از کودکان که سال گذشته پیشنهاد دادیم، سرمایهگذاری خود را در ویژگی ایمنی ارتباطات که برای اولین بار در دسامبر 2021 در دسترس قرار دادیم، عمیقتر میکنیم. همچنین تصمیم گرفتهایم تا CSAM را متوقف کنیم. کودکان را میتوان بدون استفاده از اطلاعات شخصی توسط شرکتها محافظت کرد و ما به همکاری با دولتها، حامیان کودکان و سایر شرکتها برای کمک به محافظت از جوانان، حفظ حریم خصوصی آنها و تبدیل اینترنت به مکانی امن برای کودکان و همه ادامه خواهیم داد.»
در آگوست 2021، اپل برنامههای خود را برای سه ویژگی جدید ایمنی کودکان اعلام کرد، ازجمله سیستمی برای شناسایی تصاویر CSAM ذخیرهشده در iCloud Photos، یک گزینه ایمنی ارتباطات که عکسهای غیراخلاقی جنسی را در برنامه پیامها محو میکند و منابع سوءاستفاده از کودکان. Communication Safety در دسامبر 2021 با iOS 15.2 در ایالاتمتحده راهاندازی شد و از آن زمان به بریتانیا، کانادا، استرالیا و نیوزلند گسترش یافته است و منابع Siri نیز در دسترس هستند، اما ویژگی تشخیص CSAM هرگز راهاندازی نشد.
اپل در ابتدا اعلام کرد که تشخیص CSAM در بهروزرسانی iOS 15 و iPadOS 15 تا پایان سال 2021 اجرا میشود، اما این شرکت درنهایت این ویژگی را براساس «بازخورد مشتریان، گروههای مدافع، محققان و دیگران» بهتعویق انداخت. اکنون، پس از یک سال سکوت، اپل برنامههای شناسایی CSAM را به کلی کنار گذاشته است.
اپل قول داده است که سیستم تشخیص CSAM خود “با درنظر گرفتن حریم خصوصی کاربر طراحی شده است.” این سیستم میتوانست «تطابق روی دستگاه را با استفاده از پایگاهدادهای تصاویر CSAM» از سازمانهای ایمنی کودکان انجام دهد که اپل آن را به «مجموعهای غیرقابل خواندن تبدیل میکند که بهطور ایمن در دستگاههای کاربران ذخیره میشود».
اپل قصد داشت حسابهای iCloud را با تصاویر CSAM به مرکز ملی کودکان گمشده و مورد بهرهکشی (NCMEC)، یک سازمان غیرانتفاعی که با همکاری سازمانهای مجری قانون ایالاتمتحده کار میکند، گزارش کند.
برنامههای اپل توسط طیف گستردهای از افراد و سازمانها ازجمله محققان امنیتی، بنیاد مرز الکترونیک (EFF)، سیاستمداران، گروههای سیاستگذاری، محققان دانشگاهها و حتی برخی از کارمندان اپل موردانتقاد قرار گرفت.
برخی از منتقدان استدلال کردند که این ویژگی یک “درپشتی” در دستگاهها ایجاد میکند که دولتها یا سازمانهای مجری قانون میتوانند از آن برای نظارت بر کاربران استفاده کنند. نگرانی دیگر، موارد مثبت کاذب بود، ازجمله احتمال اینکه شخصی عمداً تصاویر CSAM را به حساب iCloud شخص دیگری اضافه کند تا حساب آن را نشانهگذاری کند.
نظر شما درباره توقف کامل طرح CSAM اپل چیست؟