بر اساس گزارش رویترز، کارمندان اپل درحالحاضر نگرانی خود در مورد برنامههای این شرکت پیرامون اسکن گالری عکس کاربران آیفون بهمنظور حفاظت از کودکان (CSAM) یا موارد سوءاستفاده جنسی از آنها را ابراز کرده و در مورد نحوه استفاده از این فناوری برای اسکن عکسهای کاربران برای انواع دیگری از محتوا بحث میکنند.
به گزارش رویترز، تعداد نامشخصی از کارمندان اپل به شبکههای داخلی Slack مراجعه کرده تا نگرانیهای خود را در مورد ویژگی حفاظت از کودکان ابراز کنند. بهطور خاص، کارکنان نگران هستند که دولتها بتوانند با یافتن محتوایی غیر از CSAM، اپل را مجبور به استفاده از این فناوری برای سانسور محتوا کنند. برخی از کارکنان همچنین نگران هستند که اپل به شهرت حریمخصوصی پیشرو خود در صنعت لطمه وارد کند.
کارمندان اپل به رویترز گفتهاند که آنها با ارسال بیش از 800 پیام در برنامهای که یک هفته پیش اعلام شده بود، کانال داخلی Slack را پر کردهاند. بسیاری از کارمندان ابراز نگرانی کردهاند که این ویژگی میتواند توسط دولتهای سرکوبگری که بهدنبال یافتن مطالب دیگری برای سانسور یا دستگیری هستند، مورد سوءاستفاده قرار گیرد.
کارکنان میگویند تغییرات امنیتی گذشته در اپل نیز نگرانی آنها را برانگیخته است، اما حجم و مدت زمان بحث جدید کاملا شگفتانگیز است. برخی از انان نگران بودند که اپل به شهرت اصلی خود در محافظت از حریمخصوصی لطمه وارد کند.
بر اساس این گزارش، تصور نمیشود که کارکنان مربوط به نقشهای امنیت کاربران، بخشی از این اعتراضات داخلی باشند.
از زمان اعلام این خبر در هفته گذشته، اپل بهدلیل برنامههای حفاظت از کودکان خود که هنوز انتظار میرود پاییز امسال با iOS 15 و iPadOS 15 عرضه شود، مورد انتقاد قرار گرفته است. نگرانیها عمدتاً حول محور این موضوع است که چگونه این فناوری میتواند سبب پیادهسازی برنامههای بعدی توسط دولتها ایجاد کند.
اپل قاطعانه این ایده را رد کرده است که فناوری مذکور بر روی دستگاهها که برای تشخیص موارد CSAM استفاده میشود، میتواند برای هر منظور دیگری استفاده شود. در یک صفحه پرسش و پاسخ منتشر شده، این شرکت میگوید که بهشدت از چنین تقاضایی از سوی دولتها خودداری خواهد کرد.
اپل از چنین خواستههایی خودداری خواهد کرد. قابلیت حفاظت از کودکان اپل فقط برای تشخیص تصاویر شناخته شده CSAM ذخیره شده در iCloud Photos میباشد که توسط متخصصان NCMEC و دیگر گروههای ایمنی کودک شناسایی شده است. ما پیش از این با درخواستهایی برای ایجاد و استقرار تغییراتی که به دستور دولت حریمخصوصی کاربران را تضعیف میکند، روبرو شده و با قاطعیت آنها را رد کردهایم. ما در آینده به رد این موارد ادامه خواهیم داد. بگذارید واضح بگویم، این فناوری محدود به تشخیص CSAM ذخیره شده در iCloud است و ما به درخواست هیچ دولتی برای گسترش آن نمیپیوندیم. علاوهبر این، اپل قبل از ارائه گزارش به NCMEC، بررسی انسانی را انجام میدهد.
یک نامه سرگشاده توسط منتقدان از اپل انتقاد کرده و از این شرکت خواسته است که برنامه خود را برای استقرار تشخیص CSAM فوراً متوقف کند و در زمان نگارش این مقاله بیش از 7000 امضا بدست آورده است.
ویژگی جدید اپل پیرامون محافظت از کودکان چیست و چرا حساسیتها نسبت به آن بالاست؟
نظر شما درباره نگرانی کارکنان اپل مبنیبر انتشار ویژگی حفاظت از کودکان چیست؟ شما دلایل این شرکت را برای دفاع از ارائه قابلیت مذکور منطقی میدانید یا خیر.