حساب کاربری ندارید؟ ثبت نام کنید

کارمندان اپل در مورد برنامه حفاظت از کودکان (CSAM) این شرکت ابراز نگرانی می‌کنند

نوشته

3 سال قبل | بدون دیدگاه | اپل، امنیت

بر اساس گزارش رویترز، کارمندان اپل درحال‌حاضر نگرانی خود در مورد برنامه‌های این شرکت پیرامون اسکن گالری عکس کاربران آیفون به‌منظور حفاظت از کودکان (CSAM) یا موارد سوءاستفاده جنسی از آنها را ابراز کرده و در مورد نحوه استفاده از این فناوری برای اسکن عکس‌های کاربران برای انواع دیگری از محتوا بحث می‌کنند.

ابراز نگرانی کارمندان اپل درباره برنامه حفاظت از کودکان (CSAM)

به گزارش رویترز، تعداد نامشخصی از کارمندان اپل به شبکه‌های داخلی Slack مراجعه کرده تا نگرانی‌های خود را در مورد ویژگی حفاظت از کودکان ابراز کنند. به‌طور خاص، کارکنان نگران هستند که دولت‌ها بتوانند با یافتن محتوایی غیر از CSAM، اپل را مجبور به استفاده از این فناوری برای سانسور محتوا کنند. برخی از کارکنان همچنین نگران هستند که اپل به شهرت حریم‌خصوصی پیشرو خود در صنعت لطمه وارد کند.

کارمندان اپل به رویترز گفته‌اند که آنها با ارسال بیش از 800 پیام در برنامه‌ای که یک هفته پیش اعلام شده بود، کانال داخلی Slack را پر کرده‌اند. بسیاری از کارمندان ابراز نگرانی کرده‌اند که این ویژگی می‌تواند توسط دولت‌های سرکوب‌گری که به‌دنبال یافتن مطالب دیگری برای سانسور یا دستگیری هستند، مورد سوءاستفاده قرار گیرد.

کارکنان می‌گویند تغییرات امنیتی گذشته در اپل نیز نگرانی آنها را برانگیخته است، اما حجم و مدت زمان بحث جدید کاملا شگفت‌انگیز است. برخی از انان نگران بودند که اپل به شهرت اصلی خود در محافظت از حریم‌خصوصی لطمه وارد کند.

بر اساس این گزارش، تصور نمی‌شود که کارکنان مربوط به نقش‌های امنیت کاربران، بخشی از این اعتراضات داخلی باشند.

نگرانی کارمندان اپل درباره برنامه حفاظت از کودکان

نگرانی کارمندان اپل درباره برنامه حفاظت از کودکان

از زمان اعلام این خبر در هفته گذشته، اپل به‌دلیل برنامه‌های حفاظت از کودکان خود که هنوز انتظار می‌رود پاییز امسال با iOS 15 و iPadOS 15 عرضه شود، مورد انتقاد قرار گرفته است. نگرانی‌ها عمدتاً حول محور این موضوع است که چگونه این فناوری می‌تواند سبب پیاده‌سازی برنامه‌های بعدی توسط دولت‌ها ایجاد کند.

اپل قاطعانه این ایده را رد کرده است که فناوری مذکور بر روی دستگاه‌ها که برای تشخیص موارد CSAM استفاده می‌شود، می‌تواند برای هر منظور دیگری استفاده شود. در یک صفحه پرسش و پاسخ منتشر شده، این شرکت می‌گوید که به‌شدت از چنین تقاضایی از سوی دولت‌ها خودداری خواهد کرد.

آیا دولت ها می توانند اپل را مجبور کنند به سوءاستفاده از این قابلیت کنند؟

اپل از چنین خواسته‌هایی خودداری خواهد کرد. قابلیت حفاظت از کودکان اپل فقط برای تشخیص تصاویر شناخته شده CSAM ذخیره شده در iCloud Photos می‌باشد که توسط متخصصان NCMEC و دیگر گروه‌های ایمنی کودک شناسایی شده است. ما پیش از این با درخواست‌هایی برای ایجاد و استقرار تغییراتی که به دستور دولت حریم‌خصوصی کاربران را تضعیف می‌کند، روبرو شده و با قاطعیت آنها را رد کرده‌ایم. ما در آینده به رد این موارد ادامه خواهیم داد. بگذارید واضح بگویم، این فناوری محدود به تشخیص CSAM ذخیره شده در iCloud است و ما به درخواست هیچ دولتی برای گسترش آن نمی‌پیوندیم. علاوه‌بر این، اپل قبل از ارائه گزارش به NCMEC، بررسی انسانی را انجام می‌دهد.

یک نامه سرگشاده توسط منتقدان از اپل انتقاد کرده و از این شرکت خواسته است که برنامه خود را برای استقرار تشخیص CSAM فوراً متوقف کند و در زمان نگارش این مقاله بیش از 7000 امضا بدست آورده است.

ویژگی جدید اپل پیرامون محافظت از کودکان چیست و چرا حساسیت‌ها نسبت به آن بالاست؟

نظر شما درباره نگرانی کارکنان اپل مبنی‌بر انتشار ویژگی حفاظت از کودکان چیست؟ شما دلایل این شرکت را برای دفاع از ارائه قابلیت مذکور منطقی می‌دانید یا خیر.

اشتراک در
اطلاع از
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
امیرحسین ملکی