حساب کاربری ندارید؟ ثبت نام کنید

اپل طرح بحث‌برانگیز CSAM را برای همیشه کنار گذاشت

نوشته

1 سال قبل | بدون دیدگاه | اپل، برترین‌های ترنجی

بر اساس بیانیه‌ای که با WIRED به‌اشتراک گذاشته شده است، اپل امروز اعلام کرد که از برنامه بحث‌برانگیز خود برای شناسایی مواد شناخته‌شده سوءاستفاده جنسی از کودکان (CSAM) که در iCloud Photos ذخیره می‌شود، صرف‌نظر کرده است.

توقف کامل طرح CSAM اپل

بیانیه کامل اپل به شرح زیر است:

«پس از مشاوره گسترده با کارشناسان برای جمع‌آوری بازخورد در مورد طرح‌های حمایت از کودکان که سال گذشته پیشنهاد دادیم، سرمایه‌گذاری خود را در ویژگی ایمنی ارتباطات که برای اولین بار در دسامبر 2021 در دسترس قرار دادیم، عمیق‌تر می‌کنیم. همچنین تصمیم گرفته‌ایم تا CSAM را متوقف کنیم. کودکان را می‌توان بدون استفاده از اطلاعات شخصی توسط شرکت‌ها محافظت کرد و ما به همکاری با دولت‌ها، حامیان کودکان و سایر شرکت‌ها برای کمک به محافظت از جوانان، حفظ حریم خصوصی آن‌ها و تبدیل اینترنت به مکانی امن برای کودکان و همه ادامه خواهیم داد.»

در آگوست 2021، اپل برنامه‌های خود را برای سه ویژگی جدید ایمنی کودکان اعلام کرد، ازجمله سیستمی برای شناسایی تصاویر CSAM ذخیره‌شده در iCloud Photos، یک گزینه ایمنی ارتباطات که عکس‌های غیراخلاقی جنسی را در برنامه پیام‌ها محو می‌کند و منابع سوءاستفاده از کودکان. Communication Safety در دسامبر 2021 با iOS 15.2 در ایالات‌متحده راه‌اندازی شد و از آن زمان به بریتانیا، کانادا، استرالیا و نیوزلند گسترش یافته است و منابع Siri نیز در دسترس هستند، اما ویژگی تشخیص CSAM هرگز راه‌اندازی نشد.

اپل در ابتدا اعلام کرد که تشخیص CSAM در به‌روزرسانی iOS 15 و iPadOS 15 تا پایان سال 2021 اجرا می‌شود، اما این شرکت درنهایت این ویژگی را براساس «بازخورد مشتریان، گروه‌های مدافع، محققان و دیگران» به‌تعویق انداخت. اکنون، پس از یک سال سکوت، اپل برنامه‌های شناسایی CSAM را به کلی کنار گذاشته است.

توقف کامل طرح CSAM اپل

توقف کامل طرح CSAM اپل

اپل قول داده است که سیستم تشخیص CSAM خود “با درنظر گرفتن حریم خصوصی کاربر طراحی شده است.” این سیستم می‌توانست «تطابق روی دستگاه را با استفاده از پایگاه‌داده‌ای تصاویر CSAM» از سازمان‌های ایمنی کودکان انجام دهد که اپل آن را به «مجموعه‌ای غیرقابل خواندن تبدیل می‌کند که به‌طور ایمن در دستگاه‌های کاربران ذخیره می‌شود».

اپل قصد داشت حساب‌های iCloud را با تصاویر CSAM به مرکز ملی کودکان گمشده و مورد بهره‌کشی (NCMEC)، یک سازمان غیرانتفاعی که با همکاری سازمان‌های مجری قانون ایالات‌متحده کار می‌کند، گزارش کند.

برنامه‌های اپل توسط طیف گسترده‌ای از افراد و سازمان‌ها ازجمله محققان امنیتی، بنیاد مرز الکترونیک (EFF)، سیاستمداران، گروه‌های سیاست‌گذاری، محققان دانشگاه‌ها و حتی برخی از کارمندان اپل موردانتقاد قرار گرفت.

برخی از منتقدان استدلال کردند که این ویژگی یک “درپشتی” در دستگاه‌ها ایجاد می‌کند که دولت‌ها یا سازمان‌های مجری قانون می‌توانند از آن برای نظارت بر کاربران استفاده کنند. نگرانی دیگر، موارد مثبت کاذب بود، ازجمله احتمال اینکه شخصی عمداً تصاویر CSAM را به حساب iCloud شخص دیگری اضافه کند تا حساب آن را نشانه‌گذاری کند.

نظر شما درباره توقف کامل طرح CSAM اپل چیست؟

اشتراک در
اطلاع از
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
امیرحسین ملکی