حساب کاربری ندارید؟ ثبت نام کنید

تاخیر در اجرای برنامه محافظت از کودکان اپل به دلیل نگرانی های حریم خصوصی

نوشته

2 سال قبل | یک دیدگاه | اپل

دو هفته پیش بود که برای شما در ترنجی و درباره اسکن عکس های آیفون و پیام های iMessage توسط اپل صحبت کردیم و گفتیم که قابلیت Child Safety اپل چیست. امروز شاهد تاخیر در اجرای برنامه محافظت از کودکان اپل به دلیل نگرانی های حریم خصوصی هستیم.

تاخیر در اجرای برنامه محافظت از کودکان اپل

اپل پس از اعتراض های پیرامون نقص احتمالی حریم خصوصی، ویژگی های بحث برانگیز محافظت از کودکان را به تأخیر انداخت. قرار بود این ویژگی اواخر امسال اعمال شود. اگر درباره این ویژگی اطلاعات دقیقی ندارید، مطلب زیر را مرور کنید و ویدیو آن را ببینید:

اسکن عکس های آیفون و پیام های iMessage توسط اپل صحت دارد؟ قابلیت Child Safety اپل چیست؟

 

 

اپل به دنبال انتقادات شدید مبنی بر اینکه این تغییرات می تواند حریم خصوصی کاربران را کاهش دهد، ویژگی های محافظتی خود را که ماه گذشته اعلام شد، به تاخیر انداخت. این ویژگی ها از جمله ویژگی بحث برانگیزی که عکس های کاربران را برای یافتن مواد سوء استفاده جنسی از کودکان (CSAM) اسکن می کند، می شود.

اپل در بیانیه ای به The Verge گفت:

“ماه گذشته ما برنامه هایی را برای ویژگی هایی که به منظور کمک به محافظت از کودکان در برابر شکارچیانی که از ابزارهای ارتباطی برای به کارگیری و سوء استفاده از آنها استفاده می کنند و محدود کردن انتشار مصادیق سوء استفاده جنسی از کودکان اعلام کردیم.” “بر اساس بازخوردهای مشتریان، گروه های حمایتی، محققان و دیگران، ما تصمیم گرفته ایم که در ماه های آینده زمان بیشتری را برای جمع آوری اطلاعات و پیشرفت ها قبل از انتشار این ویژگی های بسیار مهم ایمنی کودک اختصاص دهیم.”

بیانیه مطبوعاتی اصلی اپل در مورد ویژگی Child Safety، که با هدف کاهش انتشار مصادیق سوء استفاده جنسی از کودکان (CSAM) انجام شده بود، را پیش از این با هم خواندیم. در آن اعلامیه سه ویژگی مهم توضیح داده شد. یک تغییر در Search و Siri به منابع برای جلوگیری از CSAM در صورت جستجوی اطلاعات مربوط به آن، اشاره می کند.

دو تغییر دیگر مورد بررسی دقیق تری قرار گرفت. هنگامی که کودکان عکس های حاوی محتوای جنسی دریافت می کردند یا آنها را ارسال می کردند، به والدین هشدار می داد و این تصاویر را برای بچه ها تار می کرد. دیگری تصاویر ذخیره شده در iCloud Photos کاربر را برای CSAM اسکن می کرد و آنها را به ناظران اپل گزارش می داد و سپس می توانستند گزارش ها را به مرکز ملی کودکان مفقود و مورد استثمار یا NCMEC ارجاع دهند.

معاون ارشد اپل به ابهامات ایجاد شده پیرامون ویژگی محافظت از کودکان پاسخ می‌دهد

اپل سیستم اسکن iCloud Photo را به طور مفصل توضیح داد تا بتواند نگرانی های حریم خصوصی کاربران را برطرف کند. به طور خلاصه، اپل عکس های ذخیره شده در iCloud Photos را در دستگاه iOS شما اسکن می کند و این عکس ها را در کنار پایگاه داده هش های شناخته شده CSAM از NCMEC و دیگر سازمان های ایمنی کودک ارزیابی می کند.

با این حال، بسیاری از کارشناسان حفظ حریم خصوصی و امنیت به دلیل سیستم جدید از این شرکت انتقاد کردند و معتقد بودند که می تواند یک سیستم نظارتی روی دستگاه ایجاد کند و اعتمادی را که کاربران به اپل برای محافظت از حریم خصوصی روی دستگاه قائل شده اند، نقض می کند.

به گفته قانون گذار آلمانی قابلیت CSAM اپل “بزرگترین ابزار نظارتی تاریخ” است

بنیاد مرزهای الکترونیکی در بیانیه ای در 5 آگست گفت:

سیستم جدید، هرچند که هدف خوبی داشته باشد، “وعده های اصلی رمزگذاری پیام رسان را زیر پا می گذارد و راه را برای سوء استفاده های گسترده تری باز می کند.”

بن تامپسون در انتقاد از خود در Stratechery گفت:

“اپل گوشی ای را که من و شما مالک آن هستیم و به کار می گیریم به خطر می اندازد ،” بدون اینکه هیچ یک از ما در این مورد نظری داشته باشیم. “

شما درباره این ویژگی جدید اپل چطور فکر می کنید؟ عقب نشینی اپل را چطور ارزیابی می کنید؟

اشتراک در
اطلاع از
1 Comment
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
Mahdi

کنترل روی کودکان خیلی خوبه چون هنوز نمیدونن چی درسته چی غلطه 🤕🤕ویژیگی خوبی هست ولی اپله دیگه فعلا عقبش انداخت

رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
سینا عطایی
حال روزگارت به خودت بستگی داره :)