اپل، کمپانی نام آشنا و معتبری در زمینه حفظ حریمخصوصی بهشمار میرود؛ بهطوریکه ویژگی پیامهای رمزگذاری شده را در سرتاسر اکوسیستم خود تبلیغ کرده، نحوه جمعآوری دادهها توسط برنامههای موجود در آیفونها را محدود میکند و با سازمانهای اجرای قانون که بهدنبال سوابق کاربران هستند، مبارزه کرده است. هفته گذشته اما، این شرکت با اتهاماتی مبنیبر تضعیف حریمخصوصی کاربران در سیستمعاملهای iOS و iPadOS مواجه شد. این بحث ناشی از اطلاعیهای است که این شرکت روز پنجشنبه اعلام کرد. از نظر تئوری، اپل میخواهد با سوءاستفاده جنسی از کودکان مبارزه کرده و اقدامات بیشتری را برای پیدا کردن و متوقف کردن آن انجام دهد. منتقدان اما ادعا میکنند استراتژی اپل میتواند کنترل کاربران بر تلفنهای خود را تضعیف و آنها را متکی به وعده اپل مبنیبر سوءاستفاده از قدرت خود کند. در پاسخ، اپل نشان داد که این موضوع چقدر پیچیده بوده و میتواند کاملاً گیجکننده باشد. اما بهواقع ویژگی جدید اپل پیرامون محافظت از کودکان چیست و چرا حساسیت منتقدان و کاربران نسبت به آن بالا گرفته است؟
اپل بهطور کلی سه تغییر را در سیستمعامل خود معرفی کرده است که اواخر امسال اعمال میشوند. این تغییرات همگی مربوط به جلوگیری از سوءاستفاده جنسی از کودکان بوده اما برنامههای مختلف را با مجموعه ویژگیهای متفاوت هدف قرار داده است.
اولین تغییر بر روی اپلیکیشن Search و Siri اپل تأثیر میگذارد. اگر کاربر موضوعات مربوط به سوءاستفاده جنسی از کودکان را جستجو کند، اپل آنها را به منابع برای گزارش آن یا دریافت کمک برای جذب آن راهنمایی میکند. این ویژگی، اواخر امسال و در iOS 15 ،watchOS 8 ،iPadOS 15 و macOS Monterey اعمال میشود و تا حد زیادی بحثبرانگیز نیست.
اپل پیش از تغییر در سیاست حریم خصوصی، به دنبال توسعه تجارت تبلیغاتی خود می باشد
با این حال، سایر بروزرسانیها واکنشهای بسیار بیشتری را ایجاد کردهاند. یکی از آنها شامل اضافه کردن گزینه کنترل والدین به پیامها، حذف تصاویر جنسی برای کاربران زیر 18 سال و هشدار در صورت مشاهده یا ارسال این تصاویر به کودکان میباشد.
آخرین ویژگی جدید نیز، تصاویر iCloud Photos را برای یافتن مطالب مربوط به سوءاستفاده جنسی از کودکان یا CSAM اسکن میکند و به مدیران اپل گزارش میدهد؛ در نتیجه آنها میتوانند آن را به مرکز ملی کودکان مفقود و مورد استثمار یا NCMEC منتقل کنند. اپل میگوید این ویژگی را بهطور خاص برای محافظت از حریمخصوصی کاربران در هنگام یافتن محتوای غیرقانونی طراحی کرده است. منتقدان اما میگویند که طرحهای مشابه بهمعنای یک در پشتی و فرار امنیتی اپل است.
اپل یک ویژگی را در برنامه Messages خود معرفی کرده است که بهمنظور محافظت از کودکان در برابر تصاویر نامناسب میباشد. در صورت انتخاب والدین، دستگاههای دارای کاربران زیر 18 سال با طبقهبندی تصویری که در زمینه پورنوگرافی آموزش دیده، تصاویر ورودی و خروجی را اسکن کرده و بهدنبال محتوای “جنسی واضح” خواهند بود (اپل میگوید از نظر فنی، این ویژگی محدود به برهنگی نشده اما برهنگی بهترین توصیف برای آن است). اگر طبقهبندیکننده، این محتوا را تشخیص دهد، تصویر مورد نظر را تار کرده و از کاربر میپرسد که آیا واقعاً مایل به مشاهده یا ارسال آن میباشد یا خیر.
این بروزرسانی که در حسابهایی که بهعنوان خانواده در iCloud و در iOS 15 ،iPadOS 15 و macOS Monterey راهاندازی شدهاند؛ شامل یک گزینه اضافی نیز میشود. اگر کاربر از هشدار ارائه شده گذر کرده و زیر 13 سال سن داشته باشد، Messages میتواند به والدین او اطلاع دهد که فرد مورد نظر این کار را انجام دادهاست. کودکان یک هشدار بهصورت زیرنویس دریافت میکنند شامل این مورد که والدین آنها این اعلان را دریافت کرده است؛ با این حال والدین محتوای واقعی را نمیبینند. این سیستم هیچ چیزی را به ناظران اپل یا سایر احزاب گزارش نمیدهد.
سیستم اسکن iCloud Photos بر یافتن تصاویر شامل سوءاستفاده جنسی از کودکان متمرکز است که داشتن آنها غیرقانونی میباشد. اگر از کاربران iOS یا iPadOS مستقر در ایالاتمتحده هستید و تصاویر را با iCloud Photos همگامسازی میکنید، دستگاه شما بهصورت محلی این تصاویر را با لیستی از CSAM شناخته شده بررسی میکند. اگر موارد مشکوک را تشخیص دهد، به مدیران اپل هشدار داده و جزئیات آن را فاش میکند. اگر ناظر حضور CSAM را تأیید کند، حساب را غیرفعال کرده و تصاویر را به مراجع قانونی گزارش میدهد.
بههیچوجه. فیسبوک، توییتر، Reddit و بسیاری از شرکتهای دیگر محتوای حساس کاربران را اسکن کرده که اغلب از یک ابزار ساخته شده توسط مایکروسافت به نام PhotoDNA استفاده میکنند. آنها همچنین از نظر قانونی ملزم به گزارش CSAM به مرکز ملی کودکان مفقود شده و استثمار شده (NCMEC) هستند؛ سازمانی غیرانتفاعی که در کنار اجرای قانون کار میکند.
اپل تلاشهای خود را تاکنون محدود کرده و پیش از این بیان کرده بود که درعوض از فناوری تطبیق تصویر برای یافتن استثمار کودکان استفاده میکند. اما در تماس با خبرنگاران، اعلام کرد که هرگز دادههای iCloud Photos را اسکن نکرده است (پیشتر تأیید شده که iCloud Mail را اسکن کرده است، اما جزئیات بیشتری در مورد اسکن سایر خدمات اپل ارائه شده است).
یک اسکن معمولی CSAM از راه دور اجرا میشود و پروندههای ذخیره شده در سرور را بررسی میکند. در مقابل، سیستم اپل آنها را بهصورت داخلی در iPhone یا iPad شما بررسی میکند.
سیستم مذکور بهشرح زیر عمل میکند. وقتی iCloud Photos در دستگاهی فعال است، دستگاه از ابزاری به نام NeuralHash برای شکستن این تصاویر استفاده میکند که اساساً رشتههایی از اعداد هستند که ویژگیهای منحصربهفرد یک تصویر را مشخص کرده، اما نمیتوان آنها را بازسازی کرد تا خود تصویر نمایان شود. سپس، این موارد را با لیست ذخیره شده NCMEC مقایسه کرده که میلیونها تصویر مربوط به محتوای CSAM شناخته شده را جمع آوری میکند.
اگر سیستم اپل مطابقت داشته باشد، تلفن شما “مدرک ایمنی” ایجاد میکند که در iCloud Photos بارگذاری میشود. هر مدرک ایمنی نشان میدهد که یک سابقه وجود دارد، اما به هیچ تعدیلکنندهای هشدار نمیدهد و جزئیات را بهصورت رمزگذاری شده حفظ میکند، بنابراین یک کارمند اپل نمیتواند به آن نگاه کرده و ببیند با کدام عکس مطابقت دارد. با این حال، اگر حساب شما تعداد مشخصی مدرک ایجاد کند، همه مدارک رمزگشایی شده و برای مدیران انسانی اپل علامتگذاری میشوند درنتیجه آنها میتوانند عکسها را مرور کرده و ببینند آیا حاوی CSAM هستند یا خیر.
اپل تأکید میکند که فقط به عکسهایی که با iCloud همگامسازی میکنید دسترسی دارد، نه عکسهایی که در دستگاه شما ذخیره میشوند. این شرکت به خبرنگاران میگوید که غیرفعال کردن iCloud Photos تمام قسمتهای سیستم اسکن، از جمله موارد مشکل دار داخلی را بهطور کامل غیرفعال میکند. Erik Neuenschwander، سرپرست حریمخصوصی اپل در مصاحبهای با TechCrunch بیان میکند: “اگر کاربران از iCloud Photos استفاده نکنند، NeuralHash اجرا نمیشود و هیچ مدرکی نیز بوجود نمیآید.”
اپل در گذشته از پردازش روی دستگاه برای تقویت اعتبار حریمخصوصی خود استفاده کرده است. بهعنوان مثال، iOS میتواند تجزیه و تحلیل هوشمصنوعی زیادی را بدون ارسال دادههای شما به سرورهای ابری انجام دهد، به این معنی که شانس کمتری برای دستیابی افراد شخص ثالث به آن وجود دارد.
اما تمایز بین دو مورد داخلی و از راه دور در باب این ویژگی محافظت از کودکان در آیفون بسیار بحثبرانگیز بوده و پس از واکنش منفی، اپل طی چند روز گذشته خطوط بسیار ظریفی بین این دو کشیده است.
قبل از وارد شدن به بحث انتقادات، شایان ذکر است که بگوییم: اپل از این بروزرسانی توسط برخی از کارشناسان حریمخصوصی و امنیت، از جمله رمزنگاران برجسته و دانشمندان کامپیوتر، Mihir Bellare ،David Forsyth و Dan Boneh قدردانی کرده است. Forsyth در تأییدیه ارائه شده توسط اپل بیان میکند: “این سیستم احتمالاً بهطور قابلتوجهی احتمال پیدا شدن افرادی را که مالک یا تردد در CSAM دارند افزایش میدهد.”
اپل: امنیت پایین مک ها، دلیل پشتیبانی نکردن iOS از اپلیکیشن های شخص ثالث می باشد
اما کارشناسان دیگر و گروههای حامی، مخالف این تغییرات هستند. آنها میگویند بروز رسانی iCloud و Messages مشکل مشابهی را دارند: آنها سیستمهای نظارتی ایجاد میکنند که مستقیماً از طریق تلفن یا کامیپوتر شما کار میکنند. این میتواند نقشهای برای شکستن رمزگذاری end-to-end encryption باشد که حتی اگر استفاده از آن درحالحاضر محدود شود، میتواند راه را برای تجاوزهای نگرانکننده اپل به حریمخصوصی کاربران باز کند.
نامه سرگشاده ۶ اوت شکایات منتقدان را با جزئیات بیشتری بیان میکند. در اینجا شرح آن در مورد آنچه اتفاق میافتد آمده است:
درحالیکه سوءاستفاده از کودکان یک مشکل جدی میباشد و درحالیکه تلاش ها برای مبارزه با آن تقریبا بدون تردید و با نیت خوب انجام شده است، پیشنهاد اپل یک درب پشتی را معرفی کرده که حفاظت از حریمخصوصی اساسی برای همه کاربران محصولات اپل را تضعیف میکند.
فناوری پیشنهادی اپل با نظارت مداوم بر عکسهای ذخیره شده یا به اشتراک گذاشته شده در iPhone ،iPad یا Mac کاربر کار میکند. این سیستم تشخیص میدهد که تعداد معینی عکس مشکلدار در ذخیرهسازی iCloud شناسایی شده است و به مقامات هشدار میدهد. از iMessage برای ارسال یا دریافت عکسهایی به والدین استفاده میشود که الگوریتم یادگیری ماشینی شامل برهنگی دارند.
از آنجا که هر دو بررسی بر روی دستگاه کاربر انجام میشود، میتوانند از هرگونه رمزگذاری سرتاسری که در غیر این صورت از حریمخصوصی کاربر محافظت میکند، عبور کنند.
اپل خصوصیات بالا، بهویژه عبارت “درب پشتی” و توضیحات نظارت بر عکسهای ذخیره شده در دستگاه کاربر را مورد مناقشه قرار داده است. اما همانطور که در زیر توضیح خواهیم داد، از کاربران میخواهد به Apple اعتماد زیادی داشته باشند، درحالیکه این شرکت در سراسر جهان با فشار دولتها روبرو شده است.
بهطور خلاصه، رمزگذاری سرتاسری (یا E2EE) باعث میشود که دادهها غیر از فرستنده و گیرنده برای کس دیگری قابل خواندن نباشد. بهعبارت دیگر، حتی شرکتی که برنامه را اجرا میکند، نمیتواند آن را ببیند. سیستمهایی با ایمنی کمتر هنوز میتوانند رمزگذاری شوند، اما شرکتها ممکن است کلید دادهها را در اختیار داشته باشند تا بتوانند پروندهها را اسکن کرده و یا به مجریان قانون اجازه دسترسی دهند. iMessages اپل از E2EE استفاده میکند. iCloud Photos اما مانند بسیاری از سرویسهای ذخیرهسازی ابری، اینگونه نیست.
درحالیکه رمزگذاری سرتاسری میتواند فوقالعاده مؤثر باشد، لزوماً مانع از مشاهده دادهها در خود تلفن نمیشود. این موضوع باعث میشود درها برای انواع خاصی از نظارت باز شوند، از جمله سیستمی که اپل اکنون به آن متهم شده است: اسکن از سوی مشتری.
بنیاد Electronic Frontier یک طرح کلی از اسکن از سوی مشتری دارد که اساساً، شامل تجزیه و تحلیل فایلها یا پیامها در یک برنامه قبل از ارسال آنها به شکل رمزگذاری شده میشود که اغلب، شامل بررسی محتوای قابل اعتراض بوده و در این فرایند، هدف دور زدن محافظت از رمزگذاری سرتاسری با هدف قرار دادن خود دستگاه میباشد. در تماس تلفنی با The Verge، تکنسین ارشد EFF، اریکا پورتنو، این سیستمها را با شخصی که از روی شانه به شما نگاه میکند درحالیکه شما یک پیام امن بر روی تلفن خود ارسال میکنید، مقایسه میکند.
اپل بهشدت این موضوع رد م کند. در یک متن شامل سوالات متداول، این شرکت میگوید پیامها هنوز بهصورت رمزگذاری سرتاسری اعمال شده و مطلقاً هیچ جزئیاتی در مورد محتوای پیام خاص در اختیار هیچ کس، از جمله والدین قرار نمیگیرد. اپل وعده میدهد که “هرگز از بابت این ویژگی، به پیامها دسترسی پیدا نمیکند.”
همچنین چارچوببندی اسکن عکسها در دستگاه شما را برای CSAM رد میکند. در سوالات متداول آمده: “از نظر طراحی، این ویژگی فقط در مورد عکسهایی که کاربر انتخاب میکند تا در iCloud بارگذاری کند، اعمال میشود. همچنین این سیستم برای کاربرانی که iCloud Photos را غیرفعال کردهاند، کار نمیکند. این ویژگی بر روی گالری عکس شما در آیفونتان کار نمیکند. چندی بعد این شرکت برای خبرنگاران شفافسازی کرد که اپل میتواند تصاویر iCloud Photos را که از طریق خدمات شخص ثالث و همچنین برنامههای خود همگامسازی کرده است، اسکن کند.
همانطور که اپل اذعان دارد، iCloud Photos هیچ گزینه رمزگذاری سرتاسری ندارد که بتوان در آن اختلال ایجاد کرد، بنابراین میتواند بهراحتی مانند بسیاری از شرکتهای دیگر این اسکنها را روی سرورهای خود اجرا کند. اپل استدلال میکند که سیستم آنها در واقع امنیت بیشتری دارد. بعید است که اکثر کاربران، CSAM را در تلفن خود فعالسازی کنند و اپل ادعا میکند که فقط 1 در 1 تریلیون از حسابها میتوانند بهطور اشتباه علامتگذاری شوند. با استفاده از این سیستم اسکن دخلی، اپل ادعا میکند که هیچ اطلاعاتی در مورد عکسهای دیگران را فاش نخواهد کرد.
نه برای بسیاری از منتقدان آن. همانطور که Ben Thompson در Stratechery مینویسد، مسئله این نیست که آیا اپل فقط اعلانها را برای والدین ارسال میکند یا جستجوهای خود را در دستهبندی خاصی از محتوا محدود میکند. این بدان معناست که این شرکت بهطور مرتب درحال جستجو در بین دادههاست.
اپل بهجای افزودن اسکن CSAM به عکسهای iCloud در فضای ابری، گوشیای را که متعلق به من و شماست به خطر میاندازد، بدون آنکه هیچ کدام از ما در این مورد نظری داشته باشیم. بله، برای غیرفعال کردن اسکن اپل، میتوانید iCloud Photos را خاموش کنید، اما این یک تصمیم سیاسی است. قابلیت دسترسی به تلفن کاربر درحالحاضر وجود داشته و هیچ کاربر آیفونی نمیتواند برای خلاص شدن از آن کاری انجام دهد.
CSAM غیرقانونی و نفرتانگیز است. اما همانطور که در نامه سرگشاده به اپل اشاره شده است، بسیاری از کشورها در تلاش برای به خطر انداختن قابلیتهای مربوط به رمزگذاری به نام مبارزه با تروریسم، اطلاعات غلط و سایر مطالب قابل اعتراض هستند. اکنون که اپل این سابقه را ایجاد کرده است، مطمئناً برای گسترش آن با تذکراتی روبرو خواهد شد؛ و اگر اپل بعداً رمزگذاری کامل را برای iCloud اجرا کند(کاری که طبق گزارشات انجام شده، هرچند هرگز اجرا نشده است) این یک نقشه راه احتمالی برای دور زدن محافظت از E2EE خواهد بود.
ایلان ماسک سهم ۳۰ درصدی اپل از اپ استور را نوعی “مالیات جهانی” بر اینترنت میداند
اپل میگوید هرگونه تماس برای سوءاستفاده از سیستمهای خود را رد میکند و در این مورد نیز ضمانتهایی دارد: این واقعیت که والدین نمیتوانند هشدارها را برای نوجوانان با سن بالاتر در Messages فعال کنند، اینکه مدارک ایمنی iCloud رمزگذاری شده است، این یک آستانه برای هشدار ناظران تعیین میکند و جستجوهای آن فقط در ایالاتمتحده بهشدت محدود به پایگاه داده NCMEC شده است.
ویژگی محافظت از کودکان اپل تنها برای تشخیص تصاویر شناخته و ذخیره شده CSAM در iCloud Photos میباشد که توسط متخصصان NCMEC و دیگر گروههای ایمنی کودک شناسایی شده است. ما با درخواستهایی برای ایجاد و استقرار تغییراتی که دولت به حریمخصوصی کاربران میافزاید، برخورد کردهایم و این خواستهها را با قاطعیت رد میکنیم. همچنین ما در آینده به رد آنها ادامه خواهیم داد. بگذارید واضح بگویم، این فناوری محدود به تشخیص CSAM ذخیره شده در iCloud است و ما به درخواست هیچ دولتی برای گسترش آن نمیپردازیم.
مسئله این است که اپل این قدرت را دارد که این ضمانتنامهها را تغییر دهد. Portnoy میگوید: “نیمی از مشکل این است که این سیستم بهسادگی قابل تغییر است.”
Alex Stamos، استاد رصدخانه اینترنتی استنفورد نیز نحوه همکاری خوب اپل با جامعه متخصصان رمزنگاری را زیر سوال برد و گفت که اپل از شرکت در یک سری بحث در مورد ایمنی، حریم خصوصی و رمزگذاری خودداری کرده است. او در توئیتر خود نوشت: “با این اعلامیه آنها فقط وارد بحث متعادلسازی شدهاند و ذهن همگان را بدون مشورت و بحث عمومی به دورترین نقاط کشاندند.”
طبق معمول، این موضوع پیچیدهای است. اپل دلایل موجهی برای افزایش تلاشهای خود برای حفاظت از کودکان دارد. در اواخر سال 2019، نیویورک تایمز گزارشهایی از “همه گیر شدن” سوء استفاده جنسی آنلاین از کودکان منتشر کرد. این امر شرکتهای فناوری آمریکایی را بهدلیل ناتوانی در مقابله با گسترش CSAM مورد انتقاد قرار داد و در مقالهای، NCMEC اپل را بهدلیل نرخ گزارشدهی پایین آن در مقایسه با همتایان خود مانند فیسبوک، مورد توجه قرار داده است؛ چیزی که Times تا حدی به دلیل عدم اسکن فایلهای iCloud به این شرکت نسبت داد.
در عین حال، خود اپل حریمخصوصی را “حقوق بشر” نامیده است. تلفنها دستگاههای صمیمی هستند که پر از اطلاعات حساس میباشند. اپل با پیامها و تغییرات iCloud خود، دو روش را برای جستجو یا تجزیه و تحلیل محتوا بهطور مستقیم بر روی سختافزار و نه پس از ارسال داده ها به شخص ثالث، نشان داده است.
اپل اعتراض به ارائه قابلیت ویژگی محافظت از کودکان خود را تایید کرده اما تاکنون، برنامهای برای اصلاح یا رها کردن آنها نشان نداده است. روز جمعه، یک یادداشت داخلی از سوی این شرکت، “سوء تفاهمها”ی ایجاد شده را تصدیق کرد اما در عین حال تغییرات اعمال شده را نیز ستود. “آنچه امروز اعلام کردیم محصول این همکاری باورنکردنی است، که ابزارهایی را برای محافظت از کودکان ارائه میدهد، اما همچنین تعهد عمیق اپل به حریمخصوصی، امنیت کاربران را حفظ میکند. ما میدانیم که برای برخی افراد سوء تفاهم پیش آمده است و تعدادی از آنها نگران پیامدهای آن هستند، اما ما به توضیح و تفصیل ویژگیها ادامه میدهیم تا مردم متوجه شوند ما چه چیزی ساختهایم.”
دیدگاه شما چیست؟ بهنظر شما اپل با معرفی ویژگی محافظت از کودکان بهواقع در پی راهی برای جلوگیری از انتشار محتوای خطرناک برای نوجوانان زیر ۱۳ سال توسط والدین آنها بوده است و یا این شرکت ادعای حفظ حریمخصوصی خود را خدشهدار کرده و سعی دارد تا راهی برای نفوذ به دستگاههای همراه پیدا کند؟
اسپم
دوستان کسی میدونه چرا قسمت آپدیت هام بعد اندروید یازده و می یو آی ۱۲.۵ این شکل شده؟
یعنی دیگه آپدیت فقط امنیتی میده
کسایی که ردمی نوت هشت پرو دارن هم این شکل شده قسمت آپدیت هاشون؟