حساب کاربری ندارید؟ ثبت نام کنید

ویژگی جدید اپل پیرامون محافظت از کودکان چیست و چرا حساسیت‌ها نسبت به آن بالاست؟

نوشته

2 سال قبل | یک دیدگاه | اپل، امنیت

اپل، کمپانی نام آشنا و معتبری در زمینه حفظ حریم‌خصوصی به‌شمار می‌رود؛ به‌طوری‌که ویژگی پیام‌های رمزگذاری شده را در سرتاسر اکوسیستم خود تبلیغ کرده، نحوه جمع‌آوری داده‌ها توسط برنامه‌های موجود در آیفون‌ها را محدود می‌کند و با سازمان‌های اجرای قانون که به‌دنبال سوابق کاربران هستند، مبارزه کرده است. هفته گذشته اما، این شرکت با اتهاماتی مبنی‌بر تضعیف حریم‌خصوصی کاربران در سیستم‌عامل‌های iOS و iPadOS مواجه شد. این بحث ناشی از اطلاعیه‌ای است که این شرکت روز پنجشنبه اعلام کرد. از نظر تئوری، اپل می‌خواهد با سوءاستفاده جنسی از کودکان مبارزه کرده و اقدامات بیشتری را برای پیدا کردن و متوقف کردن آن انجام دهد. منتقدان اما ادعا می‌کنند استراتژی اپل می‌تواند کنترل کاربران بر تلفن‌های خود را تضعیف و آنها را متکی به وعده اپل مبنی‌بر سوءاستفاده از قدرت خود کند. در پاسخ، اپل نشان داد که این موضوع چقدر پیچیده بوده و می‌تواند کاملاً گیج‌کننده باشد. اما به‌واقع ویژگی جدید اپل پیرامون محافظت از کودکان چیست و چرا حساسیت منتقدان و کاربران نسبت به آن بالا گرفته است؟

اپل هفته گذشته چه چیزی را معرفی کرد و اساساً ویژگی محافظت از کودکان چیست؟

اپل به‌طور کلی سه تغییر را در سیستم‌عامل خود معرفی کرده است که اواخر امسال اعمال می‌شوند. این تغییرات همگی مربوط به جلوگیری از سوءاستفاده جنسی از کودکان بوده اما برنامه‌های مختلف را با مجموعه ویژگی‌های متفاوت هدف قرار داده است.

اولین تغییر بر روی اپلیکیشن Search و Siri اپل تأثیر می‌گذارد. اگر کاربر موضوعات مربوط به سوءاستفاده جنسی از کودکان را جستجو کند، اپل آنها را به منابع برای گزارش آن یا دریافت کمک برای جذب آن راهنمایی می‌کند. این ویژگی، اواخر امسال و در iOS 15 ،watchOS 8 ،iPadOS 15 و macOS Monterey اعمال می‌شود و تا حد زیادی بحث‌برانگیز نیست.

اپل پیش از تغییر در سیاست حریم خصوصی، به دنبال توسعه تجارت تبلیغاتی خود می باشد

با این حال، سایر بروزرسانی‌ها واکنش‌های بسیار بیشتری را ایجاد کرده‌اند. یکی از آنها شامل اضافه کردن گزینه کنترل والدین به پیام‌ها، حذف تصاویر جنسی برای کاربران زیر 18 سال و هشدار در صورت مشاهده یا ارسال این تصاویر به کودکان می‌باشد.

آخرین ویژگی جدید نیز، تصاویر iCloud Photos را برای یافتن مطالب مربوط به سوءاستفاده جنسی از کودکان یا CSAM اسکن می‌کند و به مدیران اپل گزارش می‌دهد؛ در نتیجه آنها می‌توانند آن را به مرکز ملی کودکان مفقود و مورد استثمار یا NCMEC منتقل کنند. اپل می‌گوید این ویژگی را به‌طور خاص برای محافظت از حریم‌خصوصی کاربران در هنگام یافتن محتوای غیرقانونی طراحی کرده است. منتقدان اما می‌گویند که طرح‌های مشابه به‌معنای یک در پشتی و فرار امنیتی اپل است.

اپل با ویژگی محافظت از کودکان در Message چه می‌کند؟

اپل یک ویژگی را در برنامه Messages خود معرفی کرده است که به‌منظور محافظت از کودکان در برابر تصاویر نامناسب می‌باشد. در صورت انتخاب والدین، ​​دستگاه‌های دارای کاربران زیر 18 سال با طبقه‌بندی تصویری که در زمینه پورنوگرافی آموزش دیده، تصاویر ورودی و خروجی را اسکن کرده و به‌دنبال محتوای “جنسی واضح” خواهند بود (اپل می‌گوید از نظر فنی، این ویژگی محدود به برهنگی نشده اما برهنگی بهترین توصیف برای آن است). اگر طبقه‌بندی‌کننده، این محتوا را تشخیص دهد، تصویر مورد نظر را تار کرده و از کاربر می‌پرسد که آیا واقعاً مایل به مشاهده یا ارسال آن می‌باشد یا خیر.

ویژگی اپل messages برای محافظت از کودکان

ویژگی اپل messages برای محافظت از کودکان

این بروزرسانی که در حساب‌هایی که به‌عنوان خانواده در iCloud و در iOS 15 ،iPadOS 15 و macOS Monterey راه‌اندازی شده‌اند؛ شامل یک گزینه اضافی نیز می‌شود. اگر کاربر از هشدار ارائه شده گذر کرده و زیر 13 سال سن داشته باشد، Messages می‌تواند به والدین او اطلاع دهد که فرد مورد نظر این کار را انجام داده‌است. کودکان یک هشدار به‌صورت زیرنویس دریافت می‌کنند شامل این مورد که والدین آنها این اعلان را دریافت کرده است؛ با این حال والدین محتوای واقعی را نمی‌بینند. این سیستم هیچ چیزی را به ناظران اپل یا سایر احزاب گزارش نمی‌دهد.

وظیفه سیستم اسکن جدید iCloud Photos اپل چیست؟

سیستم اسکن iCloud Photos بر یافتن تصاویر شامل سوءاستفاده جنسی از کودکان متمرکز است که داشتن آنها غیرقانونی می‌باشد. اگر از کاربران iOS یا iPadOS مستقر در ایالات‌متحده هستید و تصاویر را با iCloud Photos همگام‌سازی می‌کنید، دستگاه شما به‌صورت محلی این تصاویر را با لیستی از CSAM شناخته شده بررسی می‌کند. اگر موارد مشکوک را تشخیص دهد، به مدیران اپل هشدار داده و جزئیات آن را فاش می‌کند. اگر ناظر حضور CSAM را تأیید کند، حساب را غیرفعال کرده و تصاویر را به مراجع قانونی گزارش می‌دهد.

سیستم اسکن ویژگی اپل برای محافظت از کودکان

سیستم اسکن ویژگی اپل برای محافظت از کودکان

آیا اسکن CSAM ایده جدیدیست؟

به‌هیچ‌وجه. فیس‌بوک، توییتر، Reddit و بسیاری از شرکت‌های دیگر محتوای حساس کاربران را اسکن کرده که اغلب از یک ابزار ساخته شده توسط مایکروسافت به نام PhotoDNA استفاده می‌کنند. آنها همچنین از نظر قانونی ملزم به گزارش CSAM به مرکز ملی کودکان مفقود شده و استثمار شده (NCMEC) هستند؛ سازمانی غیرانتفاعی که در کنار اجرای قانون کار می‌کند.

اپل تلاش‌های خود را تاکنون محدود کرده و پیش از این بیان کرده بود که درعوض از فناوری تطبیق تصویر برای یافتن استثمار کودکان استفاده می‌کند. اما در تماس با خبرنگاران، اعلام کرد که هرگز داده‌های iCloud Photos را اسکن نکرده است (پیش‌تر تأیید شده که iCloud Mail را اسکن کرده است، اما جزئیات بیشتری در مورد اسکن سایر خدمات اپل ارائه شده است).

آیا سیستم جدید اپل با اسکن سایر شرکت‌ها متفاوت است؟

یک اسکن معمولی CSAM از راه دور اجرا می‌شود و پرونده‌های ذخیره شده در سرور را بررسی می‌کند. در مقابل، سیستم اپل آنها را به‌صورت داخلی در iPhone یا iPad شما بررسی می‌کند.

سیستم مذکور به‌شرح زیر عمل می‌کند. وقتی iCloud Photos در دستگاهی فعال است، دستگاه از ابزاری به نام NeuralHash برای شکستن این تصاویر استفاده می‌کند که اساساً رشته‌هایی از اعداد هستند که ویژگی‌های منحصربه‌فرد یک تصویر را مشخص کرده، اما نمی‌توان آنها را بازسازی کرد تا خود تصویر نمایان شود. سپس، این موارد را با لیست ذخیره شده NCMEC مقایسه کرده که میلیون‌ها تصویر مربوط به محتوای CSAM شناخته شده را جمع آوری می‌کند.

توصیف ویژگی اپل برای محافظت از کودکان

توصیف ویژگی اپل برای محافظت از کودکان

اگر سیستم اپل مطابقت داشته باشد، تلفن شما “مدرک ایمنی” ایجاد می‌کند که در iCloud Photos بارگذاری می‌شود. هر مدرک ایمنی نشان می‌دهد که یک سابقه وجود دارد، اما به هیچ تعدیل‌کننده‌ای هشدار نمی‌دهد و جزئیات را به‌صورت رمزگذاری شده حفظ می‌کند، بنابراین یک کارمند اپل نمی‌تواند به آن نگاه کرده و ببیند با کدام عکس مطابقت دارد. با این حال، اگر حساب شما تعداد مشخصی مدرک ایجاد کند، همه مدارک رمزگشایی شده و برای مدیران انسانی اپل علامت‌گذاری می‌شوند درنتیجه آنها می‌توانند عکس‌ها را مرور کرده و ببینند آیا حاوی CSAM هستند یا خیر.

اپل تأکید می‌کند که فقط به عکس‌هایی که با iCloud همگام‌سازی می‌کنید دسترسی دارد، نه عکس‌هایی که در دستگاه شما ذخیره می‌شوند. این شرکت به خبرنگاران می‌گوید که غیرفعال کردن iCloud Photos تمام قسمت‌های سیستم اسکن، از جمله موارد مشکل دار داخلی را به‌طور کامل غیرفعال می‌کند. Erik Neuenschwander، سرپرست حریم‌خصوصی اپل در مصاحبه‌ای با TechCrunch بیان می‌کند: “اگر کاربران از iCloud Photos استفاده نکنند، NeuralHash اجرا نمی‌شود و هیچ مدرکی نیز بوجود نمی‌آید.”

اپل در گذشته از پردازش روی دستگاه برای تقویت اعتبار حریم‌خصوصی خود استفاده کرده است. به‌عنوان مثال، iOS می‌تواند تجزیه و تحلیل هوش‌مصنوعی زیادی را بدون ارسال داده‌های شما به سرورهای ابری انجام دهد، به این معنی که شانس کمتری برای دستیابی افراد شخص ثالث به آن وجود دارد.

اما تمایز بین دو مورد داخلی و از راه دور در باب این ویژگی محافظت از کودکان در آیفون بسیار بحث‌برانگیز بوده و پس از واکنش منفی، اپل طی چند روز گذشته خطوط بسیار ظریفی بین این دو کشیده است.

چرا برخی از مردم از این تغییرات ناراحت هستند؟

قبل از وارد شدن به بحث انتقادات، شایان ذکر است که بگوییم: اپل از این بروزرسانی توسط برخی از کارشناسان حریم‌خصوصی و امنیت، از جمله رمزنگاران برجسته و دانشمندان کامپیوتر، Mihir Bellare ،David Forsyth و Dan Boneh قدردانی کرده است. Forsyth در تأییدیه ارائه شده توسط اپل بیان می‌کند: “این سیستم احتمالاً به‌طور قابل‌توجهی احتمال پیدا شدن افرادی را که مالک یا تردد در CSAM دارند افزایش می‌دهد.”

اپل: امنیت پایین مک ها، دلیل پشتیبانی نکردن iOS از اپلیکیشن های شخص ثالث می باشد

اما کارشناسان دیگر و گروه‌های حامی، مخالف این تغییرات هستند. آنها می‌گویند بروز رسانی iCloud و Messages مشکل مشابهی را دارند: آنها سیستم‌های نظارتی ایجاد می‌کنند که مستقیماً از طریق تلفن یا کامیپوتر شما کار می‌کنند. این می‌تواند نقشه‌ای برای شکستن رمزگذاری end-to-end encryption باشد که حتی اگر استفاده از آن درحال‌حاضر محدود شود، می‌تواند راه را برای تجاوزهای نگران‌کننده اپل به حریم‌خصوصی کاربران باز کند.

نامه سرگشاده ۶ اوت شکایات منتقدان را با جزئیات بیشتری بیان می‌کند. در اینجا شرح آن در مورد آنچه اتفاق می‌افتد آمده است:

درحالی‌که سوءاستفاده از کودکان یک مشکل جدی می‌باشد و درحالی‌که تلاش ها برای مبارزه با آن تقریبا بدون تردید و با نیت خوب انجام شده است، پیشنهاد اپل یک درب پشتی را معرفی کرده که حفاظت از حریم‌خصوصی اساسی برای همه کاربران محصولات اپل را تضعیف می‌کند.

فناوری پیشنهادی اپل با نظارت مداوم بر عکس‌های ذخیره شده یا به اشتراک گذاشته شده در iPhone ،iPad یا Mac کاربر کار می‌کند. این سیستم تشخیص می‌دهد که تعداد معینی عکس مشکل‌دار در ذخیره‌سازی iCloud شناسایی شده است و به مقامات هشدار می‌دهد. از iMessage برای ارسال یا دریافت عکس‌هایی به والدین استفاده می‌شود که الگوریتم یادگیری ماشینی شامل برهنگی دارند.

از آنجا که هر دو بررسی بر روی دستگاه کاربر انجام می‌شود، می‌توانند از هرگونه رمزگذاری سرتاسری که در غیر این صورت از حریم‌خصوصی کاربر محافظت می‌کند، عبور کنند.

اپل خصوصیات بالا، به‌ویژه عبارت “درب پشتی” و توضیحات نظارت بر عکس‌های ذخیره شده در دستگاه کاربر را مورد مناقشه قرار داده است. اما همانطور که در زیر توضیح خواهیم داد، از کاربران می‌خواهد به Apple اعتماد زیادی داشته باشند، درحالی‌که این شرکت در سراسر جهان با فشار دولت‌ها روبرو شده است.

رمزگذاری سرتاسری (end-to-end encryption) چیست؟

به‌طور خلاصه، رمزگذاری سرتاسری (یا E2EE) باعث می‌شود که داده‌ها غیر از فرستنده و گیرنده برای کس دیگری قابل خواندن نباشد. به‌عبارت دیگر، حتی شرکتی که برنامه را اجرا می‌کند، نمی‌تواند آن را ببیند. سیستم‌هایی با ایمنی کمتر هنوز می‌توانند رمزگذاری شوند، اما شرکت‌ها ممکن است کلید داده‌ها را در اختیار داشته باشند تا بتوانند پرونده‌ها را اسکن کرده و یا به مجریان قانون اجازه دسترسی دهند. iMessages اپل از E2EE استفاده می‌کند. iCloud Photos اما مانند بسیاری از سرویس‌های ذخیره‌سازی ابری، اینگونه نیست.

در‌حالی‌که رمزگذاری سرتاسری می‌تواند فوق‌العاده مؤثر باشد، لزوماً مانع از مشاهده داده‌ها در خود تلفن نمی‌شود. این موضوع باعث می‌شود درها برای انواع خاصی از نظارت باز شوند، از جمله سیستمی که اپل اکنون به آن متهم شده است: اسکن از سوی مشتری.

اسکن از سوی مشتری چیست؟

بنیاد Electronic Frontier یک طرح کلی از اسکن از سوی مشتری دارد که اساساً، شامل تجزیه و تحلیل فایل‌ها یا پیام‌ها در یک برنامه قبل از ارسال آنها به شکل رمزگذاری شده می‌شود که اغلب، شامل بررسی محتوای قابل اعتراض بوده و در این فرایند، هدف دور زدن محافظت از رمزگذاری سرتاسری با هدف قرار دادن خود دستگاه می‌باشد. در تماس تلفنی با The Verge، تکنسین ارشد EFF، اریکا پورتنو، این سیستم‌ها را با شخصی که از روی شانه به شما نگاه می‌کند درحالی‌که شما یک پیام امن بر روی تلفن خود ارسال می‌کنید، مقایسه می‌کند.

آیا اپل اسکن از سوی مشتری را انجام می‌دهد؟

اپل به‌شدت این موضوع رد م‌ کند. در یک متن شامل سوالات متداول، این شرکت می‌گوید پیام‌ها هنوز به‌صورت رمزگذاری سرتاسری اعمال شده و مطلقاً هیچ جزئیاتی در مورد محتوای پیام خاص در اختیار هیچ کس، از جمله والدین قرار نمی‌گیرد. اپل وعده می‌دهد که “هرگز از بابت این ویژگی، به پیام‌ها دسترسی پیدا نمی‌کند.”

همچنین چارچوب‌بندی اسکن عکس‌ها در دستگاه شما را برای CSAM رد می‌کند. در سوالات متداول آمده: “از نظر طراحی، این ویژگی فقط در مورد عکس‌هایی که کاربر انتخاب می‌کند تا در iCloud بارگذاری کند، اعمال می‌شود. همچنین این سیستم برای کاربرانی که iCloud Photos را غیرفعال کرده‌اند، کار نمی‌کند. این ویژگی بر روی گالری عکس شما در آیفونتان کار نمی‌کند. چندی بعد این شرکت برای خبرنگاران شفاف‌سازی کرد که اپل می‌تواند تصاویر iCloud Photos را که از طریق خدمات شخص ثالث و همچنین برنامه‌های خود همگام‌سازی کرده است، اسکن کند.

همانطور که اپل اذعان دارد، iCloud Photos هیچ گزینه رمزگذاری سرتاسری ندارد که بتوان در آن اختلال ایجاد کرد، بنابراین می‌تواند به‌راحتی مانند بسیاری از شرکت‌های دیگر این اسکن‌ها را روی سرورهای خود اجرا کند. اپل استدلال می‌کند که سیستم آنها در واقع امنیت بیشتری دارد. بعید است که اکثر کاربران، CSAM را در تلفن خود فعالسازی کنند و اپل ادعا می‌کند که فقط 1 در 1 تریلیون از حساب‌ها می‌توانند به‌طور اشتباه علامت‌گذاری شوند. با استفاده از این سیستم اسکن دخلی، اپل ادعا می‌کند که هیچ اطلاعاتی در مورد عکس‌های دیگران را فاش نخواهد کرد.

آیا استدلال‌های مطرح شده توسط اپل پیرامون ویژگی محافظت از کودکان قانع کننده است؟

نه برای بسیاری از منتقدان آن. همانطور که Ben Thompson در Stratechery می‌نویسد، مسئله این نیست که آیا اپل فقط اعلان‌ها را برای والدین ارسال می‌کند یا جستجوهای خود را در دسته‌بندی خاصی از محتوا محدود می‌کند. این بدان معناست که این شرکت به‌طور مرتب درحال جستجو در بین داده‌هاست.

اپل به‌جای افزودن اسکن CSAM به عکس‌های iCloud در فضای ابری، گوشی‌ای را که متعلق به من و شماست به خطر می‌اندازد، بدون آنکه هیچ کدام از ما در این مورد نظری داشته باشیم. بله، برای غیرفعال کردن اسکن اپل، می‌توانید iCloud Photos را خاموش کنید، اما این یک تصمیم سیاسی است. قابلیت دسترسی به تلفن کاربر درحال‌حاضر وجود داشته و هیچ کاربر آیفونی نمی‌تواند برای خلاص شدن از آن کاری انجام دهد.

CSAM غیرقانونی و نفرت‌انگیز است. اما همانطور که در نامه سرگشاده به اپل اشاره شده است، بسیاری از کشورها در تلاش برای به خطر انداختن قابلیت‌های مربوط به رمزگذاری به نام مبارزه با تروریسم، اطلاعات غلط و سایر مطالب قابل اعتراض هستند. اکنون که اپل این سابقه را ایجاد کرده است، مطمئناً برای گسترش آن با تذکراتی روبرو خواهد شد؛ و اگر اپل بعداً رمزگذاری کامل را برای iCloud اجرا کند(کاری که طبق گزارشات انجام شده، هرچند هرگز اجرا نشده است) این یک نقشه راه احتمالی برای دور زدن محافظت از E2EE خواهد بود.

ایلان ماسک سهم ۳۰ درصدی اپل از اپ استور را نوعی “مالیات جهانی” بر اینترنت می‌داند

اپل می‌گوید هرگونه تماس برای سوءاستفاده از سیستم‌های خود را رد می‌کند و در این مورد نیز ضمانت‌هایی دارد: این واقعیت که والدین نمی‌توانند هشدارها را برای نوجوانان با سن بالاتر در Messages فعال کنند، اینکه مدارک ایمنی iCloud رمزگذاری شده است، این یک آستانه برای هشدار ناظران تعیین می‌کند و جستجوهای آن فقط در ایالات‌متحده به‌شدت محدود به پایگاه داده NCMEC شده است.

ویژگی محافظت از کودکان اپل تنها برای تشخیص تصاویر شناخته و ذخیره شده CSAM در iCloud Photos می‌باشد که توسط متخصصان NCMEC و دیگر گروه‌های ایمنی کودک شناسایی شده است. ما با درخواست‌هایی برای ایجاد و استقرار تغییراتی که دولت به حریم‌خصوصی کاربران می‌افزاید، برخورد کرده‌ایم و این خواسته‌ها را با قاطعیت رد می‌کنیم. همچنین ما در آینده به رد آنها ادامه خواهیم داد. بگذارید واضح بگویم، این فناوری محدود به تشخیص CSAM ذخیره شده در iCloud است و ما به درخواست هیچ دولتی برای گسترش آن نمی‌پردازیم.

مسئله این است که اپل این قدرت را دارد که این ضمانت‌نامه‌ها را تغییر دهد. Portnoy می‌گوید: “نیمی از مشکل این است که این سیستم به‌سادگی قابل تغییر است.”

Alex Stamos، استاد رصدخانه اینترنتی استنفورد نیز نحوه همکاری خوب اپل با جامعه متخصصان رمزنگاری را زیر سوال برد و گفت که اپل از شرکت در یک سری بحث در مورد ایمنی، حریم خصوصی و رمزگذاری خودداری کرده است. او در توئیتر خود نوشت: “با این اعلامیه آنها فقط وارد بحث متعادل‌سازی شده‌اند و ذهن همگان را بدون مشورت و بحث عمومی به دورترین نقاط کشاندند.”

ویژگی محافظت از کودکان اپل چگونه در برابر خطرات قرار می‌گیرد؟

طبق معمول، این موضوع پیچیده‌ای است. اپل دلایل موجهی برای افزایش تلاش‌های خود برای حفاظت از کودکان دارد. در اواخر سال 2019، نیویورک تایمز گزارش‌هایی از “همه گیر شدن” سوء استفاده جنسی آنلاین از کودکان منتشر کرد. این امر شرکت‌های فناوری آمریکایی را به‌دلیل ناتوانی در مقابله با گسترش CSAM مورد انتقاد قرار داد و در مقاله‌ای، NCMEC اپل را به‌دلیل نرخ گزارش‌دهی پایین آن در مقایسه با همتایان خود مانند فیس‌بوک، مورد توجه قرار داده است؛ چیزی که Times تا حدی به دلیل عدم اسکن فایل‌های iCloud به این شرکت نسبت داد.

در عین حال، خود اپل حریم‌خصوصی را “حقوق بشر” نامیده است. تلفن‌ها دستگاه‌های صمیمی هستند که پر از اطلاعات حساس می‌باشند. اپل با پیام‌ها و تغییرات iCloud خود، دو روش را برای جستجو یا تجزیه و تحلیل محتوا به‌طور مستقیم بر روی سخت‌افزار و نه پس از ارسال داده ها به شخص ثالث، نشان داده است.

اپل اعتراض به ارائه قابلیت ویژگی محافظت از کودکان خود را تایید کرده اما تاکنون، برنامه‌ای برای اصلاح یا رها کردن آنها نشان نداده است. روز جمعه، یک یادداشت داخلی از سوی این شرکت، “سوء تفاهم‌ها”ی ایجاد شده را تصدیق کرد اما در عین حال تغییرات اعمال شده را نیز ستود. “آنچه امروز اعلام کردیم محصول این همکاری باورنکردنی است، که ابزارهایی را برای محافظت از کودکان ارائه می‌دهد، اما همچنین تعهد عمیق اپل به حریم‌خصوصی، امنیت کاربران را حفظ می‌کند. ما می‌دانیم که برای برخی افراد سوء تفاهم پیش آمده است و تعدادی از آنها نگران پیامدهای آن هستند، اما ما به توضیح و تفصیل ویژگی‌ها ادامه می‌دهیم تا مردم متوجه شوند ما چه چیزی ساخته‌ایم.”

دیدگاه شما چیست؟ به‌نظر شما اپل با معرفی ویژگی محافظت از کودکان به‌واقع در پی راهی برای جلوگیری از انتشار محتوای خطرناک برای نوجوانان زیر ۱۳ سال توسط والدین آنها بوده است و یا این شرکت ادعای حفظ حریم‌خصوصی خود را خدشه‌دار کرده و سعی دارد تا راهی برای نفوذ به دستگاه‌های همراه پیدا کند؟

اشتراک در
اطلاع از
1 Comment
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
ali_s

اسپم
comment image
دوستان کسی میدونه چرا قسمت آپدیت هام بعد اندروید یازده و می یو آی ۱۲.۵ این شکل شده؟
یعنی دیگه آپدیت فقط امنیتی میده
کسایی که ردمی نوت هشت پرو دارن هم این شکل شده قسمت آپدیت هاشون؟

رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
امیرحسین ملکی