حساب کاربری ندارید؟ ثبت نام کنید

معاون ارشد اپل به ابهامات ایجاد شده پیرامون ویژگی محافظت از کودکان پاسخ می‌دهد

نوشته

3 سال قبل | بدون دیدگاه | اپل، امنیت، چهره ها

اخیرا کریگ فدریگی، نایب رئیس ارشد بخش نرم افزار اپل، در مصاحبه‌ای با وال استریت ژورنال، از ابهامات ایجاد شده درباره ویژگی بحث‌برانگیز این شرکت پیرامون برنامه محافظت از سوءاستفاده جنسی از کودکان (CSAM) و تعدادی از جزئیات جدید درباره ضمانت‌های موجود در سیستم اپل برای اسکن عکس‌های گالری کاربران دفاع کرده و به سؤالات ایجاد شده مربوط به آن پاسخ می‌دهد.

جوابیه معاون ارشد اپل پیرامون ابهامات ویژگی محافظت از کودکان

Craig Federighi در این باره اذعان داشت که اپل در اطلاعیه هفته گذشته پیرامون دو ویژگی جدید که مربوط به تشخیص محتوای واضح در پیام‌ها برای کودکان و محتوای سو‌‌ءاستفاده جنسی ذخیره شده در iCloud Photos می‌شود، ضعیف عمل کرده و ایجاد ابهامات گسترده در مورد این ابزارها را تایید می‌کند:

در واقع واضح است که بسیاری از پیام‌ها از نظر نحوه درک با شیوه بسیار نادرستی القا شده‌اند. ما آرزو می‌کنیم که این امر برای همه کمی واضح‌تر شود؛ چراکه نسبت به کاری که درحال انجام آن هستیم، احساس بسیار قوی و مثبتی داریم.

در آینده‌نگریمان، معرفی این دو ویژگی به‌صورت همزمان باعث ایجاد نوعی سردرگمی شده است. با انتشار آنها به‌صورت همزمان، مردم به‌لحاظ فنی آنها را با یکدیگر ادغام کرده که نتیجتا باعث ایجاد ترسی در ایشان شده است: منظور من دقیقا چیست؟ پاسخ اینست که قرار نیست هیچ اتفاقی برای پیام‌های شما بیفتد.

ویژگی جدید اپل پیرامون محافظت از کودکان چیست و چرا حساسیت‌ها نسبت به آن بالاست؟

ویژگی ایمنی ارتباطاتی بدین معناست که اگر کودکان تصاویر واضح را از طریق iMessage ارسال یا دریافت کنند، قبل از مشاهده به آنها هشدار داده شده، تصویر مربوطه تار می‌شود و گزینه‌ای برای هشدار به والدین ارسال خواهد شد. از سوی دیگر، اسکن CSAM سعی می‌کند تا عکس‌های کاربران را قبل از بارگذاری در iCloud، با تصاویر CSAM مطابقت دهد. حساب‌هایی که CSAM را شناسایی کرده‌اند، پس از آن مورد بازبینی دستی اپل قرار گرفته و ممکن است به مرکز ملی کودکان مفقود شده و استثمار شده (NCMEC) گزارش شوند.

ویژگی‌های جدید با انتقادات زیادی از سوی کاربران، محققان امنیتی، بنیاد الکترونیکی پیشرو (EFF) و ادوارد اسنودن، مدیر امنیتی سابق فیس بوک و حتی کارکنان اپل مواجه شده است.

در بحبوحه این انتقادات، فدریگی به یکی از اصلی‌ترین موضوعات مورد توجه پرداخته و تأکید کرد که سیستم اپل در برابر سوءاستفاده دولت‌ها یا سایر اشخاص ثالث با “سطوح متعدد حسابرسی” محافظت می‌شود.

فدریگی همچنین تعدادی از جزئیات جدید پیرامون ضمانت‌های این سیستم را فاش کرد، مانند این واقعیت که کاربر قبل از هشدار به اپل باید در برنامه Photos خود حدود 30 مورد محتوای CSAM را در اختیار داشته باشد، که در صورت واقعی بودن آن، تصاویر تأیید می‌شوند.

اگر و تنها درصورتی که به اندازه 30 تصویر شناخته شده پورنوگرافی کودک وجود داشته باشید، اپل از اطلاعات مربوط به حساب شما اطلاع پیدا کرده و از آن تصاویر چیزی می‌داند که باز هم فقط از همان‌ها اطلاع خواهد داشت و نه تصاویر دیگر شما. آنالیز این تصاویر به‌گونه‌ای نیست که آیا تصویری از فرزندتان در وان حمام و یا حتی تصاویر پورنوگرافی از هر نوع دیگری را در اختیار دارید یا نه؟ این به‌معنای واقعی کلمه فقط با اسکن دقیق تصاویر شناخته شده پورنوگرافی کودکان مطابقت دارد.

پاسخ کریگ فدریگی پیرامون ابهامات ویژگی محافظت از کودکان

پاسخ کریگ فدریگی پیرامون ابهامات ویژگی محافظت از کودکان

وی همچنین به مزیت امنیتی قرار دادن مستقیم فرآیند تطبیق بر روی آیفون به‌جای اینکه در سرورهای iCloud انجام شود، اشاره کرد.

از آنجا که روی [گوشی] قرار دارد، محققان امنیتی می‌توانند دائماً آنچه را که در نرم‌افزار [گوشی] اپل اتفاق می‌افتد، بررسی کنند. بنابراین اگر تغییراتی ایجاد شود که به‌نحوی دامنه این امر را گسترش دهد، به روشی که ما متعهد شده بودیم انجام ندهیم، تأییدیه‌ای وجود دارد که محققان می‌توانند تشخیص دهند که این مورد درحال وقوع است.

فدریگی در پاسخ به این سؤال که آیا پایگاه داده تصاویر مورد استفاده برای مطابقت با محتوای CSAM در دستگاه‌های کاربران با درج مواد دیگر مانند محتوای سیاسی در مناطق خاص به‌خطر می‌افتد، توضیح می‌دهد که پایگاه داده از تصاویر CSAM شناخته شده از چندین سازمان ایمنی کودک ساخته شده است که حداقل دو مورد “در حوزه‌های قضایی مجزا” برای محافظت در برابر سوءاستفاده از این سیستم می‌باشند.

به گفته فدریگی، سازمان‌های حمایت از کودکان و همچنین یک حسابرس مستقل می‌توانند تأیید کنند که پایگاه داده تصاویر فقط شامل محتوای آن نهادهاست.

مصاحبه فدریگی یکی از بزرگترین بازخوردهای روابط عمومی اپل تاکنون پس از واکنش عمومی متقابل به اعلام ویژگی‌های محافظت از کودکان بوده است، اما این شرکت پیش از این نیز بارها تلاش کرده تا نگرانی‌های کاربران را برطرف ساخته، سوالات متداول را منتشر کند و به‌طور مستقیم به رسانه‌ها درباره نگرانی‌های ایجاد شده پاسخ دهد.

کارمندان اپل در مورد برنامه حفاظت از کودکان (CSAM) این شرکت ابراز نگرانی می‌کنند

نظر شما راجع‌به توضیحات معاون ارشد بخش نرم‌افزار اپل، Craig Federighi، در پاسخ به ابهامات و اتهامات صورت گرفته پیرامون ویژگی جدید اپل برای محافظت از کودکان چیست؟

اشتراک در
اطلاع از
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
امیرحسین ملکی