اخیرا کریگ فدریگی، نایب رئیس ارشد بخش نرم افزار اپل، در مصاحبهای با وال استریت ژورنال، از ابهامات ایجاد شده درباره ویژگی بحثبرانگیز این شرکت پیرامون برنامه محافظت از سوءاستفاده جنسی از کودکان (CSAM) و تعدادی از جزئیات جدید درباره ضمانتهای موجود در سیستم اپل برای اسکن عکسهای گالری کاربران دفاع کرده و به سؤالات ایجاد شده مربوط به آن پاسخ میدهد.
Craig Federighi در این باره اذعان داشت که اپل در اطلاعیه هفته گذشته پیرامون دو ویژگی جدید که مربوط به تشخیص محتوای واضح در پیامها برای کودکان و محتوای سوءاستفاده جنسی ذخیره شده در iCloud Photos میشود، ضعیف عمل کرده و ایجاد ابهامات گسترده در مورد این ابزارها را تایید میکند:
در واقع واضح است که بسیاری از پیامها از نظر نحوه درک با شیوه بسیار نادرستی القا شدهاند. ما آرزو میکنیم که این امر برای همه کمی واضحتر شود؛ چراکه نسبت به کاری که درحال انجام آن هستیم، احساس بسیار قوی و مثبتی داریم.
در آیندهنگریمان، معرفی این دو ویژگی بهصورت همزمان باعث ایجاد نوعی سردرگمی شده است. با انتشار آنها بهصورت همزمان، مردم بهلحاظ فنی آنها را با یکدیگر ادغام کرده که نتیجتا باعث ایجاد ترسی در ایشان شده است: منظور من دقیقا چیست؟ پاسخ اینست که قرار نیست هیچ اتفاقی برای پیامهای شما بیفتد.
ویژگی جدید اپل پیرامون محافظت از کودکان چیست و چرا حساسیتها نسبت به آن بالاست؟
ویژگی ایمنی ارتباطاتی بدین معناست که اگر کودکان تصاویر واضح را از طریق iMessage ارسال یا دریافت کنند، قبل از مشاهده به آنها هشدار داده شده، تصویر مربوطه تار میشود و گزینهای برای هشدار به والدین ارسال خواهد شد. از سوی دیگر، اسکن CSAM سعی میکند تا عکسهای کاربران را قبل از بارگذاری در iCloud، با تصاویر CSAM مطابقت دهد. حسابهایی که CSAM را شناسایی کردهاند، پس از آن مورد بازبینی دستی اپل قرار گرفته و ممکن است به مرکز ملی کودکان مفقود شده و استثمار شده (NCMEC) گزارش شوند.
ویژگیهای جدید با انتقادات زیادی از سوی کاربران، محققان امنیتی، بنیاد الکترونیکی پیشرو (EFF) و ادوارد اسنودن، مدیر امنیتی سابق فیس بوک و حتی کارکنان اپل مواجه شده است.
در بحبوحه این انتقادات، فدریگی به یکی از اصلیترین موضوعات مورد توجه پرداخته و تأکید کرد که سیستم اپل در برابر سوءاستفاده دولتها یا سایر اشخاص ثالث با “سطوح متعدد حسابرسی” محافظت میشود.
فدریگی همچنین تعدادی از جزئیات جدید پیرامون ضمانتهای این سیستم را فاش کرد، مانند این واقعیت که کاربر قبل از هشدار به اپل باید در برنامه Photos خود حدود 30 مورد محتوای CSAM را در اختیار داشته باشد، که در صورت واقعی بودن آن، تصاویر تأیید میشوند.
اگر و تنها درصورتی که به اندازه 30 تصویر شناخته شده پورنوگرافی کودک وجود داشته باشید، اپل از اطلاعات مربوط به حساب شما اطلاع پیدا کرده و از آن تصاویر چیزی میداند که باز هم فقط از همانها اطلاع خواهد داشت و نه تصاویر دیگر شما. آنالیز این تصاویر بهگونهای نیست که آیا تصویری از فرزندتان در وان حمام و یا حتی تصاویر پورنوگرافی از هر نوع دیگری را در اختیار دارید یا نه؟ این بهمعنای واقعی کلمه فقط با اسکن دقیق تصاویر شناخته شده پورنوگرافی کودکان مطابقت دارد.
وی همچنین به مزیت امنیتی قرار دادن مستقیم فرآیند تطبیق بر روی آیفون بهجای اینکه در سرورهای iCloud انجام شود، اشاره کرد.
از آنجا که روی [گوشی] قرار دارد، محققان امنیتی میتوانند دائماً آنچه را که در نرمافزار [گوشی] اپل اتفاق میافتد، بررسی کنند. بنابراین اگر تغییراتی ایجاد شود که بهنحوی دامنه این امر را گسترش دهد، به روشی که ما متعهد شده بودیم انجام ندهیم، تأییدیهای وجود دارد که محققان میتوانند تشخیص دهند که این مورد درحال وقوع است.
فدریگی در پاسخ به این سؤال که آیا پایگاه داده تصاویر مورد استفاده برای مطابقت با محتوای CSAM در دستگاههای کاربران با درج مواد دیگر مانند محتوای سیاسی در مناطق خاص بهخطر میافتد، توضیح میدهد که پایگاه داده از تصاویر CSAM شناخته شده از چندین سازمان ایمنی کودک ساخته شده است که حداقل دو مورد “در حوزههای قضایی مجزا” برای محافظت در برابر سوءاستفاده از این سیستم میباشند.
به گفته فدریگی، سازمانهای حمایت از کودکان و همچنین یک حسابرس مستقل میتوانند تأیید کنند که پایگاه داده تصاویر فقط شامل محتوای آن نهادهاست.
مصاحبه فدریگی یکی از بزرگترین بازخوردهای روابط عمومی اپل تاکنون پس از واکنش عمومی متقابل به اعلام ویژگیهای محافظت از کودکان بوده است، اما این شرکت پیش از این نیز بارها تلاش کرده تا نگرانیهای کاربران را برطرف ساخته، سوالات متداول را منتشر کند و بهطور مستقیم به رسانهها درباره نگرانیهای ایجاد شده پاسخ دهد.
کارمندان اپل در مورد برنامه حفاظت از کودکان (CSAM) این شرکت ابراز نگرانی میکنند
نظر شما راجعبه توضیحات معاون ارشد بخش نرمافزار اپل، Craig Federighi، در پاسخ به ابهامات و اتهامات صورت گرفته پیرامون ویژگی جدید اپل برای محافظت از کودکان چیست؟