بهتازگی و در اعتراض به اجرای برنامه شناسایی CSAM اپل، بنیاد مرزهای الکترونیکی (EFF) که در گذشته در مورد ویژگیهای امنیتی اپل در مورد ایمنی کودکان صحبتهایی را بیان کرده بود، در جریان رویداد معرفی سری جدید آیفون ۱۳ این شرکت در اوایل این ماه، بنری را بر فراز Apple Park با یک پیام برای غول فناوری کوپرتینو نصب کرده است که به انتقاد از برنامههای اسکن اپل از گوشیهای هوشمند میپردازد.
به گزارش macrumors، در جریان رویداد مجازی “California Streaming” اپل در ۲۳ شهریور که بدون حضور فیزیکی تماشاگران و بهصورت از پیش ضبط شده پخش شد، بنیاد مرزهای الکترونیکی (EFF) تصمیم گرفت تا با نصب بنر اعتراضی با مضموم “اپل: تلفنهای ما را اسکن نکنید! EFF.ORG/APPLE.” در محل استقرار غول فناوری واقع در کوپرتینو کالیفرنیا، مخالفت خود را با برنامه شناسایی CSAM اخیر این شرکت نشان دهد.
EFF بیان میکند که از این نوع “تبلیغات هوایی” استفاده کرده تا مطمئن شود برنامههای CSAM اپل “در پسزمینه” محو نشده و اپل آنها را “میشنود”. EFF همچنین همین بنر را بر فراز 1 Infinite Loop، مقر پیشین اپل که چهار سال پیش تخلیه شد نیز، به پرواز درآورد.
اپل در ماه آگوست برنامههای خود را برای استفاده از یادگیری ماشینی بر روی دستگاه و سیستم سفارشی “NeuralHash” خود برای تشخیص تصاویر CSAM شناخته شده در گالری عکس کاربران آیفون اعلام کرد. پس از آن، حامیان حریمخصوصی و گروههای امنیتی، از جمله EFF، در مورد خطرات احتمالی پیرامون حریمخصوصی آن صحبت کردند.
برخلاف گوگل و سایر شرکتهایی که CSAM یا مطالب مربوط به سوء استفاده جنسی از کودکان را در فضای ابری اسکن میکنند، سیستم اپل درعوض از پردازش روی دستگاه برای شناسایی تصاویر CSAM استفاده میکند. با این حال، EFF ناراضی است و قبلاً از اپل خواسته بود تا برنامههای خود را بهطور کامل کنار بگذارد.
در تاریخ 3 سپتامبر، اپل اعلام کرد که تشخیص CSAM را که قرار بود در پاییز امسال منتشر کند، به تأخیر میاندازد تا “قبل از انتشار این ویژگی بسیار مهم ایمنی کودکان، اطلاعات را جمعآوری کرده و پیشرفتهایی را پیرامون آن انجام دهد.” بنیاد مرزهای الکترونیکی، در یک پست وبلاگ، میگوید که بهطور مستقل رویدادهایی را با “گروههای مختلف” برای جمعآوری تحقیقات و پیشنهادات برگزار میکند تا در عدم ارائه این ویژگی از سوی اپل مفید باشد.
اکنون که رویداد شهریورماه اپل به پایان رسیده است، این شرکت باید با گروههایی که از آن انتقاد کردهاند، تماس بگیرد و طیف وسیعتری از پیشنهادات را در مورد نحوه برخورد با مشکلات دشوار مانند حفاظت آنلاین از کودکان جستجو کند. EFF، به نوبه خود، رویدادی را با گروههای مختلف که در این حوزه کار میکنند برگزار کرده تا تحقیقات و نگرانیهایی را که باید به گوش اپل و سایر شرکتهای فناوری برسد را به اشتراک بگذارند.
برنامههای ایمنی کودکان اپل، علاوهبر تشخیص CSAM، شامل محافظت بیشتر از کودکان در برابر تصاویر ناخواسته نیز میباشد. برای کسب اطلاعات بیشتر و بیانیه رسمی اپل برای این قابلیت، میتوانید به این لینک مراجعه فرمایید.
به گفته قانون گذار آلمانی قابلیت CSAM اپل “بزرگترین ابزار نظارتی تاریخ” است
دیدگاه شما چیست؟ بهنظر شما برنامه تشخیص CSAM اپل یک قابلیت ضد امنیتی بوده و یا بهنفع کاربران آیفون و تشخیص محتوای نامناسب میباشد؟