حساب کاربری ندارید؟ ثبت نام کنید

اعتراض به CSAM از طریق نصب بنر از سوی بنیاد مرزهای الکترونیکی در اپل پارک

نوشته

3 سال قبل | بدون دیدگاه | اپل، امنیت

به‌تازگی و در اعتراض به اجرای برنامه شناسایی CSAM اپل، بنیاد مرزهای الکترونیکی (EFF) که در گذشته در مورد ویژگی‌های امنیتی اپل در مورد ایمنی کودکان صحبت‌هایی را بیان کرده بود، در جریان رویداد معرفی سری جدید آیفون ۱۳ این شرکت در اوایل این ماه، بنری را بر فراز Apple Park با یک پیام برای غول فناوری کوپرتینو نصب کرده است که به انتقاد از برنامه‌های اسکن اپل از گوشی‌های هوشمند می‌پردازد.

نصب بنر از سوی EFF به‌منظور اعتراض به ويژگی CSAM اپل

به گزارش macrumors، در جریان رویداد مجازی “California Streaming” اپل در ۲۳ شهریور که بدون حضور فیزیکی تماشاگران و به‌صورت از پیش ضبط شده پخش شد، بنیاد مرزهای الکترونیکی (EFF) تصمیم گرفت تا با نصب بنر اعتراضی با مضموم “اپل: تلفن‌های ما را اسکن نکنید! EFF.ORG/APPLE.” در محل استقرار غول فناوری واقع در کوپرتینو کالیفرنیا، مخالفت خود را با برنامه شناسایی CSAM اخیر این شرکت نشان دهد.

EFF بیان می‌کند که از این نوع “تبلیغات هوایی” استفاده کرده تا مطمئن شود برنامه‌های CSAM اپل “در پس‌زمینه” محو نشده و اپل آنها را “می‌شنود”. EFF همچنین همین بنر را بر فراز 1 Infinite Loop، مقر پیشین اپل که چهار سال پیش تخلیه شد نیز، به پرواز درآورد.

اپل در ماه آگوست برنامه‌های خود را برای استفاده از یادگیری ماشینی بر روی دستگاه و سیستم سفارشی “NeuralHash” خود برای تشخیص تصاویر CSAM شناخته شده در گالری عکس کاربران آیفون اعلام کرد. پس از آن، حامیان حریم‌خصوصی و گروه‌های امنیتی، از جمله EFF، در مورد خطرات احتمالی پیرامون حریم‌خصوصی آن صحبت کردند.

نصب بنر از سوی EFF به‌منظور اعتراض به ويژگی CSAM اپل

نصب بنر از سوی EFF به‌منظور اعتراض به ويژگی CSAM اپل

برخلاف گوگل و سایر شرکت‌هایی که CSAM یا مطالب مربوط به سوء استفاده جنسی از کودکان را در فضای ابری اسکن می‌کنند، سیستم اپل درعوض از پردازش روی دستگاه برای شناسایی تصاویر CSAM استفاده می‌کند. با این حال، EFF ناراضی است و قبلاً از اپل خواسته بود تا برنامه‌های خود را به‌طور کامل کنار بگذارد.

در تاریخ 3 سپتامبر، اپل اعلام کرد که تشخیص CSAM را که قرار بود در پاییز امسال منتشر کند، به تأخیر می‌اندازد تا “قبل از انتشار این ویژگی بسیار مهم ایمنی کودکان، اطلاعات را جمع‌آوری کرده و پیشرفت‌هایی را پیرامون آن انجام دهد.” بنیاد مرزهای الکترونیکی، در یک پست وبلاگ، می‌گوید که به‌طور مستقل رویدادهایی را با “گروه‌های مختلف” برای جمع‌آوری تحقیقات و پیشنهادات برگزار می‌کند تا در عدم ارائه این ویژگی از سوی اپل مفید باشد.

اکنون که رویداد شهریورماه اپل به پایان رسیده است، این شرکت باید با گروه‌هایی که از آن انتقاد کرده‌اند، تماس بگیرد و طیف وسیع‌تری از پیشنهادات را در مورد نحوه برخورد با مشکلات دشوار مانند حفاظت آنلاین از کودکان جستجو کند. EFF، به نوبه خود، رویدادی را با گروه‌های مختلف که در این حوزه کار می‌کنند برگزار کرده تا تحقیقات و نگرانی‌هایی را که باید به گوش اپل و سایر شرکت‌های فناوری برسد را به اشتراک بگذارند.

برنامه‌های ایمنی کودکان اپل، علاوه‌بر تشخیص CSAM، شامل محافظت بیشتر از کودکان در برابر تصاویر ناخواسته نیز می‌باشد. برای کسب اطلاعات بیشتر و بیانیه رسمی اپل برای این قابلیت، می‌توانید به این لینک مراجعه فرمایید.

به گفته قانون گذار آلمانی قابلیت CSAM اپل “بزرگترین ابزار نظارتی تاریخ” است

دیدگاه شما چیست؟ به‌نظر شما برنامه تشخیص CSAM اپل یک قابلیت ضد امنیتی بوده و یا به‌نفع کاربران آیفون و تشخیص محتوای نامناسب می‌باشد؟

اشتراک در
اطلاع از
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
امیرحسین ملکی