حساب کاربری ندارید؟ ثبت نام کنید

- CSAM -

اپل طرح بحث‌برانگیز CSAM را برای همیشه کنار گذاشت

بر اساس بیانیه‌ای که با WIRED به‌اشتراک گذاشته شده است، اپل امروز اعلام کرد که از برنامه بحث‌برانگیز خود برای شناسایی مواد شناخته‌شده سوءاستفاده جنسی از کودکان (CSAM) که در iCloud Photos ذخیره می‌شود، صرف‌نظر کرده است. ادامه نوشته
  • نوشته امیرحسین ملکی
  • 1 سال قبل
  • بدون دیدگاه

اپل تمامی ارجاعات به برنامه CSAM را از صفحه وب‌سایت خود حذف کرد

امروز، کمپانی اپل بی‌سروصدا تمام موارد ذکر شده برنامه CSAM را از صفحه وب‌سایت رسمی مخصوص محافظت از کودکان خود حذف کرده است. با این حال، این شرکت اطمینان داده که طرح بحث‌برانگیز آن‌ها برای شناسایی تصاویر سوءاستفاده جنسی از کودکان در آیفون و آیپد تغییری نکرده و انتشار آن تنها مدتی به‌تعویق خواهد افتاد. ادامه نوشته
  • نوشته امیرحسین ملکی
  • 2 سال قبل
  • بدون دیدگاه
نصب بنر از سوی EFF به‌منظور اعتراض به ويژگی CSAM اپل

اعتراض به CSAM از طریق نصب بنر از سوی بنیاد مرزهای الکترونیکی در اپل پارک

به‌تازگی و در اعتراض به اجرای برنامه شناسایی CSAM اپل، بنیاد مرزهای الکترونیکی (EFF) که در گذشته در مورد ویژگی‌های امنیتی اپل در مورد ایمنی کودکان صحبت‌هایی را بیان کرده بود، در جریان رویداد معرفی سری جدید آیفون ۱۳ این شرکت در اوایل این ماه، بنری را بر فراز Apple Park با یک پیام برای غول فناوری کوپرتینو نصب کرده است که به انتقاد از برنامه‌های اسکن اپل از گوشی‌های هوشمند می‌پردازد. ادامه نوشته
  • نوشته امیرحسین ملکی
  • 2 سال قبل
  • بدون دیدگاه
قابلیت Child Safety اپل

اسکن عکس های آیفون و پیام های iMessage توسط اپل صحت دارد؟ قابلیت Child Safety اپل چیست؟

ویژگی Child Safety اپل این روزها خیلی سروصدا کرده است. خیلی ها می پرسند که آیا اسکن عکس های آیفون و پیام های iMessage توسط اپل صحت دارد؟ ما پیش از این مطالب خیلی خوبی در ترنجی پیرامون این موضوع داشته ایم و توصیه می کنم حتما آن ها را بخوانید. با این حال امشب می خواهیم در یک ویدیو به توضیح ساده مسائل بپردازیم و در نهایت پرسشی داشته باشیم که برای آینده فناوری مهم است. ادامه نوشته
  • نوشته سینا عطایی
  • 2 سال قبل
  • بدون دیدگاه
قابلیت CSAM اپل

به گفته قانون گذار آلمانی قابلیت CSAM اپل “بزرگترین ابزار نظارتی تاریخ” است

ماجرای قابلیت CSAM اپل این روزها خیلی بحث برانگیز شده است. گاهی حتی کارمندان اپل از آن ابراز نگرانی می کنند و گاهی کرگ-فدریگی آن را کاملا توجیه می کند. جالب است که بدانید به گفته قانون گذار آلمانی قابلیت CSAM اپل "بزرگترین ابزار نظارتی تاریخ" است. ادامه نوشته
  • نوشته سینا عطایی
  • 2 سال قبل
  • بدون دیدگاه
کریگ فدریگی

معاون ارشد اپل به ابهامات ایجاد شده پیرامون ویژگی محافظت از کودکان پاسخ می‌دهد

اخیرا کریگ فدریگی، نایب رئیس ارشد بخش نرم افزار اپل، در مصاحبه‌ای با وال استریت ژورنال، از ابهامات ایجاد شده درباره ویژگی بحث‌برانگیز این شرکت پیرامون برنامه محافظت از سوءاستفاده جنسی از کودکان (CSAM) و تعدادی از جزئیات جدید درباره ضمانت‌های موجود در سیستم اپل برای اسکن عکس‌های گالری کاربران دفاع کرده و به سؤالات ایجاد شده مربوط به آن پاسخ می‌دهد. ادامه نوشته
  • نوشته امیرحسین ملکی
  • 2 سال قبل
  • بدون دیدگاه
نگرانی کارمندان اپل درباره برنامه حفاظت از کودکان

کارمندان اپل در مورد برنامه حفاظت از کودکان (CSAM) این شرکت ابراز نگرانی می‌کنند

بر اساس گزارش رویترز، کارمندان اپل درحال‌حاضر نگرانی خود در مورد برنامه‌های این شرکت پیرامون اسکن گالری عکس کاربران آیفون به‌منظور حفاظت از کودکان (CSAM) یا موارد سوءاستفاده جنسی از آنها را ابراز کرده و در مورد نحوه استفاده از این فناوری برای اسکن عکس‌های کاربران برای انواع دیگری از محتوا بحث می‌کنند. ادامه نوشته
  • نوشته امیرحسین ملکی
  • 2 سال قبل
  • بدون دیدگاه