حساب کاربری ندارید؟ ثبت نام کنید

تحقیقات رگولاتور ایرلند روی هوش مصنوعی گراک و تخلفات احتمالی آن

نوشته

1 روز قبل | بدون دیدگاه | هوش مصنوعی

رگولاتور حریم خصوصی داده ایرلند در حال تحقیق در مورد شرکت X (توییتر سابق) متعلق به ایلان ماسک است. کمیسیون حفاظت از داده (DPC) ایرلند روز جمعه، ۲۲ فروردین ۱۴۰۴ اعلام کرد (به نقل از رویترز) که تحقیقی را در مورد استفاده این پلتفرم اجتماعی از پست‌های عمومی کاربران اروپایی (EU/EEA) برای آموزش چت‌بات هوش مصنوعی گراک (Grok AI) آغاز کرده است.

در این مورد، ایرلند مسئولیت اجرای مقررات اتحادیه اروپا را بر عهده دارد، زیرا مقر اروپایی شرکت X در دوبلین واقع شده است.

هوش مصنوعی گراک

هوش مصنوعی گراک

هدف تحقیق و قوانین GDPR

کمیسیون حفاظت از داده ایرلند اعلام کرد که هدف این تحقیق، بررسی این ادعاست:

“پردازش داده‌های شخصی موجود در پست‌های در دسترس عموم که توسط کاربران EU/EEA در پلتفرم رسانه اجتماعی ‘X’ منتشر شده‌اند”

بر اساس قوانین مقررات عمومی حفاظت از داده اروپا (GDPR)، ایرلند قدرت قانونی لازم برای جریمه کردن X تا سقف چهار درصد از درآمد جهانی آن را دارد.

در ادامه DPC ایرلند گفت:

“هدف از این تحقیق، تعیین این موضوع است که آیا این داده‌های شخصی به طور قانونی به منظور آموزش مدل‌های زبان بزرگ (LLM) گراک پردازش شده‌اند یا خیر.”

سابقه درگیری DPC و X بر سر Grok

اگر این موضوع برایتان آشنا به نظر می‌رسد، به این دلیل است که DPC در سال ۲۰۲۴ نیز X را به دادگاه کشاند و به دنبال دستوری برای متوقف کردن آموزش Grok با داده‌های کاربران اتحادیه اروپا بدون رضایت آن‌ها بود. این اقدام پس از تغییر سیاست پلتفرم در تابستان ۱۴۰۳ صورت گرفت که به این سایت اجتماعی اجازه می‌داد از پست‌های عمومی برای آموزش چت‌بات هوش مصنوعی خود استفاده کند.

با این حال، رگولاتور داده ایرلند چند هفته بعد به روند قانونی پایان داد و اعلام کرد که شرکت موافقت کرده است تا به طور دائم استفاده از داده‌های شخصی کاربران اتحادیه اروپا در Grok را محدود کند. DPC مشخص نکرده است که چرا اکنون معتقد است این شرکت ممکن است قوانین GDPR را نقض کرده باشد.

جریمه قبلی توییتر

آخرین جریمه DPC علیه این شرکت (که آن زمان با نام توییتر شناخته می‌شد) مربوط به سال ۲۰۲۰ و جریمه‌ای به مبلغ ۴۵۰ هزار یورو به دلیل عدم اطلاع‌رسانی به موقع (ظرف ۷۲ ساعت) در مورد یک نقض داده بود.

این تحقیقات جدید نشان می‌دهد که چالش‌های مربوط به حریم خصوصی داده‌ها و استفاده از آن‌ها برای آموزش مدل‌های هوش مصنوعی همچنان ادامه دارد.

نظر شما درباره تلاش اروپایی‌ها برای جلوگیری از استفاده نابه‌جا از داده‌های کاربران چیست؟

اشتراک در
اطلاع از
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
سینا عطایی
حال روزگارت به خودت بستگی داره :)