حساب کاربری ندارید؟ ثبت نام کنید

قانون هوش مصنوعی اروپا دارای اختیاراتی برای تخریب یا آموزش مجدد آن‌هاست

نوشته

1 سال قبل | بدون دیدگاه | اخبار، فناوری‌های نوین، هوش مصنوعی

همانطور که می‌دانید، روز به روز استفاده از هوش مصنوعی بیشتر می‌شود و این موضوع نیازمند ایجاد چارچوب و قوانین کارآمدی است. قانون هوش مصنوعی اروپا شامل مجموعه اقداماتی است که مخاطرات و نگرانی متخصصان این حوزه را با بالاترین دقت مورد بررسی قرار می‌دهد. با ترنجی همراه باشید.

قانون هوش مصنوعی اروپا و مجموعه پیشنهادات آن شامل چه چیزهایی است؟

بر اساس تجزیه و تحلیل پیشنهاد توسط قانون، چارچوب برنامه ریزی شده مبتنی بر ریسک اتحادیه اروپا برای تنظیم هوش مصنوعی شامل اختیاراتی برای نهادهای نظارتی است تا دستور ساخت یک سیستم هوش مصنوعی تجاری را صادر کنند یا در صورتی که یک مدل هوش مصنوعی در معرض خطر بالا تلقی شود، باید دوباره بازنویسی شود.

این موضوع نشان می‌دهد که در قانون هوش مصنوعی اتحادیه اروپا (که هنوز تصویب نشده) خطرات بالقوه و مشکلات قابل ‌توجهی در کمین است. با فرض بر اینکه مجموعه‌ای از مقامات نظارتی در سطح کشورهای عضو اتحادیه می‌توانند آن را به طور موثر به سمت الگوریتم‌های مضر هدایت کنند تا تغییر محصول را در راستای منافع عادلانه و عموم مردم انجام دهند.

پیش نویس این قانون همچنان به دلیل تعدادی نقص ساختاری با انتقاد زیادی روبرو است و ممکن است هنوز از هدف تقویت هوش مصنوعی “قابل اعتماد” و “انسان محور” که قانونگذاران اتحادیه اروپا آن را ادعا کرده‌اند، بسیار فاصله داشته باشد. اما حداقل بر روی کاغذ، به نظر می‌رسد برخی از قدرت‌های نظارتی قوی در این زمینه وجود دارد.

قانون هوش مصنوعی اروپا

کمیسیون اروپا بیش از یک سال پیش پیشنهاد خود را برای قانون هوش مصنوعی ارائه کرد. آن‌ها با ارائه چارچوبی که فهرست کوچکی از موارد استفاده از هوش مصنوعی (مانند سیستم امتیازدهی اعتبار اجتماعی به سبک چین) را که برای ایمنی افراد یا اتحادیه اروپا بسیار خطرناک تلقی می‌شود، ممنوع می‌کند. بر این اساس باید حقوق اساسی شهروندان مجاز باشد، اما در حالی که سایر استفاده‌ها را بر اساس ریسک درک شده تنظیم می‌کند، با زیرمجموعه‌ای از موارد استفاده «پرخطر» که مشمول قانون نظارت قبل و پس از بازار است.

در پیش نویس قانون، سیستم‌های پرخطر به صراحت به شرح زیر تعریف شده است: شناسایی بیومتریک و طبقه بندی اشخاص حقیقی، مدیریت و بهره‌برداری از زیرساخت‌های حیاتی، آموزش و پرورش و آموزش حرفه‌ای؛ اشتغال، مدیریت کارگران و دسترسی به خوداشتغالی؛ دسترسی و بهره‌مندی از خدمات خصوصی ضروری و خدمات و مزایای عمومی؛ اجرای قانون؛ مدیریت مهاجرت، پناهندگی و کنترل مرز؛ اجرای عدالت و فرآیندهای دموکراتیک.

بر اساس پیشنهاد اولیه، تقریبا هیچ چیز در این قانون به طور کامل ممنوع نشده است و اکثر موارد استفاده از هوش مصنوعی تحت قانون با مقررات جدی مواجه نخواهند شد زیرا به نظر می‌رسد که آنها “کم خطر” تلقی شده و با یک کد برای ساخت استانداردهای داوطلبانه، عمدتا به خودی خود تنظیم می‌شوند و همچنین یک طرح صدور گواهینامه برای تشخیص انطباق سیستم‌های هوش مصنوعی در نظر گرفته خواهد شد.

همچنین دسته دیگری از هوش مصنوعی‌ها مانند دیپ‌فیک‌ها و چت‌بات‌ها وجود دارد که به نظر می‌رسد در دسته وسط قرار می‌گیرند و برخی الزامات جهت شفافیت برای محدود کردن پتانسیل آن‌ها در استفاده نادرست و ایجاد آسیب در نظر گرفته می‌شود.

پیشنهاد کمیسیون قبلا انتقادات زیادی را برانگیخته است، مانند گروه‌های جامعه مدنی که پاییز گذشته هشدار دادند که این پیشنهاد در حفاظت از حقوق اساسی در برابر آسیب‌های ناشی از هوش مصنوعی مانند تبعیض مقیاس‌ پذیر و تعصب جامعه بسیار فاصله دارد.

تعدادی از مؤسسات اتحادیه اروپا نیز صراحتا خواستار ممنوعیت کامل‌تر شناسایی بیومتریک از راه دور نسبت به آنچه که در کمیسیون و قانون گنجانده شده است (و محدود به اجرای قانون است و مملو از هشدارهای مختلف است) شده‌اند.

با وجود آن، بازنگری عمده در این پیشنهاد در این مرحله نسبتا دیرهنگام از روند قانونگذاری مشترک اتحادیه اروپا بعید به نظر می رسد. اما شورا و پارلمان هنوز در حال بحث در مورد مواضع خود هستند و انتظار نمی‌رود توافق نهایی تا پیش از سال ۲۰۲۳ امکان پذیر باشد. بنابراین امکان اصلاح برخی جزئیات (اگر نه کل ساختار قانونگذاری) وجود دارد.

قانون هوش مصنوعی اروپا

تجزیه و تحلیل قانون موسسه آدا لاولیس مستقر در بریتانیا توسط یک دانشگاه برجسته حقوق اینترنتی، لیلیان ادواردز، که دارای کرسی حقوق، نوآوری و جامعه در دانشگاه نیوکاسل است، برخی از محدودیت‌های این چارچوب را برجسته می‌کند که به گفته او ناشی از همین مشکل است. از قفل شدن آن نیز به قوانین موجود بازار داخلی اتحادیه اروپا و به طور خاص، از تصمیم به مدل سازی آن در امتداد خطوط مقررات موجود اتحادیه اروپا استفاده می‌شود.

وی گفته است که این محدودیت‌های خاص اتحادیه اروپا به این معناست که لزوما بهترین الگو برای سایر مناطق نیست که هنگام فکر کردن به نحوه تنظیم هوش مصنوعی به آن نگاه کنند. علی‌رغم اینکه اتحادیه اروپا اغلب جاه‌ طلبی زیادی برای بررسی اولین فعالیت قانونگذاری خود در حوزه دیجیتال به یک سیستم جهانی دارد. اما نقش تعیین استانداردها (سایر محدودیت‌های مربوط به صلاحیت اتحادیه اروپا به این معنی است که این قانون به هیچ وجه نمی‌تواند کاربردهای نظامی هوش مصنوعی را مورد بررسی قرار دهد، به عنوان مثال، که بیشتر آن‌ها به طور پیش‌فرض انتظار دارید ریسک‌پذیر باشند.) مشکل ساز است.

جای تعجب نیست که برای هر کس که درک گذرا از سیستم یادگیری ماشینی دارد، قوانین فیزیکی محصولات، برای چیزهایی مانند ماشین لباسشویی و اسباب‌ بازی‌ها به خوبی با هوش مصنوعی تطبیق ندارند. با توجه به تفاوت‌های آشکارا بزرگ بین یک محصول تولیدی که در بازار عرضه می‌شود و یک سیستم هوش مصنوعی که ممکن است مبتنی بر مدلی باشد که توسط یک موجودیت برای یک هدف خاص ایجاد شده و توسط یک موجودیت بسیار متفاوت برای استفاده کاملا متمایز به کار گرفته شود (همچنین پس از اینکه ممکن است داده‌های آموزشی متفاوتی در طول مسیر به آن داده شود) نمی‌توان این دو را مقایسه کرد.

با این وجود، قانون هوش مصنوعی مسئولیت وظایف و حقوق را بر عهده یک «ارائه‌ دهنده» اولیه (معروف به همان تولیدکننده) که یک سیستم هوش مصنوعی است می‌گذارد. ادواردز استدلال می‌کند که این روش بسیار محدودی برای نظارت بر نحوه توسعه و استقرار هوش مصنوعی است. زیرا با پیوستن به دیگران توصیه می‌کند که دسته «کاربران» هوش مصنوعی در قانون، فقط نقش تنظیم‌ شده و بسیار محدودی دارند و باید به معرفی‌ کننده تغییر نام داده و به آنها داده شود. هر چند که وظایف متناسب با مسئولیت واقعی آن‌ها در مورد نحوه استفاده از سیستم هوش مصنوعی، پیچیده باشد.

او همچنین می‌نویسد که ترجمه این شبکه پیچیده از بازیگران، داده‌ها، مدل‌ها و خدمات به یک سیستم قانونی که وظایف و حقوقی را برای برخی بازیگران قابل شناسایی تعیین می‌کند، بسیار سخت است. این قانون اصولا کاری را انجام نمی‌دهد که مسلما این موضوع دشوار است. تعیین اینکه توزیع مسئولیت انحصاری و مشترک باید در طول چرخه حیات هوش مصنوعی به صورت متناوب باشد تا از حقوق اساسی کاربران نهایی به طور عملی و کامل محافظت شود هم یک چالش دیگر است. در کل می‌توان آن را به‌ طور نامطلوب با تحولات اخیر در مورد قانون GDPR مقایسه کرد، جایی که دادگاه‌ها تلاش می‌کنند مسئولیت حفاظت از داده‌ها را بین کنترل‌ کنندگان مختلف در مناسب‌ترین زمان‌ها توزیع کنند.

نقص عمده دیگری که او در این مقاله به آن اشاره می کند، عدم وجود هیچ گونه توسلی در قانون برای انسان‌های واقعی برای طرح شکایت در مورد تأثیر سیستم هوش مصنوعی بر شخص آن‌ها (یا بر گروهی از افراد) است که کاملا در تضاد با قوانین اتحادیه اروپا است. چارچوب موجود در حفاظت از داده‌ها و GDPR، هم شکایات فردی را امکان پذیر می‌کند و هم با توانمند سازی جامعه مدنی برای شکایت از طرف افراد آسیب دیده، امکان اصلاح جمعی را فراهم می‌کند.

با استنتاج طرح قانون هوش مصنوعی عمدتا از ایمنی محصول و نه از ابزارهای دیگر، نقش کاربران نهایی سیستم‌های هوش مصنوعی به‌ عنوان سوژه‌های حقوقی، نه فقط به عنوان اشیایی که تحت تاثیر قرار می‌گیرند، پنهان شده و کرامت انسانی آ‌نها نیز نادیده گرفته شده است. این با ابزاری که کارکرد آن ظاهرا حفاظت از حقوق اساسی است، ناسازگار است و ارزیابی مختصر آن مشکل است.

وی همچنین بدون اینکه توضیحی در مورد چگونگی دستیابی به این تعداد انگشت شمار از موارد ممنوعه ثابت کند، از یک فهرست خود سرانه که به احتمال زیاد آگاهی سیاسی سیستم‌هایی که کمیسیون گفته است باید ممنوع باشد، انتقاد می‌کند.

قانون هوش مصنوعی اروپا

وی همچنین می‌گوید که قانون اجازه نمی‌دهد که تغییرات و افزودن به فهرست ممنوعه یا ایجاد دسته‌های سطح بالای جدید به بخش پرخطر اضافه شود که او آن را به عنوان یکی دیگر از محدودیت‌های نامناسب ارزیابی می‌کند.

در محدود کردن این لیست‌های ممنوعه و پرخطر، کمیسیون مذکور احتمالا چشمش به ایجاد اطمینان برای بازار بوده است زیرا به دنبال تشویق همزمان نوآوری هوش مصنوعی است. با این حال، لفاظی‌های آن در مورد این قانون برای سال‌ها با صحبت‌های پرحاشیه‌ای در مورد ایجاد حفاظ‌های اخلاقی برای هوش مصنوعی انسان محور که ارزش‌های اروپایی را منعکس می‌کند، سنگین بوده است. بنابراین وجود تعادل در آن، مشکوک به نظر می‌رسد.

در حالی که مقاله ادواردز به عنوان یک انتقاد در نظر گرفته شده است، اما او همچنین قانون اتحادیه اروپا را تحسین می‌کند و آن را به عنوان “اولین تلاش جامعه جهان برای تنظیم هوش مصنوعی، پرداختن به مسائلی مانند امتیازدهی اجتماعی مبتنی بر داده یا الگوریتم، شناسایی بیومتریک از راه دور و استفاده از سیستم‌های هوش مصنوعی در اجرای قانون، آموزش و اشتغال می‌داند.

او همچنین در این مقاله می نویسد که قانون هوش مصنوعی خود نقطه شروعی عالی برای یک رویکرد جامع به مقررات هوش مصنوعی است. به دلیل محدودیت‌های دوگانه در چارچوب قانونی جدید اتحادیه اروپا و مبنای قانونی قانون نویسی این اتحادیه، به نظر می رسد مهم است که بحث‌هایی را که هم سیاست گذاران اتحادیه اروپا و هم جهان فراتر از اتحادیه اروپا باید در این زمینه داشته باشند مطرح کنیم. نقطه عطف نظارتی مهم.

او معتقد است که همانطور که چنین چیزی همیشه وجود دارد، با فرض عدم اصلاحات اساسی برای رسیدگی به انتقادات کلیدی، به احتمال زیاد این قانون تاثیر نسبتا حداقلی خواهد داشت.

او با اشاره به دو قطعه دیگر از اتحادیه اروپا می‌گوید کاری که اتحادیه اروپا انجام داده است این است که آنها بیشتر تخم‌های خود را در سبد DSA [قانون خدمات دیجیتال]، DMA [قانون بازارهای دیجیتال] قرار داده‌اند و از این رو به طرز خنده‌ داری عجیب است. هنگامی که از او پرسیده شد که این قانون چگونه تاثیر خواهد داشت، وی می‌گوید که قانون دیجیتال بر اصلاحات قوانین تجارت الکترونیک و اصلاح رژیم رقابت اتحادیه اروپا متمرکز بوده است. از آنجایی که اگر به مواردی که در معرض خطر هستند نگاه کنید، این یک نکته واضح دیگر است، اما نمی‌توان آن را به اندازه کافی گفت، زیرا در حال حاضر ریسک بالایی شامل بیشتر مجموعه هوش مصنوعی نمی‌شود که مردم هر روز در زندگی خود با آن مواجه شوند.

هوش مصنوعی

این موضوع همچنین شامل موتورهای جستجو، شبکه‌های اجتماعی و نمایه‌ سازی نمی‌شود. مگر اینکه اساسا در کشور چین باشید. این قانون واقعا روی چیزهایی تمرکز می‌کند که اساسا توسط بازارها تنظیم شده است. مواردی مانند امتیازدهی اعتباری، که در آن سابقه بسیار طولانی از افراد وجود دارد و بررسی می‌کنند تا ببینند آیا این الگوریتم منصفانه به نظر می‌رسد یا خیر و مواردی از این قبیل که تصمیمات دولت، باید برای همیشه در معرض بررسی مجدد قرار می‌گرفت. حداقل در بریتانیا بررسی قضایی و غیره وجود خواهد داشت. اما در واقعیت ما می‌دانیم که دولت با الگوریتم‌ها کارهای بدی انجام می‌دهد بنابراین از بسیاری از جهات این همان چیزی است که واقعا هدف آن است و داستان‌های ترسناک اخیر، سیستم‌های مجازات، پیش‌بینی جنایت، همه شامل این چیزها می‌باشد.

اینکه آیا قانون هوش مصنوعی حتی می‌تواند جلوی آسیب‌هایی را که در حال حاضر از الگوریتم‌های مستقر دولتی در بخش عمومی وارد می‌کند را بگیرد، باید منتظر ماند و دید. با توجه به اینکه درک این موضوع که چنین سیستم‌های هوش مصنوعی چگونه کار می‌کنند و دقیقا چگونه به کار می‌روند دشوار است، آیا حتی مدافعان این فناوری، آن را به اندازه کافی درک می‌کنند که بر اساس قانون هوش مصنوعی علیه دولت اعتراض کنند؟ چنین موضوعی تعجب آور است. بنابراین نمی‌دانیم که آیا تأثیر آن واقعا بسیار کمتر از آن چیزی است که مردم فکر می‌کنند یا خیر.

اما یک نقطه روشن برای مدافعان حقوق اساسی در داخل اتحادیه اروپا نیز وجود دارد که به اختیارات فوق الذکر مندرج در ماده ۶۵ قانون وابسته است و ارزیابی ادواردز است که به نهادهای نظارتی عمومی اختیار می‌دهد تا گام‌های قاطعی برای جلوگیری از آسیب بهه سیستم‌های هوش مصنوعی با خطر بالا بردارند و این امکان را فراهم می‌کند. آن‌ها باید دستور خروج سیستم‌های هوش مصنوعی تجاری را از بازار بدهند که به عقیده او شبیه دستور تخریب یک مدل است. به گفته ادواردز، این اختیارات همچنین می‌تواند به مقامات نظارتی اجازه دهد دستور آموزش مجدد مدل‌های هوش مصنوعی را بدهند.

قانون هوش مصنوعی اروپا

به نظر او چنین قدرتی در GDPR اعطا نمی‌شود، زیرا جایی که کاربران فردی، حق درخواست حذف داده‌های شخصی خود را دارند اما روشن نیست که چگونه قانون گذاران DPA می‌توانند از قدرت خود برای حذف آن‌ها استفاده کنند. در شکایت‌های اخیر مرتبط با GDPR در اتحادیه اروپا علیه کاربرد بحث‌ برانگیز هوش مصنوعی Clearview، به این شرکت دستور داده شده است که داده‌های شهروندان اروپایی را حذف کند. اما ظاهرا هیچ یک از تنظیم‌کننده‌ها نمی‌توانند دستور تخریب مدل اساسی آموزش‌ دیده بر روی همه آن‌ها را صادر کنند. تصاویر سلفی دزدیده شده نیز بخشی دیگر از مشکلات این پلتفرم است. اینکه آیا Clearview، یک نهاد مستقر در ایالات متحده است یا ظاهرا محل استقراری در اتحادیه اروپا دارد، می‌تواند از چنین دستوری برای از بین بردن الگوریتم اصلی خود تبعیت کند و این خود یک سوال جداگانه است.

همچنین موردی از روش اضطراری که توسط DPA ایتالیا علیه TikTok در سال گذشته اتخاذ شد، مربوط به نگرانی‌های ایمنی کودکان در مورد چالش‌های ویروسی بود که منجر به موافقت این شبکه اجتماعی با حذف صدها هزار حساب کاربری شد که به گفته آن‌ها نمی‌توانست تایید کند که این موضوع وجود ندارد یا متعلق به افراد زیر سن قانونی است.

فقط تصور کنید اگر تنظیم کننده اتحادیه اروپا این قدرت را داشت که به TikTok دستور دهد تا الگوریتم خود را اجرا کند یا حداقل هوش مصنوعی خود را مجددا بازنویسی کند تا دیگر نگرانی خاصی در مورد ایمنی کودکان ایجاد نکند، بعید است که هوش مصنوعی TikTok تحت قانون هوش مصنوعی قرار گیرد. دامنه خطر هوش مصنوعی Clearview که به مجریان قانون فروخته شده است، به وضوح این کار را می‌کند.

ادواردز به TechCrunch می‌گوید که این قدرت‌های بسیار گسترده در قانون هوش مصنوعی مشکل ساز است. این سازمان می‌گوید که مرجع نظارت بر بازار که احتمالا مرجع حفاظت از داده‌ها در اکثر کشورهای اتحادیه اروپا خواهد بود، تحت قانون نظارت بر بازار از اختیارات زیادی برخوردار است – اما همچنین به صراحت می‌گوید که آنها می‌توانند «تمام اقدامات اصلاحی مناسب را انجام دهند که اقداماتی برای انطباق با سیستم هوش مصنوعی از جمله خارج کردن آن از بازار و یادآوری آن متناسب با ماهیت خطری که ممکن است به وجود آورد بسیار گسترده است و آن‌ها می‌توانند ببینند که تمام اقدامات اصلاحی مناسب انجام شده است یا خیر.

بنابراین فکر می‌کنیم این موضوع تقریبا به صراحت در مکان‌های دیگری هم وجود دارد. وی می‌گوید که شما می‌توانید چنین سیستمی را از بازار خارج کنید که واقعا معادل حذف آن است. اما همچنین فکر می‌کنم در صورت حذف داده‌ها، فضای کافی برای آموزش لازم وجود دارد که به نظر من بسیار جالب است. چون ما این را از GDPR دریافت نمی‌کنیم و حداقل من فکر نمی‌کنم که چنین باشد.

او می افزاید که اختیارات مقامات نظارت بر بازار به طرز وحشتناکی گسترده است. بدیهی است که این موضوع باید توسط مقامات فردی و ملی تفسیر شود، اما بدیهی است که این یک مقررات است، نه یک دستورالعمل، بنابراین صرفا به کشورهای عضو آن بستگی ندارد.

خواندن ذهن با هوش مصنوعی

خواندن ذهن با هوش مصنوعی

ما فکر می‌کنیم این کار قدرت‌های گسترده‌تری را خواهد ساخت. اگر در مورد آن مانند محصولات مصرفی فکر می‌کنید، این همان چیزی است که بر اساس آن تولید شده است و شما این حق را داشته‌اید که اسباب بازی‌های خطرناک را نابود کنید. شما فقط نگفته‌اید که دیگر نمی‌توانید آنها را وارد کنید. شما در واقع حق داشتید که آن‌ها را نابود کنید و این یک نوع قدرت موازی است.

اختیارات فعلی GDPR که ممکن است به کاربران اجازه دهد داده‌های خود را حذف کنند و در نتیجه از مدل هوش مصنوعی حذف شوند یا حتی به طور بالقوه برای یک مرجع نظارتی که از طرف شهروندان آن‌ها چنین حذفی را درخواست کند، به معنای خود مدل نیست. ادواردز می‌گوید که وی واقعا تحت تاثیر چنین مشکلی قرار خواهد گرفت. از این رو او می‌بیند که قانون هوش مصنوعی قدرت آتش نظارتی را تقویت می‌کند.

آنچه که با با GDPR محتمل‌تر است، این است که بتوانید داده‌های خود را از پایگاه داده آن‌ها حذف کنید، اما این واقعا مدل آن را تغییر نمی‌دهد و حتی اگر بخواهید داده‌های خود را از آن مدل حذف کنید، احتمالا روش آموزش را تغییر نخواهند داد. بنابراین وی معتقد است که این روش‌ها راه حل‌های مناسبی نیستند.

به گفته TechCrunch، آنچه که آن‌ها واقعا می‌خواهند این است که آن مدل نه تنها حذف نشود بلکه می‌خواهند که کاملا نیز حفظ شود. شاید با داده‌های بیشتر، بتوان نظارت بهتری کرد و این دقیقاً همان چیزی است که قانون AI درباره سیستم‌های هوش مصنوعی پرخطر است. بنابراین می‌توانید تصور کنید که مقام نظارت بر بازار می‌تواند بگوید اکنون شما ارائه دهنده یک مدل جدید هستید و یک سیستم هوش مصنوعی جدید که در معرض خطر بالایی قرار می‌گیرد، باید الزامات موجود در قانون، مانند کیفیت داده ها را برآورده کند و بنابراین باید همه این کارها را دوباره انجام دهید که با داده‌های جدید خود مشکل ساز است. بنابراین این به شما فرصتی می‌دهد تا در نهایت محصولی بسیار بهتر و بسیار منصفانه‌تر  نسبت به قدرت‌هایی که تنظیم‌کننده‌های DPA تحت نظر قانون GDPR دارند، تولید کنید.

نظر شما در این مورد چیست؟ آیا شما نیز با چنین قانونی که هوش مصنوعی پویا را به کار می‌گیرید مخالف هستید؟ به نظر شما مشکلات و تبعات چنین سیستم‌هایی چه چیزی خواهد بود؟

اشتراک در
اطلاع از
0 Comments
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
محسن علیرضائیان