همانطور که میدانید، روز به روز استفاده از هوش مصنوعی بیشتر میشود و این موضوع نیازمند ایجاد چارچوب و قوانین کارآمدی است. قانون هوش مصنوعی اروپا شامل مجموعه اقداماتی است که مخاطرات و نگرانی متخصصان این حوزه را با بالاترین دقت مورد بررسی قرار میدهد. با ترنجی همراه باشید.
بر اساس تجزیه و تحلیل پیشنهاد توسط قانون، چارچوب برنامه ریزی شده مبتنی بر ریسک اتحادیه اروپا برای تنظیم هوش مصنوعی شامل اختیاراتی برای نهادهای نظارتی است تا دستور ساخت یک سیستم هوش مصنوعی تجاری را صادر کنند یا در صورتی که یک مدل هوش مصنوعی در معرض خطر بالا تلقی شود، باید دوباره بازنویسی شود.
این موضوع نشان میدهد که در قانون هوش مصنوعی اتحادیه اروپا (که هنوز تصویب نشده) خطرات بالقوه و مشکلات قابل توجهی در کمین است. با فرض بر اینکه مجموعهای از مقامات نظارتی در سطح کشورهای عضو اتحادیه میتوانند آن را به طور موثر به سمت الگوریتمهای مضر هدایت کنند تا تغییر محصول را در راستای منافع عادلانه و عموم مردم انجام دهند.
پیش نویس این قانون همچنان به دلیل تعدادی نقص ساختاری با انتقاد زیادی روبرو است و ممکن است هنوز از هدف تقویت هوش مصنوعی “قابل اعتماد” و “انسان محور” که قانونگذاران اتحادیه اروپا آن را ادعا کردهاند، بسیار فاصله داشته باشد. اما حداقل بر روی کاغذ، به نظر میرسد برخی از قدرتهای نظارتی قوی در این زمینه وجود دارد.
کمیسیون اروپا بیش از یک سال پیش پیشنهاد خود را برای قانون هوش مصنوعی ارائه کرد. آنها با ارائه چارچوبی که فهرست کوچکی از موارد استفاده از هوش مصنوعی (مانند سیستم امتیازدهی اعتبار اجتماعی به سبک چین) را که برای ایمنی افراد یا اتحادیه اروپا بسیار خطرناک تلقی میشود، ممنوع میکند. بر این اساس باید حقوق اساسی شهروندان مجاز باشد، اما در حالی که سایر استفادهها را بر اساس ریسک درک شده تنظیم میکند، با زیرمجموعهای از موارد استفاده «پرخطر» که مشمول قانون نظارت قبل و پس از بازار است.
در پیش نویس قانون، سیستمهای پرخطر به صراحت به شرح زیر تعریف شده است: شناسایی بیومتریک و طبقه بندی اشخاص حقیقی، مدیریت و بهرهبرداری از زیرساختهای حیاتی، آموزش و پرورش و آموزش حرفهای؛ اشتغال، مدیریت کارگران و دسترسی به خوداشتغالی؛ دسترسی و بهرهمندی از خدمات خصوصی ضروری و خدمات و مزایای عمومی؛ اجرای قانون؛ مدیریت مهاجرت، پناهندگی و کنترل مرز؛ اجرای عدالت و فرآیندهای دموکراتیک.
بر اساس پیشنهاد اولیه، تقریبا هیچ چیز در این قانون به طور کامل ممنوع نشده است و اکثر موارد استفاده از هوش مصنوعی تحت قانون با مقررات جدی مواجه نخواهند شد زیرا به نظر میرسد که آنها “کم خطر” تلقی شده و با یک کد برای ساخت استانداردهای داوطلبانه، عمدتا به خودی خود تنظیم میشوند و همچنین یک طرح صدور گواهینامه برای تشخیص انطباق سیستمهای هوش مصنوعی در نظر گرفته خواهد شد.
همچنین دسته دیگری از هوش مصنوعیها مانند دیپفیکها و چتباتها وجود دارد که به نظر میرسد در دسته وسط قرار میگیرند و برخی الزامات جهت شفافیت برای محدود کردن پتانسیل آنها در استفاده نادرست و ایجاد آسیب در نظر گرفته میشود.
پیشنهاد کمیسیون قبلا انتقادات زیادی را برانگیخته است، مانند گروههای جامعه مدنی که پاییز گذشته هشدار دادند که این پیشنهاد در حفاظت از حقوق اساسی در برابر آسیبهای ناشی از هوش مصنوعی مانند تبعیض مقیاس پذیر و تعصب جامعه بسیار فاصله دارد.
تعدادی از مؤسسات اتحادیه اروپا نیز صراحتا خواستار ممنوعیت کاملتر شناسایی بیومتریک از راه دور نسبت به آنچه که در کمیسیون و قانون گنجانده شده است (و محدود به اجرای قانون است و مملو از هشدارهای مختلف است) شدهاند.
با وجود آن، بازنگری عمده در این پیشنهاد در این مرحله نسبتا دیرهنگام از روند قانونگذاری مشترک اتحادیه اروپا بعید به نظر می رسد. اما شورا و پارلمان هنوز در حال بحث در مورد مواضع خود هستند و انتظار نمیرود توافق نهایی تا پیش از سال ۲۰۲۳ امکان پذیر باشد. بنابراین امکان اصلاح برخی جزئیات (اگر نه کل ساختار قانونگذاری) وجود دارد.
تجزیه و تحلیل قانون موسسه آدا لاولیس مستقر در بریتانیا توسط یک دانشگاه برجسته حقوق اینترنتی، لیلیان ادواردز، که دارای کرسی حقوق، نوآوری و جامعه در دانشگاه نیوکاسل است، برخی از محدودیتهای این چارچوب را برجسته میکند که به گفته او ناشی از همین مشکل است. از قفل شدن آن نیز به قوانین موجود بازار داخلی اتحادیه اروپا و به طور خاص، از تصمیم به مدل سازی آن در امتداد خطوط مقررات موجود اتحادیه اروپا استفاده میشود.
وی گفته است که این محدودیتهای خاص اتحادیه اروپا به این معناست که لزوما بهترین الگو برای سایر مناطق نیست که هنگام فکر کردن به نحوه تنظیم هوش مصنوعی به آن نگاه کنند. علیرغم اینکه اتحادیه اروپا اغلب جاه طلبی زیادی برای بررسی اولین فعالیت قانونگذاری خود در حوزه دیجیتال به یک سیستم جهانی دارد. اما نقش تعیین استانداردها (سایر محدودیتهای مربوط به صلاحیت اتحادیه اروپا به این معنی است که این قانون به هیچ وجه نمیتواند کاربردهای نظامی هوش مصنوعی را مورد بررسی قرار دهد، به عنوان مثال، که بیشتر آنها به طور پیشفرض انتظار دارید ریسکپذیر باشند.) مشکل ساز است.
جای تعجب نیست که برای هر کس که درک گذرا از سیستم یادگیری ماشینی دارد، قوانین فیزیکی محصولات، برای چیزهایی مانند ماشین لباسشویی و اسباب بازیها به خوبی با هوش مصنوعی تطبیق ندارند. با توجه به تفاوتهای آشکارا بزرگ بین یک محصول تولیدی که در بازار عرضه میشود و یک سیستم هوش مصنوعی که ممکن است مبتنی بر مدلی باشد که توسط یک موجودیت برای یک هدف خاص ایجاد شده و توسط یک موجودیت بسیار متفاوت برای استفاده کاملا متمایز به کار گرفته شود (همچنین پس از اینکه ممکن است دادههای آموزشی متفاوتی در طول مسیر به آن داده شود) نمیتوان این دو را مقایسه کرد.
با این وجود، قانون هوش مصنوعی مسئولیت وظایف و حقوق را بر عهده یک «ارائه دهنده» اولیه (معروف به همان تولیدکننده) که یک سیستم هوش مصنوعی است میگذارد. ادواردز استدلال میکند که این روش بسیار محدودی برای نظارت بر نحوه توسعه و استقرار هوش مصنوعی است. زیرا با پیوستن به دیگران توصیه میکند که دسته «کاربران» هوش مصنوعی در قانون، فقط نقش تنظیم شده و بسیار محدودی دارند و باید به معرفی کننده تغییر نام داده و به آنها داده شود. هر چند که وظایف متناسب با مسئولیت واقعی آنها در مورد نحوه استفاده از سیستم هوش مصنوعی، پیچیده باشد.
او همچنین مینویسد که ترجمه این شبکه پیچیده از بازیگران، دادهها، مدلها و خدمات به یک سیستم قانونی که وظایف و حقوقی را برای برخی بازیگران قابل شناسایی تعیین میکند، بسیار سخت است. این قانون اصولا کاری را انجام نمیدهد که مسلما این موضوع دشوار است. تعیین اینکه توزیع مسئولیت انحصاری و مشترک باید در طول چرخه حیات هوش مصنوعی به صورت متناوب باشد تا از حقوق اساسی کاربران نهایی به طور عملی و کامل محافظت شود هم یک چالش دیگر است. در کل میتوان آن را به طور نامطلوب با تحولات اخیر در مورد قانون GDPR مقایسه کرد، جایی که دادگاهها تلاش میکنند مسئولیت حفاظت از دادهها را بین کنترل کنندگان مختلف در مناسبترین زمانها توزیع کنند.
نقص عمده دیگری که او در این مقاله به آن اشاره می کند، عدم وجود هیچ گونه توسلی در قانون برای انسانهای واقعی برای طرح شکایت در مورد تأثیر سیستم هوش مصنوعی بر شخص آنها (یا بر گروهی از افراد) است که کاملا در تضاد با قوانین اتحادیه اروپا است. چارچوب موجود در حفاظت از دادهها و GDPR، هم شکایات فردی را امکان پذیر میکند و هم با توانمند سازی جامعه مدنی برای شکایت از طرف افراد آسیب دیده، امکان اصلاح جمعی را فراهم میکند.
با استنتاج طرح قانون هوش مصنوعی عمدتا از ایمنی محصول و نه از ابزارهای دیگر، نقش کاربران نهایی سیستمهای هوش مصنوعی به عنوان سوژههای حقوقی، نه فقط به عنوان اشیایی که تحت تاثیر قرار میگیرند، پنهان شده و کرامت انسانی آنها نیز نادیده گرفته شده است. این با ابزاری که کارکرد آن ظاهرا حفاظت از حقوق اساسی است، ناسازگار است و ارزیابی مختصر آن مشکل است.
وی همچنین بدون اینکه توضیحی در مورد چگونگی دستیابی به این تعداد انگشت شمار از موارد ممنوعه ثابت کند، از یک فهرست خود سرانه که به احتمال زیاد آگاهی سیاسی سیستمهایی که کمیسیون گفته است باید ممنوع باشد، انتقاد میکند.
وی همچنین میگوید که قانون اجازه نمیدهد که تغییرات و افزودن به فهرست ممنوعه یا ایجاد دستههای سطح بالای جدید به بخش پرخطر اضافه شود که او آن را به عنوان یکی دیگر از محدودیتهای نامناسب ارزیابی میکند.
در محدود کردن این لیستهای ممنوعه و پرخطر، کمیسیون مذکور احتمالا چشمش به ایجاد اطمینان برای بازار بوده است زیرا به دنبال تشویق همزمان نوآوری هوش مصنوعی است. با این حال، لفاظیهای آن در مورد این قانون برای سالها با صحبتهای پرحاشیهای در مورد ایجاد حفاظهای اخلاقی برای هوش مصنوعی انسان محور که ارزشهای اروپایی را منعکس میکند، سنگین بوده است. بنابراین وجود تعادل در آن، مشکوک به نظر میرسد.
در حالی که مقاله ادواردز به عنوان یک انتقاد در نظر گرفته شده است، اما او همچنین قانون اتحادیه اروپا را تحسین میکند و آن را به عنوان “اولین تلاش جامعه جهان برای تنظیم هوش مصنوعی، پرداختن به مسائلی مانند امتیازدهی اجتماعی مبتنی بر داده یا الگوریتم، شناسایی بیومتریک از راه دور و استفاده از سیستمهای هوش مصنوعی در اجرای قانون، آموزش و اشتغال میداند.
او همچنین در این مقاله می نویسد که قانون هوش مصنوعی خود نقطه شروعی عالی برای یک رویکرد جامع به مقررات هوش مصنوعی است. به دلیل محدودیتهای دوگانه در چارچوب قانونی جدید اتحادیه اروپا و مبنای قانونی قانون نویسی این اتحادیه، به نظر می رسد مهم است که بحثهایی را که هم سیاست گذاران اتحادیه اروپا و هم جهان فراتر از اتحادیه اروپا باید در این زمینه داشته باشند مطرح کنیم. نقطه عطف نظارتی مهم.
او معتقد است که همانطور که چنین چیزی همیشه وجود دارد، با فرض عدم اصلاحات اساسی برای رسیدگی به انتقادات کلیدی، به احتمال زیاد این قانون تاثیر نسبتا حداقلی خواهد داشت.
او با اشاره به دو قطعه دیگر از اتحادیه اروپا میگوید کاری که اتحادیه اروپا انجام داده است این است که آنها بیشتر تخمهای خود را در سبد DSA [قانون خدمات دیجیتال]، DMA [قانون بازارهای دیجیتال] قرار دادهاند و از این رو به طرز خنده داری عجیب است. هنگامی که از او پرسیده شد که این قانون چگونه تاثیر خواهد داشت، وی میگوید که قانون دیجیتال بر اصلاحات قوانین تجارت الکترونیک و اصلاح رژیم رقابت اتحادیه اروپا متمرکز بوده است. از آنجایی که اگر به مواردی که در معرض خطر هستند نگاه کنید، این یک نکته واضح دیگر است، اما نمیتوان آن را به اندازه کافی گفت، زیرا در حال حاضر ریسک بالایی شامل بیشتر مجموعه هوش مصنوعی نمیشود که مردم هر روز در زندگی خود با آن مواجه شوند.
این موضوع همچنین شامل موتورهای جستجو، شبکههای اجتماعی و نمایه سازی نمیشود. مگر اینکه اساسا در کشور چین باشید. این قانون واقعا روی چیزهایی تمرکز میکند که اساسا توسط بازارها تنظیم شده است. مواردی مانند امتیازدهی اعتباری، که در آن سابقه بسیار طولانی از افراد وجود دارد و بررسی میکنند تا ببینند آیا این الگوریتم منصفانه به نظر میرسد یا خیر و مواردی از این قبیل که تصمیمات دولت، باید برای همیشه در معرض بررسی مجدد قرار میگرفت. حداقل در بریتانیا بررسی قضایی و غیره وجود خواهد داشت. اما در واقعیت ما میدانیم که دولت با الگوریتمها کارهای بدی انجام میدهد بنابراین از بسیاری از جهات این همان چیزی است که واقعا هدف آن است و داستانهای ترسناک اخیر، سیستمهای مجازات، پیشبینی جنایت، همه شامل این چیزها میباشد.
اینکه آیا قانون هوش مصنوعی حتی میتواند جلوی آسیبهایی را که در حال حاضر از الگوریتمهای مستقر دولتی در بخش عمومی وارد میکند را بگیرد، باید منتظر ماند و دید. با توجه به اینکه درک این موضوع که چنین سیستمهای هوش مصنوعی چگونه کار میکنند و دقیقا چگونه به کار میروند دشوار است، آیا حتی مدافعان این فناوری، آن را به اندازه کافی درک میکنند که بر اساس قانون هوش مصنوعی علیه دولت اعتراض کنند؟ چنین موضوعی تعجب آور است. بنابراین نمیدانیم که آیا تأثیر آن واقعا بسیار کمتر از آن چیزی است که مردم فکر میکنند یا خیر.
اما یک نقطه روشن برای مدافعان حقوق اساسی در داخل اتحادیه اروپا نیز وجود دارد که به اختیارات فوق الذکر مندرج در ماده ۶۵ قانون وابسته است و ارزیابی ادواردز است که به نهادهای نظارتی عمومی اختیار میدهد تا گامهای قاطعی برای جلوگیری از آسیب بهه سیستمهای هوش مصنوعی با خطر بالا بردارند و این امکان را فراهم میکند. آنها باید دستور خروج سیستمهای هوش مصنوعی تجاری را از بازار بدهند که به عقیده او شبیه دستور تخریب یک مدل است. به گفته ادواردز، این اختیارات همچنین میتواند به مقامات نظارتی اجازه دهد دستور آموزش مجدد مدلهای هوش مصنوعی را بدهند.
به نظر او چنین قدرتی در GDPR اعطا نمیشود، زیرا جایی که کاربران فردی، حق درخواست حذف دادههای شخصی خود را دارند اما روشن نیست که چگونه قانون گذاران DPA میتوانند از قدرت خود برای حذف آنها استفاده کنند. در شکایتهای اخیر مرتبط با GDPR در اتحادیه اروپا علیه کاربرد بحث برانگیز هوش مصنوعی Clearview، به این شرکت دستور داده شده است که دادههای شهروندان اروپایی را حذف کند. اما ظاهرا هیچ یک از تنظیمکنندهها نمیتوانند دستور تخریب مدل اساسی آموزش دیده بر روی همه آنها را صادر کنند. تصاویر سلفی دزدیده شده نیز بخشی دیگر از مشکلات این پلتفرم است. اینکه آیا Clearview، یک نهاد مستقر در ایالات متحده است یا ظاهرا محل استقراری در اتحادیه اروپا دارد، میتواند از چنین دستوری برای از بین بردن الگوریتم اصلی خود تبعیت کند و این خود یک سوال جداگانه است.
همچنین موردی از روش اضطراری که توسط DPA ایتالیا علیه TikTok در سال گذشته اتخاذ شد، مربوط به نگرانیهای ایمنی کودکان در مورد چالشهای ویروسی بود که منجر به موافقت این شبکه اجتماعی با حذف صدها هزار حساب کاربری شد که به گفته آنها نمیتوانست تایید کند که این موضوع وجود ندارد یا متعلق به افراد زیر سن قانونی است.
فقط تصور کنید اگر تنظیم کننده اتحادیه اروپا این قدرت را داشت که به TikTok دستور دهد تا الگوریتم خود را اجرا کند یا حداقل هوش مصنوعی خود را مجددا بازنویسی کند تا دیگر نگرانی خاصی در مورد ایمنی کودکان ایجاد نکند، بعید است که هوش مصنوعی TikTok تحت قانون هوش مصنوعی قرار گیرد. دامنه خطر هوش مصنوعی Clearview که به مجریان قانون فروخته شده است، به وضوح این کار را میکند.
ادواردز به TechCrunch میگوید که این قدرتهای بسیار گسترده در قانون هوش مصنوعی مشکل ساز است. این سازمان میگوید که مرجع نظارت بر بازار که احتمالا مرجع حفاظت از دادهها در اکثر کشورهای اتحادیه اروپا خواهد بود، تحت قانون نظارت بر بازار از اختیارات زیادی برخوردار است – اما همچنین به صراحت میگوید که آنها میتوانند «تمام اقدامات اصلاحی مناسب را انجام دهند که اقداماتی برای انطباق با سیستم هوش مصنوعی از جمله خارج کردن آن از بازار و یادآوری آن متناسب با ماهیت خطری که ممکن است به وجود آورد بسیار گسترده است و آنها میتوانند ببینند که تمام اقدامات اصلاحی مناسب انجام شده است یا خیر.
بنابراین فکر میکنیم این موضوع تقریبا به صراحت در مکانهای دیگری هم وجود دارد. وی میگوید که شما میتوانید چنین سیستمی را از بازار خارج کنید که واقعا معادل حذف آن است. اما همچنین فکر میکنم در صورت حذف دادهها، فضای کافی برای آموزش لازم وجود دارد که به نظر من بسیار جالب است. چون ما این را از GDPR دریافت نمیکنیم و حداقل من فکر نمیکنم که چنین باشد.
او می افزاید که اختیارات مقامات نظارت بر بازار به طرز وحشتناکی گسترده است. بدیهی است که این موضوع باید توسط مقامات فردی و ملی تفسیر شود، اما بدیهی است که این یک مقررات است، نه یک دستورالعمل، بنابراین صرفا به کشورهای عضو آن بستگی ندارد.
ما فکر میکنیم این کار قدرتهای گستردهتری را خواهد ساخت. اگر در مورد آن مانند محصولات مصرفی فکر میکنید، این همان چیزی است که بر اساس آن تولید شده است و شما این حق را داشتهاید که اسباب بازیهای خطرناک را نابود کنید. شما فقط نگفتهاید که دیگر نمیتوانید آنها را وارد کنید. شما در واقع حق داشتید که آنها را نابود کنید و این یک نوع قدرت موازی است.
اختیارات فعلی GDPR که ممکن است به کاربران اجازه دهد دادههای خود را حذف کنند و در نتیجه از مدل هوش مصنوعی حذف شوند یا حتی به طور بالقوه برای یک مرجع نظارتی که از طرف شهروندان آنها چنین حذفی را درخواست کند، به معنای خود مدل نیست. ادواردز میگوید که وی واقعا تحت تاثیر چنین مشکلی قرار خواهد گرفت. از این رو او میبیند که قانون هوش مصنوعی قدرت آتش نظارتی را تقویت میکند.
آنچه که با با GDPR محتملتر است، این است که بتوانید دادههای خود را از پایگاه داده آنها حذف کنید، اما این واقعا مدل آن را تغییر نمیدهد و حتی اگر بخواهید دادههای خود را از آن مدل حذف کنید، احتمالا روش آموزش را تغییر نخواهند داد. بنابراین وی معتقد است که این روشها راه حلهای مناسبی نیستند.
به گفته TechCrunch، آنچه که آنها واقعا میخواهند این است که آن مدل نه تنها حذف نشود بلکه میخواهند که کاملا نیز حفظ شود. شاید با دادههای بیشتر، بتوان نظارت بهتری کرد و این دقیقاً همان چیزی است که قانون AI درباره سیستمهای هوش مصنوعی پرخطر است. بنابراین میتوانید تصور کنید که مقام نظارت بر بازار میتواند بگوید اکنون شما ارائه دهنده یک مدل جدید هستید و یک سیستم هوش مصنوعی جدید که در معرض خطر بالایی قرار میگیرد، باید الزامات موجود در قانون، مانند کیفیت داده ها را برآورده کند و بنابراین باید همه این کارها را دوباره انجام دهید که با دادههای جدید خود مشکل ساز است. بنابراین این به شما فرصتی میدهد تا در نهایت محصولی بسیار بهتر و بسیار منصفانهتر نسبت به قدرتهایی که تنظیمکنندههای DPA تحت نظر قانون GDPR دارند، تولید کنید.
نظر شما در این مورد چیست؟ آیا شما نیز با چنین قانونی که هوش مصنوعی پویا را به کار میگیرید مخالف هستید؟ به نظر شما مشکلات و تبعات چنین سیستمهایی چه چیزی خواهد بود؟