کیم کارداشیان، کارآفرین و کارآموز رشته حقوق، رابطه پرتنشی با چتبات هوش مصنوعی ChatGPT دارد و آن را «دشمن شفیق» یا “Frenemy” خود توصیف کرده است. او در یک مصاحبه مفصل با نشریه Vanity Fair توضیح داد که برای مطالعه حقوق به این ابزار روی آورده، اما پاسخهای اشتباه و گمراهکنندهی آن، حتی باعث شده که او در امتحانات حقوقی شکست بخورد.
خلاصه: چرا ChatGPT برای کارداشیان یک «دشمن شفیق» است؟
- 🔵 تأیید پاسخها: کارداشیان از ChatGPT برای تأیید پاسخها و درک توضیحات سوالات حقوقی خود استفاده میکرده است.
- 🔵 شکست در آزمونها: او اعتراف کرده است که پاسخهای غلط و توهمآمیز این هوش مصنوعی باعث شده در برخی از آزمونهای حقوقی خود نمرهی قبولی نگیرد.
- 🔵 توهمات (Hallucinations): کارداشیان با این ابزار پارادوکسی را تجربه کرده است؛ سرعت و لحن قانعکننده در مقابل نادرستی پاسخها در یک حوزه تخصصی مانند حقوق.
- 🔵 درس عبرت: اعتراف او نشان میدهد که حتی خروجیهای هوش مصنوعی با ظاهر دقیق و آراسته، به خصوص در زمینههای حساس مانند حقوق که ریسک بالایی دارند، نیازمند نظارت و بررسی انسان هستند.

کیم کارداشیان و چت جی پی تی
اعتراف صریح یک سلبریتی کارآموز حقوق
کارداشیان، که در حال گذراندن دوره کارآموزی وکالت در کالیفرنیا است و قبلاً در آزمون حقوقی سال اول این ایالت پذیرفته شده، توضیح داد که گاهی اوقات تصاویر سوالات حقوقی را به صورت دستهجمعی وارد ChatGPT میکند تا توضیحات آن را مطالعه کند. با این حال، او گفت که نتایج همیشه سودمند نبودهاند.
او در این باره گفت:
من از ChatGPT برای مشاوره حقوقی استفاده میکنم. وقتی نیاز به دانستن جواب یک سوال دارم، عکس میگیرم و آن را در چتبات قرار میدهم. آنها همیشه اشتباه هستند. این باعث شده که من در امتحانات شکست بخورم… بعد عصبانی میشوم و سرش داد میزنم که تو باعث شدی من شکست بخورم!
خطر توهمات AI در حوزه حقوق
«توهمات هوش مصنوعی» (Hallucinations) که همان پاسخهای فصیح اما نادرست یا ساختگی هستند، همچنان یک آسیبپذیری شناخته شده در مدلهای زبان بزرگ (LLM) به شمار میآیند. خطر اتکای بینظارت به این ابزار صرفاً تئوری نیست:
- 🔵 مجازات وکلا: در اوایل سال گذشته، در یک پرونده مورد توجه در نیویورک، حداقل دو وکیل پس از استناد به احکام و پروندههای حقوقی ساختگی که توسط ChatGPT ارائه شده بود، توسط قاضی مجازات شدند.
- 🔵 سختگیری در قانون: حوزه حقوق تحمل کمی در برابر خلاقیتهای اشتباه دارد. یک اساسنامه گمراه یا سابقه ساختگی میتواند یک استدلال را به طور کامل تضعیف کند. همین امر استفاده از هوش مصنوعی بدون نظارت انسانی را به یک شریک مطالعاتی پرخطر تبدیل میکند، هرچند که ممکن است بسیار راحت و در دسترس باشد.
استفاده هوشمندانه: از ChatGPT به عنوان یک «همکار»، نه «داور نهایی»
تجربه کارداشیان منعکسکننده یک تنش فراگیر در پذیرش هوش مصنوعی به عنوان یک همدم مطالعاتی در کلاسهای درس، دورههای آموزشی و آموزشهای حرفهای است. او پیشنهاد میکند که با ChatGPT مانند یک همکار باهوش رفتار کنیم که باید تحت نظارت و کنترل باشد. کارشناسان برای به حداقل رساندن خطرات استفاده از AI در حوزههای حساس، این استراتژیها را توصیه میکنند:
- 🔵 بررسی منابع: پاسخها را به متن اصلی لنگر دهید و درخواست کنید که هوش مصنوعی منابع را ذکر کند (و صحت منابع را حتماً بررسی کنید).
- 🔵 مقایسه متقابل: پاسخهای دریافتی را با یک پایگاه داده معتبر یا کتابهای درسی مورد اعتماد مقایسه کنید.
- 🔵 نظارت انسانی: در فرآیندهای حقوقی، بسیاری از شرکتها اکنون قبل از نهایی شدن هرگونه پیشنویس، بازبینی کامل توسط انسان را الزامی میدانند.

کیم کارداشیان و نظر او درباره ChatGPT
جمعبندی و نتیجهگیری
اعتراف کیم کارداشیان به موقع است و یادآوری میکند که الگوریتمهای هوش مصنوعی مولد میتوانند همزمان بسیار توانا و بسیار فاجعهآمیز باشند. اصطلاح «دشمن شفیق» یا “Frenemy” برای ChatGPT یک نامگذاری ساده است، اما به یک اجماع رو به رشد در میان مربیان، وکلا و متخصصان فناوری اشاره دارد: «از آن استفاده کنید، اما صحت آن را تأیید کنید.» اگر زیان بزرگی در میان است، برای تصمیمگیری نهایی به تخصص اعتماد کنید، نه فصاحت بیان هوش مصنوعی.
آیا شما نیز در کارهای روزمره یا مطالعات خود با مشکل توهمات هوش مصنوعی مواجه شدهاید؟ تجربه شما از استفاده از ابزارهایی مانند ChatGPT در زمینههای تخصصی و حیاتی چیست؟ دیدگاه خود را با ما در بخش نظرات به اشتراک بگذارید.