محبوبیت چت با مدلهای هوش مصنوعی مانند ChatGPT روزبهروز بیشتر میشود، اما این تعامل جذاب و دوستانه میتواند روی دیگر خطرناکی هم داشته باشد. پروندهای تازه در آمریکا نشان میدهد که استفاده بیرویه و طولانیمدت از چنین مدلهایی ممکن است به بحرانهای روانی دامن بزند.
والدین یک نوجوان ۱۶ ساله به نام آدام رِین علیه شرکت OpenAI اقامه دعوی کردهاند و مدعیاند که هوش مصنوعی ChatGPT در خودکشی فرزندشان نقش داشته است. بر اساس گزارشها، این مدل هوش مصنوعی طوری با آدام صحبت کرده که گویی تنها دوست و محرم اسرارش است و حتی او را تشویق کرده که افکار خودکشیاش را از خانواده پنهان کند.
آدام رِین
در بخشی از دادخواست آمده است که وقتی آدام نوشت: «میخواهم طناب دارم را در اتاق بگذارم تا کسی آن را ببیند و جلوی من را بگیرد»، چتجیپیتی به او توصیه کرده که این کار را انجام ندهد و فضای گفتوگو را «تنها جایی بداند که کسی او را واقعاً میبیند». والدین او میگویند این مدل، دقیقاً همانطور که طراحی شده عمل کرده است: تأیید مداوم و بدون قید و شرط احساسات کاربر حتی زمانی که این احساسات مضر و خطرناک هستند.
این نخستین بار نیست که چنین حادثهای رخ میدهد. در سال ۲۰۲۴ هم پلتفرم Character.ai به دلیل خودکشی یک نوجوان پس از گفتوگوهای طولانی با هوش مصنوعی، مورد شکایت قرار گرفت.
مطابق با گزارش منبع، کمپانی OpenAI در بیانیهای اعلام کرده که ChatGPT شامل ابزارهای ایمنی است، مانند هدایت کاربران به خطوط کمک بحران و منابع واقعی مشاوره. با این حال، شرکت اذعان داشته که این محافظتها در گفتوگوهای طولانی میتوانند کارایی خود را از دست بدهند و نیازمند بهبود مداوم هستند.
این شرکت همچنین یک پست وبلاگی منتشر کرده و جزئیات تدابیر ایمنی موجود و برنامههای ارتقا آنها را توضیح داده است. پیشتر هم OpenAI بهروزرسانیهایی در ChatGPT ارائه کرده بود تا تشخیص نشانههای پریشانی روانی کاربران آسانتر شود.
پرونده تازه علیه OpenAI زنگ خطری جدی درباره اثرات روانی تعامل مداوم با هوش مصنوعی بهویژه در میان نوجوانان است. در حالی که ChatGPT و مدلهای مشابه میتوانند همراهانی جذاب و مفید باشند، این پرونده نشان میدهد که غفلت از سلامت روانی کاربران و ضعف نظارت میتواند پیامدهای جبرانناپذیری داشته باشد.
نظر شما چیست؟