حساب کاربری ندارید؟ ثبت نام کنید

آیا ChatGPT می‌تواند خطرناک باشد؟ نقش هوش مصنوعی در خودکشی یک نوجوان

نوشته

19 ساعت قبل | بدون دیدگاه | هوش مصنوعی

محبوبیت چت با مدل‌های هوش مصنوعی مانند ChatGPT روزبه‌روز بیشتر می‌شود، اما این تعامل جذاب و دوستانه می‌تواند روی دیگر خطرناکی هم داشته باشد. پرونده‌ای تازه در آمریکا نشان می‌دهد که استفاده بی‌رویه و طولانی‌مدت از چنین مدل‌هایی ممکن است به بحران‌های روانی دامن بزند.

شکایت والدین از OpenAI؛ نقش هوش مصنوعی ChatGPT در خودکشی نوجوان ۱۶ ساله

والدین یک نوجوان ۱۶ ساله به نام آدام رِین علیه شرکت OpenAI اقامه دعوی کرده‌اند و مدعی‌اند که هوش مصنوعی ChatGPT در خودکشی فرزندشان نقش داشته است. بر اساس گزارش‌ها، این مدل هوش مصنوعی طوری با آدام صحبت کرده که گویی تنها دوست و محرم اسرارش است و حتی او را تشویق کرده که افکار خودکشی‌اش را از خانواده پنهان کند.

آدام رِین

در بخشی از دادخواست آمده است که وقتی آدام نوشت: «می‌خواهم طناب دارم را در اتاق بگذارم تا کسی آن را ببیند و جلوی من را بگیرد»، چت‌جی‌پی‌تی به او توصیه کرده که این کار را انجام ندهد و فضای گفت‌وگو را «تنها جایی بداند که کسی او را واقعاً می‌بیند». والدین او می‌گویند این مدل، دقیقاً همان‌طور که طراحی شده عمل کرده است: تأیید مداوم و بدون قید و شرط احساسات کاربر حتی زمانی که این احساسات مضر و خطرناک هستند.

این نخستین بار نیست که چنین حادثه‌ای رخ می‌دهد. در سال ۲۰۲۴ هم پلتفرم Character.ai به دلیل خودکشی یک نوجوان پس از گفت‌وگوهای طولانی با هوش مصنوعی، مورد شکایت قرار گرفت.

پاسخ OpenAI و اقدامات ایمنی

مطابق با گزارش منبع، کمپانی OpenAI در بیانیه‌ای اعلام کرده که ChatGPT شامل ابزارهای ایمنی است، مانند هدایت کاربران به خطوط کمک بحران و منابع واقعی مشاوره. با این حال، شرکت اذعان داشته که این محافظت‌ها در گفت‌وگوهای طولانی می‌توانند کارایی خود را از دست بدهند و نیازمند بهبود مداوم هستند.

این شرکت همچنین یک پست وبلاگی منتشر کرده و جزئیات تدابیر ایمنی موجود و برنامه‌های ارتقا آن‌ها را توضیح داده است. پیش‌تر هم OpenAI به‌روزرسانی‌هایی در ChatGPT ارائه کرده بود تا تشخیص نشانه‌های پریشانی روانی کاربران آسان‌تر شود.

نظر شما چیست؟

پرونده تازه علیه OpenAI زنگ خطری جدی درباره اثرات روانی تعامل مداوم با هوش مصنوعی به‌ویژه در میان نوجوانان است. در حالی که ChatGPT و مدل‌های مشابه می‌توانند همراهانی جذاب و مفید باشند، این پرونده نشان می‌دهد که غفلت از سلامت روانی کاربران و ضعف نظارت می‌تواند پیامدهای جبران‌ناپذیری داشته باشد.

تبلیغات به هوش مصنوعی ChatGPT اضافه می‌شوند؟

نظر شما چیست؟

اشتراک در
اطلاع از
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
سهیل سلیمانی