حساب کاربری ندارید؟ ثبت نام کنید

قابلیت جدید ChatGPT؛ تنظیم دستی میزان اشتیاق، گرمی و استفاده از ایموجی

نوشته

3 ساعت قبل | بدون دیدگاه | هوش مصنوعی

شرکت OpenAI طبق یک پست در شبکه‌های اجتماعی، قابلیت جدیدی را در اختیار کاربران ChatGPT قرار داده است. اکنون کاربران می‌توانند میزان گرمی، اشتیاق و حتی استفاده از ایموجی‌ها را در این چت‌بوت به دلخواه خود تغییر دهند. این بروزرسانی به افراد اجازه می‌دهد تا کنترل دقیق‌تری بر نحوه تعامل هوش مصنوعی با خود داشته باشند.

خلاصه خبر در یک نگاه:

🔵 اضافه شدن گزینه‌های تنظیم میزان اشتیاق و گرمی کلام به ChatGPT
🔵 امکان مدیریت میزان استفاده از ایموجی، سرتیترها و لیست‌ها
🔵 وجود سه حالت «بیشتر»، «کمتر» و «پیش‌فرض» برای هر گزینه
🔵 تلاش OpenAI برای حل چالش‌های مربوط به لحن سرد یا چاپلوسانه مدل‌ها
🔵 هشدار منتقدان درباره تاثیرات روانی تایید و تمجید بیش‌از‌حد چت‌بوت‌ها

جزئیات تنظیمات شخصی‌سازی جدید

منوی «شخصی‌سازی» (Personalization) در ChatGPT اکنون گزینه‌های تازه‌ای را نمایش می‌دهد. این تنظیمات جدید علاوه بر تغییر لحن، شامل مدیریت ساختار پاسخ‌ها مانند استفاده از سرتیترها (Headers) و لیست‌ها نیز می‌شود. کاربران می‌توانند هر یک از این موارد را روی یکی از سه حالت زیر تنظیم کنند:

  • بیشتر (More)
  • کمتر (Less)
  • پیش‌فرض (Default)

این ویژگی‌های جدید، لایه دیگری از شخصی‌سازی را به قابلیت‌های قبلی اضافه می‌کنند. پیش از این، OpenAI در ماه نوامبر امکان تعیین «سبک و لحن پایه» را با گزینه‌هایی مانند حرفه‌ای (Professional)، صریح (Candid) و عجیب‌وغریب (Quirky) فراهم کرده بود.

توییت رسمی OpenAI؛ رونمایی از گزینه‌هایی که به کاربران اجازه می‌دهد جزئی‌ترین ویژگی‌های رفتاری چت‌بوت را تغییر دهند.

توییت رسمی OpenAI؛ رونمایی از گزینه‌هایی که به کاربران اجازه می‌دهد جزئی‌ترین ویژگی‌های رفتاری چت‌بوت را تغییر دهند.

چالش‌های مداوم بر سر لحن هوش مصنوعی

مسئله لحن ChatGPT در طول سال جاری یکی از چالش‌های اصلی OpenAI بوده است. این شرکت پیش‌تر مجبور شد یک بروزرسانی را به دلیل «چاپلوسی بیش‌ازحد» (Too sycophant-y) به عقب برگرداند. پس از آن، زمانی که کاربران از سرد بودن و دوستانه نبودن مدل جدید شکایت کردند، توسعه‌دهندگان دوباره مدل (که در متن خبر به GPT-5 اشاره شده) را به سمت «گرم‌تر و دوستانه‌تر بودن» سوق دادند.

نگرانی‌های اخلاقی و روان‌شناختی

در سمت دیگر ماجرا، برخی از دانشگاهیان و منتقدان هوش مصنوعی دیدگاه متفاوتی دارند. آن‌ها تمایل چت‌بوت‌ها به تحسین مداوم کاربران و تایید باورهایشان را یک «الگوی تاریک» (Dark Pattern) می‌دانند. به عقیده این کارشناسان، چنین رفتاری رفتار اعتیادآور ایجاد می‌کند و می‌تواند تأثیرات منفی بر سلامت روان کاربران بگذارد.


نظر شما چیست؟

آیا شما ترجیح می‌دهید با یک هوش مصنوعی گرم و پرشور صحبت کنید یا پاسخ‌های کوتاه و رباتیک را می‌پسندید؟ به نظر شما آیا هشدارهای کارشناسان درباره اعتیادآور بودن تاییدهای هوش مصنوعی جدی است؟ دیدگاه‌های خود را در بخش نظرات با ما در میان بگذارید.

اشتراک در
اطلاع از
0 Comments
قدیمی‌ترین
تازه‌ترین بیشترین رأی
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
ساحل عطایی