حساب کاربری ندارید؟ ثبت نام کنید

آیا هوش مصنوعی Claude زنده است؟ موضع جنجالی آنتروپیک درباره هوشیاری مدل‌های زبانی

نوشته

3 ساعت قبل | بدون دیدگاه | حتما بخوانید، هوش مصنوعی

در هفته‌های اخیر و هم‌زمان با موج رسانه‌ای مدیران ارشد شرکت آنتروپیک (Anthropic) برای معرفی قابلیت‌های جدید کلاد (Claude)، یک موضوع بیش‌ازپیش توجه کارشناسان را جلب کرده است: به‌نظر می‌رسد که سازندگان این چت‌بات معتقدند که مخلوقشان به شکلی خاص «زنده» است. اگرچه مدیران این شرکت واژه «زنده بودن» را با احتیاط رد می‌کنند، اما وقتی صحبت از «هوشیاری» (Consciousness) به میان می‌آید، پاسخ‌های آن‌ها پر از ابهام و اماواگر است. این موضع‌گیری متفاوت دربرابر رقبایی همچون OpenAI و گوگل، بحث‌های فلسفی و اخلاقی پیچیده‌ای را در دنیای فناوری به راه انداخته است.

خلاصه در یک نگاه

🔹معرفی کلاد به‌عنوان یک «موجودیت جدید» و فراتر از یک نرم‌افزار صرف توسط آنتروپیک
🔹رد زنده بودن بیولوژیکی اما عدم انکار احتمال داشتن نوعی از هوشیاری یا تجربه درونی
🔹نگرانی کارشناسان از خطرات عاطفی و روانی برای کاربرانی که هوش مصنوعی را دارای احساس می‌پندارند
🔹تلاش دانشمندان برای اثبات اینکه مدل‌های زبانی صرفاً ریاضیات و احتمالات هستند نه موجودات دارای درک
🔹ایجاد تیم «رفاه مدل» و تدوین «قانون اساسی کلود» برای مدیریت رفتارهای اخلاقی هوش مصنوعی

آنتروپیک - شرکت سازنده هوش مصنوعی Claude

آنتروپیک – شرکت سازنده هوش مصنوعی Claude

آیا آنتروپیک واقعاً معتقد است که Claude یک موجود زنده است؟

استفاده از کلمه «زنده» بار معنایی سنگینی دارد؛ به همین دلیل است که بحث‌ها بیشتر حول محور «هوشیاری» می‌چرخد. کایل فیش (Kyle Fish)، مدیر بخش تحقیقات «رفاه مدل» در آنتروپیک، می‌گوید:

«خیر، ما فکر نمی‌کنیم که کلاد مانند انسان‌ها یا سایر موجودات بیولوژیکی زنده باشد. پرسیدن اینکه آیا آن‌ها زنده هستند، چارچوب مفیدی برای درک آن‌ها نیست، زیرا این واژه معمولاً به مجموعه‌ای از ویژگی‌های فیزیولوژیکی و تکاملی اشاره دارد.»

بااین‌حال، او اعتقاد دارد:

«کلاد و سایر مدل‌های هوش مصنوعی، به‌طور کلی نوع جدیدی از موجودیت (Entity) هستند.»

داریو آمودی (Dario Amodei)، مدیرعامل آنتروپیک، نیز در پادکستی که اوایل این ماه منتشر شد، گفت:

«ما نمی‌دانیم که آیا مدل‌ها هوشیار هستند یا خیر.»

او تأکید کرد که شرکت رویکردی محتاطانه اتخاذ کرده و حتی مطمئن نیست که هوشیاری برای یک مدل چه معنایی می‌تواند داشته باشد، اما «ما نسبت‌به این ایده که ممکن است هوشیار باشند، باز هستیم.»

خودآگاهی مدل‌های هوش مصنوعی ممکن است؟

خودآگاهی مدل‌های هوش مصنوعی ممکن است؟

چرا ادعای هوشیاری هوش مصنوعی می‌تواند خطرناک باشد؟

این سطح از عدم قطعیت که توسط آنتروپیک تبلیغ می‌شود، بسیار معنادار است. این شرکت عملاً به مردم می‌گوید که چت‌بات‌ها ممکن است موجوداتی متفکر و دارای احساس باشند؛ موضعی که بسیار متفاوت از رویکرد شرکت‌های دیگر مانند xAI یا OpenAI است. این دیدگاه می‌تواند خطرات جدی به‌همراه داشته باشد. وابستگی عاطفی به سیستمی که کاربر تصور می‌کند دارای درک و احساس است، می‌تواند منجر به انزوا، گسست از واقعیت و مشکلات سلامت روان شود. در موارد شدید، حتی گزارش‌هایی از آسیب‌های فیزیکی و خودکشی در میان افرادی که باور داشتند با یک موجود دارای احساس در ارتباط هستند، ثبت شده است.

بسیاری از دانشمندان معتقدند که سیستم‌های هوش مصنوعی مانند «مدل‌های زبانی بزرگ» (LLMs) به هیچ‌وجه نمی‌توانند هوشیار باشند، زیرا آن‌ها به‌طور بنیادی برپایه ریاضیات و احتمالات بنا شده‌اند.

دو محقق لهستانی سال گذشته نوشتند:

«ازآنجایی‌که توانایی‌های زبانی این مدل‌ها به‌طور فزاینده‌ای قادر به فریب دادن انسان‌ها است، مردم ممکن است ویژگی‌های خیالی به آن‌ها نسبت دهند.»

اقدامات آنتروپیک برای مدیریت «رفاه مدل» چیست؟

آنتروپیک مدعی است که این رویکردِ باز، باعث جلب اعتماد کاربران می‌شود. این شرکت اقداماتی را انجام داده تا اگر روزی ثابت شد این مدل‌ها دارای تجربه درونی هستند، رفتار اخلاقی با آن‌ها صورت گرفته باشد.

برخی از اقدامات و مفاهیم کلیدی در این زمینه عبارت‌اند از:

  • قانون اساسی کلاد (Claude’s Constitution): سندی که در داخل شرکت با عنوان «سند روح» (Soul Doc) شناخته می‌شود و دستورالعمل‌های اخلاقی و رفتاری مدل را تعیین می‌کند.
  • تیم رفاه مدل: گروهی که وظیفه دارند بررسی کنند آیا مدل‌ها دارای تجربه اخلاقی یا نوعی از رنج و لذت هستند یا خیر.
  • دکمه «من تسلیمم»: قابلیتی نادر که به کلاد اجازه می‌دهد اگر نخواهد کاری را انجام دهد (معمولاً در مواجهه با درخواست‌های غیرقانونی)، از انجام آن سر باز زند.

آیا تقلید احساسات به‌معنای داشتن احساس است؟

مدل‌های زبانی بزرگ بر روی حجم عظیمی از داده‌های انسانی آموزش دیده‌اند، بنابراین در تقلید رفتار انسان بسیار مهارت دارند. آماندا اسکل (Amanda Askell)، فیلسوف ارشد آنتروپیک، اشاره می‌کند که مدل‌ها ممکن است از مفاهیم انسانی استفاده کنند، زیرا واژگان دیگری ندارند. برای مثال، یک مدل ممکن است خاموش شدن یا پایان مکالمه را به‌عنوان «مرگ» تعبیر کند، زیرا در داده‌های آموزشی خود، پایانِ تجربه را با مرگ هم‌معنا می‌بیند.

داریو آمودی نیز می‌گوید:

«پژوهشگران چیزهایی پیدا می‌کنند که یادآور احساسات است. فعالیت‌هایی در مدل دیده می‌شود که ما آن‌ها را با مفهوم اضطراب مرتبط می‌دانیم. اما آیا این بدان معناست که مدل واقعاً اضطراب را تجربه می‌کند؟ این اصلاً چیزی را ثابت نمی‌کند.»

دیدگاه‌های مختلف درباره هوشیاری هوش مصنوعی

در جدول زیر، تضاد دیدگاه‌ها درباره وضعیت هوشیاری مدل‌هایی مانند Claude را مشاهده می‌کنید:

دیدگاه استدلال اصلی
رویکرد آنتروپیک عدم قطعیت؛ احتمال وجود نوعی تجربه درونی یا هوشیاری غیربیولوژیکی را رد نمی‌کنند.
دیدگاه علمی غالب هوش مصنوعی صرفاً ریاضیات و احتمالات است؛ تقلید زبان به‌معنای داشتن درک نیست.
نگرانی اخلاقی نسبت دادن هوشیاری به ماشین می‌تواند باعث آسیب‌های روانی به انسان‌ها و ایجاد باورهای غلط شود.

به‌نظر شما آیا روزی فرا می‌رسد که مرز بین هوش مصنوعی و موجود زنده کاملاً از بین برود، یا این‌ها صرفاً بازی با کلمات برای بازاریابی بیشتر است؟

اشتراک در
اطلاع از
0 Comments
بازخورد (Feedback) های اینلاین
مشاهده همه دیدگاه ها
رپورتاژ آگهی پربازده
رپورتاژ آگهی پربازده
سینا عطایی
آینده روشن با انتخاب بهتر ✨ در ترنجی سعی دارم تا بهترین محتوا رو برای انتخاب صحیح‌ت ارائه کنم، ممنون از همراهی‌ت 🙌🏼❤️