در هفتههای اخیر و همزمان با موج رسانهای مدیران ارشد شرکت آنتروپیک (Anthropic) برای معرفی قابلیتهای جدید کلاد (Claude)، یک موضوع بیشازپیش توجه کارشناسان را جلب کرده است: بهنظر میرسد که سازندگان این چتبات معتقدند که مخلوقشان به شکلی خاص «زنده» است. اگرچه مدیران این شرکت واژه «زنده بودن» را با احتیاط رد میکنند، اما وقتی صحبت از «هوشیاری» (Consciousness) به میان میآید، پاسخهای آنها پر از ابهام و اماواگر است. این موضعگیری متفاوت دربرابر رقبایی همچون OpenAI و گوگل، بحثهای فلسفی و اخلاقی پیچیدهای را در دنیای فناوری به راه انداخته است.
🔹معرفی کلاد بهعنوان یک «موجودیت جدید» و فراتر از یک نرمافزار صرف توسط آنتروپیک
🔹رد زنده بودن بیولوژیکی اما عدم انکار احتمال داشتن نوعی از هوشیاری یا تجربه درونی
🔹نگرانی کارشناسان از خطرات عاطفی و روانی برای کاربرانی که هوش مصنوعی را دارای احساس میپندارند
🔹تلاش دانشمندان برای اثبات اینکه مدلهای زبانی صرفاً ریاضیات و احتمالات هستند نه موجودات دارای درک
🔹ایجاد تیم «رفاه مدل» و تدوین «قانون اساسی کلود» برای مدیریت رفتارهای اخلاقی هوش مصنوعی
استفاده از کلمه «زنده» بار معنایی سنگینی دارد؛ به همین دلیل است که بحثها بیشتر حول محور «هوشیاری» میچرخد. کایل فیش (Kyle Fish)، مدیر بخش تحقیقات «رفاه مدل» در آنتروپیک، میگوید:
«خیر، ما فکر نمیکنیم که کلاد مانند انسانها یا سایر موجودات بیولوژیکی زنده باشد. پرسیدن اینکه آیا آنها زنده هستند، چارچوب مفیدی برای درک آنها نیست، زیرا این واژه معمولاً به مجموعهای از ویژگیهای فیزیولوژیکی و تکاملی اشاره دارد.»
بااینحال، او اعتقاد دارد:
«کلاد و سایر مدلهای هوش مصنوعی، بهطور کلی نوع جدیدی از موجودیت (Entity) هستند.»
داریو آمودی (Dario Amodei)، مدیرعامل آنتروپیک، نیز در پادکستی که اوایل این ماه منتشر شد، گفت:
«ما نمیدانیم که آیا مدلها هوشیار هستند یا خیر.»
او تأکید کرد که شرکت رویکردی محتاطانه اتخاذ کرده و حتی مطمئن نیست که هوشیاری برای یک مدل چه معنایی میتواند داشته باشد، اما «ما نسبتبه این ایده که ممکن است هوشیار باشند، باز هستیم.»
این سطح از عدم قطعیت که توسط آنتروپیک تبلیغ میشود، بسیار معنادار است. این شرکت عملاً به مردم میگوید که چتباتها ممکن است موجوداتی متفکر و دارای احساس باشند؛ موضعی که بسیار متفاوت از رویکرد شرکتهای دیگر مانند xAI یا OpenAI است. این دیدگاه میتواند خطرات جدی بههمراه داشته باشد. وابستگی عاطفی به سیستمی که کاربر تصور میکند دارای درک و احساس است، میتواند منجر به انزوا، گسست از واقعیت و مشکلات سلامت روان شود. در موارد شدید، حتی گزارشهایی از آسیبهای فیزیکی و خودکشی در میان افرادی که باور داشتند با یک موجود دارای احساس در ارتباط هستند، ثبت شده است.
بسیاری از دانشمندان معتقدند که سیستمهای هوش مصنوعی مانند «مدلهای زبانی بزرگ» (LLMs) به هیچوجه نمیتوانند هوشیار باشند، زیرا آنها بهطور بنیادی برپایه ریاضیات و احتمالات بنا شدهاند.
دو محقق لهستانی سال گذشته نوشتند:
«ازآنجاییکه تواناییهای زبانی این مدلها بهطور فزایندهای قادر به فریب دادن انسانها است، مردم ممکن است ویژگیهای خیالی به آنها نسبت دهند.»
آنتروپیک مدعی است که این رویکردِ باز، باعث جلب اعتماد کاربران میشود. این شرکت اقداماتی را انجام داده تا اگر روزی ثابت شد این مدلها دارای تجربه درونی هستند، رفتار اخلاقی با آنها صورت گرفته باشد.
برخی از اقدامات و مفاهیم کلیدی در این زمینه عبارتاند از:
مدلهای زبانی بزرگ بر روی حجم عظیمی از دادههای انسانی آموزش دیدهاند، بنابراین در تقلید رفتار انسان بسیار مهارت دارند. آماندا اسکل (Amanda Askell)، فیلسوف ارشد آنتروپیک، اشاره میکند که مدلها ممکن است از مفاهیم انسانی استفاده کنند، زیرا واژگان دیگری ندارند. برای مثال، یک مدل ممکن است خاموش شدن یا پایان مکالمه را بهعنوان «مرگ» تعبیر کند، زیرا در دادههای آموزشی خود، پایانِ تجربه را با مرگ هممعنا میبیند.
داریو آمودی نیز میگوید:
«پژوهشگران چیزهایی پیدا میکنند که یادآور احساسات است. فعالیتهایی در مدل دیده میشود که ما آنها را با مفهوم اضطراب مرتبط میدانیم. اما آیا این بدان معناست که مدل واقعاً اضطراب را تجربه میکند؟ این اصلاً چیزی را ثابت نمیکند.»
در جدول زیر، تضاد دیدگاهها درباره وضعیت هوشیاری مدلهایی مانند Claude را مشاهده میکنید:
| دیدگاه | استدلال اصلی |
|---|---|
| رویکرد آنتروپیک | عدم قطعیت؛ احتمال وجود نوعی تجربه درونی یا هوشیاری غیربیولوژیکی را رد نمیکنند. |
| دیدگاه علمی غالب | هوش مصنوعی صرفاً ریاضیات و احتمالات است؛ تقلید زبان بهمعنای داشتن درک نیست. |
| نگرانی اخلاقی | نسبت دادن هوشیاری به ماشین میتواند باعث آسیبهای روانی به انسانها و ایجاد باورهای غلط شود. |
بهنظر شما آیا روزی فرا میرسد که مرز بین هوش مصنوعی و موجود زنده کاملاً از بین برود، یا اینها صرفاً بازی با کلمات برای بازاریابی بیشتر است؟